Google intercepta primeiro ataque zero-day criado com IA

Pesquisadores encontraram indícios no script Python usado no exploit que indicavam assistência da tecnologia

O Google afirmou ter detectado e interrompido, pela primeira vez, um ataque zero-day criado com suporte de inteligência artificial.

De acordo com o Google Threat Intelligence Group (GTIG), grupos relevantes ligados ao cibercrime pretendiam utilizar a brecha em uma operação de exploração em larga escala, capaz de burlar a autenticação em dois fatores de uma ferramenta open source de gerenciamento web ainda não revelada.

Os especialistas da empresa identificaram sinais no código em Python do exploit que sugerem o uso de IA no desenvolvimento, como uma pontuação CVSS inconsistente e uma estrutura de escrita organizada e explicativa, semelhante ao padrão produzido por modelos de linguagem treinados com grandes volumes de dados. O ataque aproveitava uma falha lógica de natureza semântica, baseada em uma suposição incorreta de confiança implementada pelo programador no mecanismo de autenticação em duas etapas da plataforma.

A revelação surge poucas semanas após aumentarem os debates sobre o potencial de modelos de IA voltados para segurança digital, incluindo o Mythos, da Anthropic, além de uma vulnerabilidade recente no Linux cuja descoberta também teria contado com auxílio de inteligência artificial.

Primeira evidência de IA em ataques cibernéticos

  • Esta teria sido a primeira ocasião em que o Google identificou sinais concretos de uso de inteligência artificial na criação de um ataque desse tipo, embora os analistas ressaltem que “não há indícios de que o Gemini tenha sido utilizado”;
  • A empresa informou que conseguiu neutralizar esse exploit em específico, mas alertou que criminosos virtuais estão recorrendo cada vez mais à IA para localizar e explorar falhas de segurança;
  • O relatório também destaca a própria inteligência artificial como alvo de ameaças, afirmando que “o GTIG observou invasores focando cada vez mais em componentes integrados que ampliam as capacidades dos sistemas de IA, como funções autônomas e integrações com serviços externos”;
  • O documento ainda descreve o uso de técnicas de “jailbreak orientado por persona”, nas quais hackers manipulam a IA para identificar vulnerabilidades, por exemplo instruindo o modelo a agir como um especialista em segurança cibernética;
  • Além disso, os criminosos vêm alimentando modelos de IA com grandes bancos de dados de vulnerabilidades e utilizando o OpenClaw de maneiras que indicam “tentativas de aperfeiçoar payloads gerados por IA em ambientes controlados, aumentando a eficácia do exploit antes de sua execução real”.

Fonte: Olhar Digital

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *