Google interrompe ataque com IA e faz alerta sobre cibersegurança

Google afirma ter interrompido ataque que usava IA para explorar falha zero-day e alerta para avanço de hackers com tecnologia

O Google informou nesta segunda-feira (11) que conseguiu barrar uma tentativa de um grupo de cibercriminosos de utilizar inteligência artificial para explorar uma falha de segurança ainda não conhecida em uma outra organização. A informação foi divulgada pela agência Associated Press.

Segundo a empresa, o episódio reforça alertas já levantados por especialistas em segurança digital sobre o uso de inteligência artificial por hackers para agilizar ataques e a exploração de falhas em sistemas. O Google afirmou ter encontrado indícios de que os criminosos recorreram a um modelo de linguagem baseado em IA — tecnologia semelhante à empregada em chatbots amplamente conhecidos — para localizar a vulnerabilidade explorada.

Vulnerabilidade permitia burlar autenticação em dois fatores
De acordo com o Google, a vulnerabilidade permitia burlar a autenticação em dois fatores e acessar uma ferramenta amplamente utilizada para administração de sistemas online, cujo nome não foi revelado pela empresa.

A companhia descreveu o incidente como um “zero-day exploit”, expressão usada para ataques que exploram falhas ainda desconhecidas pelos desenvolvedores do software. Nesse tipo de cenário, as equipes de segurança ainda não tiveram oportunidade de criar e distribuir uma correção ou atualização para o problema.

John Hultquist, analista-chefe da área de inteligência de ameaças do Google, afirmou que o caso confirma um alerta que vem sendo discutido há anos por especialistas em segurança digital. “A era da exploração de vulnerabilidades impulsionada por IA já chegou”, declarou ele à Associated Press.

O Google informou ainda que comunicou a empresa atingida e também autoridades de segurança pública, além de afirmar que conseguiu interromper a operação antes que qualquer dano fosse causado.

Avanço da IA aumenta preocupações com cibersegurança
A empresa não divulgou qual modelo de inteligência artificial teria sido utilizado no ataque, mas afirmou que provavelmente não se tratava do Gemini, desenvolvido pelo próprio Google, nem do Claude da Anthropic.

O Google também declarou não ter encontrado indícios de envolvimento de governos adversários, embora tenha observado que grupos associados à China e à Coreia do Norte vêm testando abordagens semelhantes.

O caso ocorre em meio ao avanço das capacidades da inteligência artificial na identificação de vulnerabilidades em sistemas. Um exemplo citado é o modelo Mythos, apresentado recentemente pela Anthropic, descrito como altamente eficiente em tarefas relacionadas a hacking e segurança cibernética.

Nos Estados Unidos, o tema também vem gerando debates sobre possíveis formas de regulação da inteligência artificial. O governo do presidente Donald Trump anunciou recentemente acordos com Google, Microsoft e xAI para realizar avaliações de modelos avançados de IA antes de seu lançamento público, ampliando iniciativas já existentes envolvendo empresas como OpenAI e Anthropic.

Especialistas apontam que essas ferramentas podem contribuir para o fortalecimento da segurança digital no longo prazo, mas também podem aumentar os riscos durante a fase de transição tecnológica. Dean Ball, pesquisador sênior da Foundation for American Innovation e ex-conselheiro de política tecnológica da Casa Branca, afirmou à Associated Press que existem “trilhões de linhas de código” potencialmente vulneráveis em sistemas atualmente em uso.

Segundo ele, o mundo pode enfrentar um período de elevação significativa dos riscos de cibersegurança antes que softwares e infraestruturas sejam devidamente reforçados e adaptados a esse novo cenário.

Fonte: Olhar Digital

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *