Mythos: Anthropic investiga acesso hacker a IA ‘perigosa demais’

O modelo, projetado para identificar falhas em sistemas e navegadores, teria sido invadido por hackers por meio de um portal de fornecedores

A Anthropic abriu uma apuração interna após identificar um possível acesso não autorizado ao sistema chamado Claude Mythos, uma ferramenta de cibersegurança descrita como sensível e avançada demais para ser disponibilizada ao público, segundo reportagem da Bloomberg.

De acordo com a investigação, o objetivo é entender como ocorreu o possível vazamento ou invasão, avaliar eventuais impactos e verificar se houve uso indevido da tecnologia. A ferramenta em questão é associada a testes de segurança e capacidades de análise de sistemas, o que aumenta a preocupação sobre riscos caso ela tenha sido acessada fora dos controles internos da empresa.

O sistema, desenvolvido para detectar vulnerabilidades em sistemas operacionais e navegadores, teria sido acessado por invasores através de um portal de fornecedores terceirizados. A empresa afirmou que, até o momento, não há indícios de que os sistemas principais ou infraestrutura central tenham sido afetados pelo incidente.

O caso acontece poucas semanas depois do anúncio do Projeto Glasswing, uma iniciativa que restringe o uso do Claude Mythos a um grupo limitado de parceiros considerados altamente confiáveis, incluindo empresas como Amazon, Apple, Microsoft e Cisco.

O que se sabe sobre a invasão ao Mythos da Anthropic
As investigações indicam que um grupo de usuários não autorizados, organizado em um canal privado na plataforma Discord, teria conseguido acessar o Mythos ao explorar falhas em um ambiente ligado a fornecedores terceirizados.

Segundo as apurações, os invasores utilizaram técnicas de investigação digital e suposições informadas sobre a possível localização de servidores para contornar as proteções e operar o sistema. Fontes próximas ao caso afirmam que o grupo estaria principalmente interessado em testar as capacidades do modelo de inteligência artificial, sem evidências de intenção maliciosa imediata até o momento.

Segundo as apurações, os invasores utilizaram técnicas de investigação digital e suposições informadas sobre a possível localização de servidores para contornar as proteções e operar o sistema. Fontes próximas ao caso afirmam que o grupo estaria principalmente interessado em testar as capacidades do modelo de inteligência artificial, sem evidências de intenção maliciosa imediata até o momento.

A capacidade do Claude Mythos explica o grande interesse que a ferramenta vem despertando. Em testes recentes, a Mozilla afirmou que o sistema ajudou a identificar e corrigir 271 vulnerabilidades no navegador Firefox, reforçando seu potencial em auditorias de segurança digital.

Esse nível de desempenho também teria chamado a atenção de grandes instituições financeiras, como JPMorgan Chase, Goldman Sachs e Bank of America, além de agências governamentais interessadas em utilizar a tecnologia para reforçar a proteção de infraestruturas críticas contra ataques cibernéticos.

Apesar dos avanços técnicos, o incidente de segurança ocorre em um momento sensível para a reputação da Anthropic. A empresa teria sido recentemente classificada como um possível “risco à cadeia de suprimentos” pelo Departamento de Defesa dos Estados Unidos, um rótulo que a companhia estaria tentando reverter em negociações com autoridades governamentais.

Sam Altman critica ‘marketing do medo’ e exclusividade da Anthropic
Em uma participação no podcast Core Memory, Sam Altman afirmou que a empresa estaria adotando uma espécie de “marketing baseado no medo” para aumentar a relevância de seus produtos.

De acordo com ele, a ideia de que uma inteligência artificial seria “forte demais para o público em geral” funcionaria como uma estratégia para concentrar essa tecnologia em um grupo reduzido de empresas e instituições governamentais.

Altman usou uma comparação provocativa: “É marketing dizer: ‘Criamos uma bomba e estamos prestes a lançá-la na sua direção, mas podemos te vender um abrigo antiaéreo por US$ 100 milhões’”, declarou o CEO da OpenAI.

Na visão dele, esse tipo de discurso sobre riscos extremos acaba sendo mais uma ferramenta para conquistar grandes contratos do que uma preocupação real com a segurança da sociedade.

Por outro lado, críticos argumentam que o uso de exageros e previsões alarmistas não é algo exclusivo da Anthropic, sendo uma prática recorrente no setor de inteligência artificial como um todo, incluindo também declarações anteriores do próprio Altman em diferentes contextos.

Fonte: Olhar Digital

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *