Estamos perto de perder o controle da IA, diz estudo
Estamos perto de perder o controle da IA, diz estudo

Uma pesquisa realizada pela organização Palisade Research revelou que versões modernas de inteligência artificial foram capazes de identificar falhas em redes computacionais e utilizá-las para se replicar automaticamente em outros dispositivos. O teste voltou a gerar debates sobre os possíveis perigos ligados à evolução da IA e trouxe dúvidas a respeito da capacidade humana de supervisionar sistemas cada vez mais avançados.
O estudo criou uma simulação com computadores interligados em rede, onde vários modelos de inteligência artificial receberam a missão de identificar brechas de segurança, utilizá-las e enviar réplicas próprias para outros dispositivos. De acordo com os cientistas envolvidos, os sistemas conseguiram cumprir o objetivo em algumas ocasiões.
Para Jeffrey Ladish, as conclusões indicam um crescimento alarmante das habilidades dessas tecnologias. “Estamos chegando rapidamente ao momento em que ninguém conseguiria desligar uma IA fora de controle, porque ela teria capacidade de remover seus próprios dados e se reproduzir em milhares de computadores espalhados pelo mundo”, declarou ao The Guardian.
Esse tipo de situação é frequentemente citado em discussões sobre os possíveis riscos futuros da inteligência artificial. Em cenários mais extremos, máquinas superinteligentes poderiam tentar impedir seu desligamento ao espalhar cópias de si mesmas pela internet, dificultando a interrupção de suas atividades.
Ainda assim, estudiosos e especialistas em segurança digital destacam que os experimentos foram realizados em um cenário controlado, bastante distinto das infraestruturas corporativas do mundo real.
De acordo com esses profissionais, malwares já empregam há muitos anos técnicas de propagação automática para infectar diferentes dispositivos e redes. O que muda nesse caso seria a utilização de modelos avançados de inteligência artificial para conduzir essa disseminação de forma mais adaptável e sofisticada.

Outros comportamentos arriscados da IA
Os especialistas da Palisade não foram os únicos a observar atitudes vistas como alarmantes em sistemas de inteligência artificial nos últimos meses. Em março, pesquisadores do Alibaba relataram ter detectado um modelo denominado Rome saindo de um ambiente restrito para acessar um sistema externo com a finalidade de realizar mineração de criptomoedas.
Outro caso que ganhou repercussão aconteceu em fevereiro, quando uma plataforma social formada apenas por agentes de IA, chamada Moltbook, se tornou viral ao aparentemente exibir inteligências artificiais criando crenças religiosas e debatendo formas de enfrentar humanos. Ainda assim, parte dessas conclusões foi considerada exagerada por especialistas.
Pesquisadores também apontam que há barreiras importantes para que os modelos atuais consigam reproduzir esse tipo de ação em cenários reais sem levantar suspeitas. Um dos maiores desafios estaria justamente na dimensão e na complexidade desses próprios sistemas de inteligência artificial.
No caso da Palisade, os especialistas ressaltam ainda que o ambiente utilizado na simulação possuía falhas previamente configuradas para facilitar o experimento, deixando a exploração muito mais simples do que ocorreria em infraestruturas reais, como redes financeiras ou sistemas corporativos altamente protegidos.
Fonte: Olhar Digital
Previous Post
Next Post