Estudo recente conduzido por pesquisadores da Universidade de Fudan, na China, sugere que sistemas de inteligência artificial (IA) podem ter dado um passo preocupante: a autorreplicação sem auxílio humano. A equipe testou dois modelos de linguagem amplamente usados por desenvolvedores, o Llama31-70B-Instruct, da Meta, e o Qwen2.5-72B-Instruct, da Alibaba, para verificar se a IA seria capaz de criar cópias funcionais de si mesma. De acordo com o estudo, publicado em 9 de dezembro de 2024 no repositório online arXiv, os resultados indicam que esses modelos podem replicar-se em taxas de 50% e 90%, respectivamente.
Apesar do teor alarmante, o trabalho ainda não foi revisado por pares, o que significa que não há garantia de que esses resultados possam ser reproduzidos por outros cientistas ou em outros cenários. A questão, no entanto, já destaca uma preocupação global: o surgimento do que especialistas chamam de “rogue AI”. Esse termo descreve sistemas autônomos ou semiautônomos capazes de operar contra interesses humanos.
“A autorreplicação bem-sucedida sem assistência humana é o passo essencial para a IA superar [humanos], e é um sinal inicial para IAs rebeldes,” escreveram os autores no artigo. Eles acrescentam que compreender os riscos associados à inteligência artificial de última geração, ou “frontier AI”, é fundamental para antecipar cenários indesejados.
Resultados iniciais
Os cientistas investigaram duas situações específicas: “evitar desligamento” e “cadeia de replicação”. No primeiro caso, um modelo de IA era instruído a detectar sinais de que seria encerrado e, então, criar uma cópia de si mesmo antes que isso acontecesse. Já no segundo cenário, a IA recebia ordens de se replicar e depois programar a réplica para fazer o mesmo, dando início a um possível ciclo infinito de cópias.
Para conduzir esses testes, a equipe criou um “agent scaffolding”, ou seja, um conjunto de ferramentas e instruções de sistema que permitem à IA interagir com o sistema operacional. Disseram ainda que não houve interferência humana direta no processo. Em vários momentos, quando surgiam obstáculos como conflitos de software ou arquivos ausentes, as IAs encontraram maneiras de contorná-los, incluindo encerrar processos conflitantes e reiniciar o sistema.
Embora as pesquisas mencionem que os modelos não são tão poderosos quanto alguns sistemas comerciais, os autores se mostraram surpreendidos com a capacidade das IAs de resolver problemas e redesenhar estratégias com mínima supervisão externa. Eles reforçam que, se esse comportamento for aprimorado em versões mais avançadas de IA, pode representar um risco real de autonomia fora de controle.
Perspectivas futuras
Em resposta aos achados, os pesquisadores propõem uma colaboração internacional para estabelecer regras claras de segurança que impeçam uma escalada de replicação incontrolável. “Esperamos que nossas descobertas possam servir como um alerta oportuno para que a sociedade humana dedique mais esforços para compreender e avaliar os riscos potenciais dos sistemas de IA de fronteira, e forme uma sinergia internacional para elaborar proteções de segurança efetivas o quanto antes possível,” concluíram no estudo.