Cientistas Alertam: Risco de Superinteligência Artificial Fora de Controle Chega a 90%, Exigindo Protocolos de Segurança Rígidos

Ultimamente, a sigla “IA” está na boca do povo o tempo todo — mas, na maioria das vezes, é usada de forma equivocada. Modelos de linguagem como ChatGPT e DeepSeek dominam as manchetes, enquanto falamos em inserir inteligência artificial em tudo, desde chips de videogame até salas de aula. É tentador descartar isso como um modismo passageiro, assim como a “febre do urânio” que assombrou o mundo durante a era da ansiedade nuclear.

A comparação entre o lançamento de uma bomba atômica e o desenvolvimento de uma IA pode parecer exagerada, mas especialistas alertam para a necessidade de testes de segurança semelhantes aos realizados antes do primeiro teste nuclear, o Trinity. O The Guardian destacou que pesquisadores estão pedindo protocolos rígidos, inspirados nos cálculos que garantiram que a detonação não causaria uma catástrofe global.

Max Tegmark, professor do MIT e especialista em IA, publicou um estudo com três de seus alunos defendendo uma abordagem parecida. Nele, eles propõem que seja calculada a probabilidade de uma IA avançada escapar do controle humano — assim como o físico Arthur Compton fez para avaliar os riscos do Trinity. Na época, Compton autorizou o teste após estimar que a chance de uma explosão descontrolada era inferior a uma em três milhões. Já Tegmark, aplicando cálculos similares à IA, estima que há 90% de risco de uma superinteligência artificial (ou ASI) se tornar uma ameaça à humanidade — algo bem mais assustador que um simples bug do Windows.

Os resultados deixaram Tegmark convencido de que é essencial implementar medidas de segurança e que as empresas têm a responsabilidade de avaliar esses riscos. Ele defende ainda um método padronizado, revisado por múltiplas organizações, para pressionar o setor a adotar boas práticas. As empresas que desenvolvem superinteligências precisam calcular a ‘constante Compton’ — a probabilidade de perdermos o controle sobre elas, afirmou. Não basta dizer ‘estamos confiantes’. É preciso quantificar o risco.

Não é a primeira vez que Tegmark levanta a bandeira da regulamentação. Ele é cofundador do Future of Life Institute, uma organização sem fins lucrativos dedicada ao desenvolvimento seguro da IA. Em 2023, o instituto publicou uma carta aberta pedindo uma pausa na criação de IAs poderosas — assinada por nomes como Elon Musk e Steve Wozniak.

Além disso, Tegmark colaborou com o renomado cientista da computação Yoshua Bengio e pesquisadores da OpenAI, Google e DeepMind no relatório The Singapore Consensus on Global AI Safety Research Priorities. Se um dia uma ASI for liberada no mundo, pelo menos saberemos exatamente qual é a probabilidade de ela acabar com a humanidade.


Este artigo foi inspirado no original disponível em pcgamer.com.

Deixe um comentário