A segurança da IA está atrasada no desenvolvimento: as empresas de tecnologia carecem de planos de controle confiáveis

12

As principais empresas mundiais de inteligência artificial (IA) não estão a conseguir cumprir nem mesmo os seus próprios padrões de segurança declarados, alerta um novo relatório. Esta falta de supervisão surge à medida que a corrida em direcção à inteligência artificial geral (AGI) e à superinteligência – a IA que excede o intelecto humano – acelera, aumentando o potencial de utilização indevida “catastrófica” ou perda de controlo.

Regulamento de Superação de Riscos

O Índice de Segurança de IA de Inverno de 2025, divulgado pelo Future of Life Institute (FLI), avaliou oito grandes empresas de IA: Anthropic, OpenAI, Google DeepMind, xAI, Meta, DeepSeek, Alibaba Cloud e Z.ai. A avaliação concluiu que nenhuma empresa possui um plano verificável para manter o controle humano sobre sistemas de IA cada vez mais poderosos.

Especialistas independentes enfatizam a urgência: as empresas afirmam que podem construir uma IA sobre-humana, mas nenhuma consegue demonstrar como evitar a perda de controlo. Como afirmou um cientista da computação da UC Berkeley, as empresas de IA não podem atualmente garantir um nível de risco comparável aos padrões de segurança nuclear. Algumas estimativas colocam o risco de IA incontrolável em um em cada três, um número considerado inaceitável pelos benchmarks da indústria.

Esta disparidade entre capacidade e controlo é crítica porque a IA está a avançar a um ritmo sem precedentes. O que antes era considerado a décadas de distância – a superinteligência – é agora estimado por alguns como dentro de alguns anos. Entretanto, a regulamentação da IA ​​continua fraca. Nos EUA, a IA é menos regulamentada que os sanduíches, e as empresas de tecnologia fazem lobby ativamente contra padrões de segurança vinculativos.

Desempenho misto entre empresas

O relatório FLI avaliou as empresas em termos de avaliação de riscos, danos atuais, estruturas de segurança, segurança existencial, governação, responsabilização e partilha de informações.

  • Anthropic, OpenAI e Google DeepMind receberam elogios pela transparência e pesquisas de segurança, mas ainda apresentam pontos fracos. A mudança da Anthropic em direção ao treinamento de interação com o usuário levanta questões de privacidade. A OpenAI enfrenta escrutínio por fazer lobby contra a legislação e por falta de supervisão independente. A dependência do Google DeepMind de avaliadores externos pagos compromete a objetividade.
  • xAI publicou sua primeira estrutura de segurança, embora os revisores a considerassem limitada.
  • Z.ai permite avaliações externas sem censura, mas carece de total transparência na sua estrutura de governação.
  • Meta introduziu limites de segurança baseados em resultados, mas requer metodologias mais claras.
  • O DeepSeek não possui documentação básica de segurança, apesar da defesa interna.
  • Alibaba Cloud contribui para os padrões nacionais, mas deve melhorar a robustez e a confiabilidade do modelo.

Estas descobertas destacam que mesmo as empresas líderes lutam para implementar medidas de segurança abrangentes. Escândalos recentes envolvendo danos psicológicos, ataques cibernéticos e até suicídios assistidos por IA demonstram as consequências destas lacunas no mundo real.

Ampla oposição à AGI descontrolada

Os riscos crescentes provocaram reações sem precedentes. Em Outubro, milhares de figuras públicas de todo o espectro político – incluindo o antigo estratega de Trump, Steve Bannon, a ex-Conselheira de Segurança Nacional, Susan Rice, e líderes religiosos – assinaram uma petição apelando às empresas de IA para que abrandassem a sua busca pela superinteligência.

A coligação invulgar sublinha a ampla preocupação de que a IA não controlada possa eliminar empregos, exacerbar a desigualdade económica e, em última análise, minar a autonomia humana. Como observou um especialista: “A superinteligência tornaria cada trabalhador incapaz de ganhar a vida”. Esta convergência do medo dos movimentos trabalhistas de esquerda e das forças populistas de direita sugere que a questão transcende as divisões ideológicas tradicionais.

A trajetória atual do desenvolvimento da IA ​​apresenta riscos significativos e, sem melhorias substanciais nos quadros de segurança e na regulamentação, o potencial para resultados catastróficos permanece perigosamente elevado.