As empresas de inteligência synthetic estão “fundamentalmente despreparadas” para as consequências da criação de sistemas com desempenho intelectual em nível humano, de acordo com um grupo de segurança da IA líder.
O Way forward for Life Institute (FLI) disse que nenhuma das empresas em seu Índice de Segurança da AI pontuou mais alto que um d para “planejamento de segurança existencial”.
Um dos cinco revisores do relatório da FLI disse que, apesar de ter como objetivo desenvolver a inteligência geral synthetic (AGI), nenhuma das empresas examinadas tinha “algo como um plano coerente e acionável” para garantir que os sistemas permanecessem seguros e controláveis.
AGI refere -se a um estágio teórico de desenvolvimento de IA no qual um sistema é capaz de combinar um humano na execução de qualquer tarefa intelectual. O Openai, o desenvolvedor do ChatGPT, disse que sua missão é garantir que a AGI “beneficie toda a humanidade”. Os ativistas de segurança alertaram que a AGI poderia representar uma ameaça existencial, evitando o controle humano e desencadeando um evento catastrófico.
O relatório da FLI dizia: “O setor está fundamentalmente despreparado para suas próprias metas declaradas. As empresas afirmam que alcançarão a Inteligência Geral Synthetic (AGI) na década, mas nenhuma pontuou acima do planejamento de segurança existencial. ”
O índice avalia sete desenvolvedores de IA – Google DeepMind, Openai, Anthropic, Meta, Xai e Zhipu AI da China e Deepseek – em seis áreas, incluindo “danos atuais” e “segurança existencial”.
O antropic recebeu a maior pontuação geral de segurança com um C+, seguido pelo OpenAI com um C e Google Deepmind com um C-.
O FLI é uma organização sem fins lucrativos dos EUA que campanhas para o uso mais seguro de tecnologia de ponta e é capaz de operar de forma independente devido a uma doação “incondicional” do empresário de criptografia Vitalik Buterin.
Saferéi, outra organização sem fins lucrativos focada na segurança, também divulgou um relatório na quinta -feira Aviso de que as empresas avançadas de IA têm práticas de gerenciamento de riscos muito fracas a muito fracas e rotulou sua abordagem atual “inaceitável”.
Os graus de segurança da FLI foram designados e revisados por um painel de especialistas em IA, incluindo o cientista da computação britânico Stuart Russell, e Sneha Revanur, fundadora do grupo de campanha de regulamentação da IA codifica justiça.
Max Tegmark, co-fundador da FLI e professor do Instituto de Tecnologia de Massachusetts, disse que period “bastante chocante” que as empresas de IA de ponta pretendiam construir sistemas super-inteligentes sem publicar planos para lidar com as consequências.
Ele disse: “É como se alguém estivesse construindo uma gigantesca usina nuclear na cidade de Nova York e ela será aberta na próxima semana – mas não há plano para impedir que ela tenha um colapso”.
Tegmark disse que a tecnologia continuava superando as expectativas, citando uma crença anteriormente considerada que os especialistas teriam décadas para enfrentar os desafios da AGI. “Agora as próprias empresas estão dizendo que está a alguns anos”, disse ele.
Ele acrescentou que o progresso nas capacidades da IA havia sido “notável” desde a Cúpula International da IA em Paris em fevereiro, com novos modelos como a XAI’s Grok 4, o Google Gemini 2.5 e seu gerador de vídeo VEO3, todos mostrando melhorias em seus antepassados.
Um porta -voz do Google DeepMind disse que os relatórios não levaram em consideração “todos os esforços de segurança da IA do Google DeepMind”. Eles acrescentaram: “Nossa abordagem abrangente à segurança e segurança da IA se estende muito além do que é capturado”.
Openai, antropia, Meta, Xai, Zhipu AI e Deepseek também foram abordados para comentar.