Início Notícias As empresas de IA ‘despreparadas’ para os perigos da construção de sistemas...

As empresas de IA ‘despreparadas’ para os perigos da construção de sistemas de nível humano, relatam alerta

15
0

As empresas de inteligência synthetic estão “fundamentalmente despreparadas” para as consequências da criação de sistemas com desempenho intelectual em nível humano, de acordo com um grupo de segurança da IA líder.

O Way forward for Life Institute (FLI) disse que nenhuma das empresas em seu Índice de Segurança da AI pontuou mais alto que um d para “planejamento de segurança existencial”.

Um dos cinco revisores do relatório da FLI disse que, apesar de ter como objetivo desenvolver a inteligência geral synthetic (AGI), nenhuma das empresas examinadas tinha “algo como um plano coerente e acionável” para garantir que os sistemas permanecessem seguros e controláveis.

AGI refere -se a um estágio teórico de desenvolvimento de IA no qual um sistema é capaz de combinar um humano na execução de qualquer tarefa intelectual. O Openai, o desenvolvedor do ChatGPT, disse que sua missão é garantir que a AGI “beneficie toda a humanidade”. Os ativistas de segurança alertaram que a AGI poderia representar uma ameaça existencial, evitando o controle humano e desencadeando um evento catastrófico.

O relatório da FLI dizia: “O setor está fundamentalmente despreparado para suas próprias metas declaradas. As empresas afirmam que alcançarão a Inteligência Geral Synthetic (AGI) na década, mas nenhuma pontuou acima do planejamento de segurança existencial. ”

O índice avalia sete desenvolvedores de IA – Google DeepMind, Openai, Anthropic, Meta, Xai e Zhipu AI da China e Deepseek – em seis áreas, incluindo “danos atuais” e “segurança existencial”.

O antropic recebeu a maior pontuação geral de segurança com um C+, seguido pelo OpenAI com um C e Google Deepmind com um C-.

O FLI é uma organização sem fins lucrativos dos EUA que campanhas para o uso mais seguro de tecnologia de ponta e é capaz de operar de forma independente devido a uma doação “incondicional” do empresário de criptografia Vitalik Buterin.

Saferéi, outra organização sem fins lucrativos focada na segurança, também divulgou um relatório na quinta -feira Aviso de que as empresas avançadas de IA têm práticas de gerenciamento de riscos muito fracas a muito fracas e rotulou sua abordagem atual “inaceitável”.

Os graus de segurança da FLI foram designados e revisados por um painel de especialistas em IA, incluindo o cientista da computação britânico Stuart Russell, e Sneha Revanur, fundadora do grupo de campanha de regulamentação da IA codifica justiça.

Max Tegmark, co-fundador da FLI e professor do Instituto de Tecnologia de Massachusetts, disse que period “bastante chocante” que as empresas de IA de ponta pretendiam construir sistemas super-inteligentes sem publicar planos para lidar com as consequências.

Ele disse: “É como se alguém estivesse construindo uma gigantesca usina nuclear na cidade de Nova York e ela será aberta na próxima semana – mas não há plano para impedir que ela tenha um colapso”.

Tegmark disse que a tecnologia continuava superando as expectativas, citando uma crença anteriormente considerada que os especialistas teriam décadas para enfrentar os desafios da AGI. “Agora as próprias empresas estão dizendo que está a alguns anos”, disse ele.

Ele acrescentou que o progresso nas capacidades da IA havia sido “notável” desde a Cúpula International da IA em Paris em fevereiro, com novos modelos como a XAI’s Grok 4, o Google Gemini 2.5 e seu gerador de vídeo VEO3, todos mostrando melhorias em seus antepassados.

Um porta -voz do Google DeepMind disse que os relatórios não levaram em consideração “todos os esforços de segurança da IA do Google DeepMind”. Eles acrescentaram: “Nossa abordagem abrangente à segurança e segurança da IA se estende muito além do que é capturado”.

Openai, antropia, Meta, Xai, Zhipu AI e Deepseek também foram abordados para comentar.

fonte