Brand depois que Trump reverteu a ordem de Biden em seu primeiro dia no cargo, o ex -chefe da AISI dos EUA, Elizabeth Kelly – agora supervisionando a implantação benéfica na Anthropic – deixou o cargo no ultimate de fevereiro. A mudança apareceu devido à demissão de Trump de qualquer coisa relacionada à Biden e aos esforços de segurança e responsabilidade da IA.
O governo Trump não convidou os membros da AISI a se juntarem ao vice -presidente JD Vance em Cúpula de ação da AI da França em fevereiro, onde ele defendeu acabando com as precauções de segurança para a comunidade internacional.
Em 3 de junho, o Departamento de Comércio dos EUA anunciou que a AISI se tornaria o “Centro Professional -Science dos EUA de IA” Professional -Innovation para os padrões e inovação da IA (Caisi) “. O comunicado afirmou que o centro funcionaria como o principal ponto de contato do governo da indústria de IA – assim como o nome anterior, mas com uma perspectiva ligeiramente diferente que parece principalmente semântica.
Além disso: o que ‘Openai for Authorities’ significa para a política de IA
“Por muito tempo, a censura e os regulamentos foram usados sob o disfarce de segurança nacional. Os inovadores não serão mais limitados por esses padrões”, escreveu o secretário de Comércio Howard Lutnick no comunicado. “O Caisi avaliará e aprimorará a inovação dos EUA desses sistemas de IA comercial de desenvolvimento rápido, garantindo que eles permaneçam seguros aos nossos padrões de segurança nacional”.
A Caisi desenvolverá padrões de modelos, conduzirá testes e “representará interesses americanos internacionalmente para se proteger contra a regulamentação onerosa e desnecessária das tecnologias americanas por governos estrangeiros”, esclarece o lançamento. Não há menção à criação de uma cultura de relatórios de titulações vermelhas modelo, por exemplo ou exigindo que as empresas publiquem os resultados de certos testes de implantação, que algumas leis locais Como o ato de Raise de Nova York abordar como requisitos de segurança.
A segurança pode não ser uma das principais prioridades da política, o que deixa a comunidade de IA para verificar a si mesma. Na semana passada, pesquisadores de várias grandes empresas de IA se reuniram para defender a preservação do monitoramento da cadeia de pensamento (COT) ou o processo de observar a resposta do COT de um modelo de raciocínio como uma maneira de capturar intenções prejudiciais e outros problemas de segurança.
Embora seja encorajador ver as empresas de IA concordarem com uma medida de segurança, não é o mesmo que a regulamentação imponente do governo. Por exemplo, uma política de IA organizada para avançar o progresso com segurança adequada e proteções de direitos civis poderia adaptar essa recomendação a um requisito para empresas que lançam novos modelos.