A padronização da tecnologia tem sido uma espécie de santo graal indescritível, com novas tecnologias emergindo mais rápido do que os grupos de padrões podem acompanhar. No entanto, de alguma forma, as coisas acabam se unindo – pelo menos para sistemas maduros – e alcançarem interoperabilidade, sejam redes de e -mail ou ferramentas de desenvolvedor.
Agora, uma nova corrida contra o tempo chegou à tona, com os esforços para domar uma das tecnologias de desenvolvimento mais rápido vistas até o momento-inteligência synthetic. Os grupos de padrões, com suas deliberações propositalmente mais lentas e altamente participativas, permanecem à frente da curva da IA? E eles podem alcançar padrões em uma tecnologia tão abstrata e amorfa quanto a IA, que também muda a cada poucos meses?
Além disso: 60% dos gerentes usam a IA para tomar decisões agora, incluindo quem promover e disparar – o seu?
Há um bom argumento a ser feito para os padrões de IA, pois é uma tecnologia cheia de armadilhas: deeffakes, preconceitos, erros de desvio e alucinações. E, diferentemente das tecnologias que foram anteriores, a IA apresenta mais do que um problema de engenharia de software program – é um problema social.
Um consórcio de órgãos de padrões procura adotar uma nova abordagem à IA, reconhecendo suas grandes implicações. Os esforços ativos estão em andamento para envolver profissionais não técnicos na formulação dos padrões que definirão a IA nos próximos anos.
Um coletivo de corpos de padrões – o Colaboração de padrões de autenticidade da IA e multimídia (AMAS) – busca a IA mais segura para um mundo justificável e cético. A iniciativa, buscando abordar o uso indevido de conteúdo gerado pela IA, foi anunciado na recente cúpula international “AI para boa” em Genebra. O esforço é liderado pelo Comissão Eletrotécnica Internacional (IEC), o Organização Internacional para Padronização (ISO) e o União Internacional de Telecomunicações (ITU).
Além disso: usei a ferramenta fotográfica ai do Google na minha selfie-e isso me fez fazer o tango
O grupo espera desenvolver padrões que ajudem a proteger a integridade da informação, defender os direitos individuais e promover a confiança no ecossistema digital. Eles procuram garantir que os usuários possam identificar a proveniência do conteúdo gerado e alterado da IA. Os direitos humanos, nunca mencionados em padrões técnicos, são o topo de espírito para os defensores dos padrões de hoje.
Todas as coisas boas, com certeza. Mas as principais empresas e empresas de tecnologia serão totalmente compradas em padrões de IA que podem prejudicar a inovação no que é um espaço em movimento rápido?
“Estamos basicamente dizendo que o espaço da IA está uma bagunça, porque a tecnologia vai em todas as direções”, disse Gilles Thonet, vice-secretário-geral da IEC, em um briefing specific. “Você não encontrará a resposta no aplicativo de IA. Você precisa definir o que é um sistema”.
Como os sistemas de IA envolvem interação em muitos níveis, pode ser basic definir esses sistemas. Por exemplo, Thonet continuou: “Considere a visualização de sistemas para dirigir um carro: manutenção de distância, rotação da roda, todos os sensores. Cabe aos desenvolvedores de software program definir o que é um sistema. É tudo o que é um sistema? Qual é o sistema dentro do sistema?”
O incentivo para seguir os padrões é o acesso ao mercado, disse Thonet. “Está basicamente tentando entender uma cadeia de necessidades”. No processo, o papel das organizações de padrões como a IEC está evoluindo-de esforços fechados limitados aos engenheiros a um maior ativismo envolvendo uma seção mais ampla da sociedade.
Além disso: 5 razões pelas quais eu ainda prefiro perplexidade a todos os outros chatbot de IA
“Essa mudança de mentalidade é importante para nós”, continuou Thonet. “Antes, se eu falasse com qualquer engenheiro e mencionasse o termo ‘direitos humanos’, eles responderiam que ‘não é nosso trabalho, apenas nos preocupamos com os padrões’. Uma das coisas que vimos acontecendo nos últimos anos é [that] A composição dos comitês ou subcomitês técnicos está mudando. Então, uma vez, teria sido principalmente engenheiros, agora estamos vendo ética, cientistas sociais e especialistas jurídicos que se juntam ao trabalho de padronização “.
As categorias de padrões sob desenvolvimento dentro do AMAS incluem proveniência de conteúdo, confiança e autenticidade, identificadores de ativos e declarações de direitos. Tais esforços começaram a sério há cerca de cinco anos, com a formulação de um padrão basic para a confiabilidade na inteligência synthetic. O padrão forneceu diretrizes para avaliar a confiabilidade e a integridade dos sistemas de IA. No início deste ano, a IEC e a ISO publicaram a primeira parte de uma nova série JPEG Belief de padrões internacionais para mídia, incluindo vídeo e áudio – uma arma importante contra a ascensão de vídeos e imagens de Deepfake.
Os padrões lançados este ano sob a égide das AMAs incluem o seguinte:
- JPEG Belief Half 1: Concentra-se na confiança e autenticidade em imagens JPEG por meio de proveniência, detecção e verificação de fatos. Ele fornece uma estrutura para incorporar metadados diretamente nos arquivos JPEG na forma de indicadores de confiança.
- Credenciais de conteúdo: Descreve os métodos para documentar credenciais de conteúdo para garantir que o conteúdo digital seja rastreável e sua autenticidade possa ser verificada. Ele especifica os tipos de metadados que devem ser incluídos e os formatos para armazenar essas informações.
- Metadados Cawg: Fornece uma estrutura para expressar metadados que captura informações detalhadas sobre o conteúdo, incluindo propriedade e autoria.
Além disso: encontrei 5 detectores de conteúdo de IA que podem identificar corretamente o texto da IA 100% do tempo
Agora existem vários padrões em andamento que também procuram construir confiança na mídia digital e na IA:
- Marca d’água digital: Supervisionado pelo IEEE, esse padrão proposto oferece métodos para avaliar a robustez do marquinho de água digital. Inclui diretrizes para criar e manter arquivos de avaliação, que podem ser usados para documentar a avaliação de ativos digitais.
- Perfil authentic: Inclui diretrizes para criar e manter perfis que capturam informações detalhadas sobre o criador e o processo de criação do conteúdo.
- Confiança.txt Os métodos descritas para estabelecer confiança no conteúdo digital e incluem diretrizes para criar e manter os arquivos Belief.txt, que podem ser usados para documentar a confiabilidade dos ativos digitais.
- Use o vocabulário do caso: Um vocabulário padronizado de casos de uso que podem ser direcionados ao expressar opt-out legíveis por máquina relacionadas à mineração de texto e dados e treinamento de IA. Permite que declarar as partes para comunicar restrições ou permissões sobre o uso de ativos digitais.
- Estrutura para autenticação do conteúdo multimídia: Especifica uma solução técnica para verificar a integridade de conteúdo multimídia, permitindo que os usuários confirmem a autenticidade do conteúdo de seus criadores. A solução é baseada na assinatura digital de fluxos de dados. O criador de conteúdo (codificador) usa uma chave privada para assinar o conteúdo, enquanto o destinatário (decodificador) usa uma chave pública correspondente para verificar a autenticidade.
Além disso: por que negligenciar a ética da IA é um negócio tão arriscado – e como fazer a IA certa
Quer mais histórias sobre a IA? Inscreva -se para a inovaçãonossa publication semanal.