Início Esportes Quando um agente de IA tenta matá -lo, quem vai para a...

Quando um agente de IA tenta matá -lo, quem vai para a cadeia?

11
0

Você é um operador de bonde. Se você precisar de mais detalhes, digamos que seja Fin de Siècle Vienna e você terá um boné alegre.

Oh não! Seu bonde está entrando em um grupo de pessoas. Mas você observa que eles estão além de uma junção na pista cuja troca você controla. Se você puxar a alavanca, seu bonde passará para a outra faixa – e a segurança!

… ou vai ??? Na verdade, há um único civil infeliz por lá; Talvez seja uma criança em uma carruagem de bebê cuja roda está presa na pista; Ou talvez seja uma pessoa idosa cujo Walker também tenha sido imobilizado. Eles não poderiam saber que um bonde estaria nele. Se você puxar o interruptor, você os eliminará. Mas se você não puxar o interruptor, matará os infelizes civis diretamente na sua frente. O que você faz? Seu boné alegre se tornou um boné de pensamento.


O Problema do carrinhocomo é conhecido, é um quebra -cabeça filosófico clássico. Pretende -se revelar que a ação e a inação são atos moralmente conseqüentes, mas para mim também serve como uma espécie de teorema da incompletude para o utilitarismo. Não importa o que você pense que sabe sobre a situação, a decisão está repleta. Importa se a pessoa na outra faixa é jovem ou velha? Doente ou bem? E o grupo diretamente na sua frente? E se for uma pessoa? Dois? Dez? E se eles são nazistas? E se eles são artistas? E se eles estão atualmente nazistas que mudam de coração depois de terem sido poupados? Ou ativistas de esquerda militantes que se tornam abruptamente nazistas quando percebem que foram submetidos a um experimento problemático merciless de carrinho?

Entre as muitas takeaways válidas (e proceed lendo outras exegersas do problema do carrinho, existem muitos), o que estou tentando destacar aqui é a incerteza: você nunca poderá saber todas as contrafactes de todas as ramos de todas as decisões que você não tomou, para que nunca haverá uma resposta correta ou errada concreta em uma estrutura utilitária. Em vez disso, lidamos com o problema do carrinho por um Host intelectual intelectual e apoios morais que vivem fora da utilidade e além do momento da decisão. Isso não é novidade. A teoria do contrato social information da pré -história.

A inteligência synthetic quebra o contrato social de uma maneira invisível para um utilitário. Pense no problema do carrinho novamente, mas com um carrinho autônomo. Parece muito diferente: a primeira vez, você se coloca no lugar do motorista do carrinho. Você pensou em como seria sentir ter que tomar a decisão. Você entendeu a imperfeição da configuração e arruinou a injustiça do cenário em que o motorista estava. Você pode ter pensado, como eu:: Bem, no calor do momento, você terá que tomar a decisão. Às vezes, vai de um lado, e às vezes outro; E no geral, você só espera que isso se equilibre.

Algo grande muda quando há uma inteligência synthetic pré -programada ao volante. Tudo que posso imaginar é aquela cena na adaptação cinematográfica de Deixe o mundo para trásem que uma família é quase morta por um monte de Teslas colidindo um com o outro. Mesmo se não gostarmos, toleramos humanos rolando por sinais de parada, Mas não podemos fazer o mesmo para veículos elétricos. As tendências de um carro autônomo-ou seus preconceitos, erros ou falhas ou bugs ou talvez apenas as imaginações incompletas de seus programadores-seriam incansavelmente manifestados e, assim, amplificados. Não haverá equilíbrio de escalas, nem jurisprudência útil, não interminável e, portanto, humano Ruminações sobre o verdadeiro significado do dilema. A menos que possamos detê -los antes que eles continuem, eles continuarão colidindo com a mesma pessoa e mais repetidamente. A pergunta importante a fazer não é se devemos detê -los, mas por que meios.


O utilitarismo é uma maneira simplista de falar sobre tomada de decisão e ethical porque o utilitarismo é uma maneira simplista de pensar sobre tomada de decisão e ethical. Mas acho que é isso que realmente estamos fazendo quando falamos sobre inteligência synthetic em termos de capacidade. Quando enfatizamos o quanto é péssimo agora (mesmo que isso seja claramente verdadeiro), aceitamos um enquadramento que dificulta a rejeição de uma vez que não é péssimo.

Em vez disso, acho que chegou a hora de rejeitar completamente um enquadramento baseado em habilidade. Existem muitas razões para isso; Vou mencionar dois. Primeiro, a premissa de uma quantidade objetiva que podemos chamar de habilidade geral é falha e incompleta e não a base de como ordenamos a sociedade agora. Entendemos e aceitamos que a inteligência é amplamente distribuída e orientada. No entanto, da extremidade do espectro, as pessoas com atrasos no desenvolvimento ou deficiências intelectuais ainda são reconhecidas como seres humanos com direitos e dignidade. E do outro lado do espectro, valorizamos todos os tipos de experiência e inteligência. Não somos todos direcionados ao mesmo objetivo, nem devemos ser.

Esta é uma maneira de expor o vazio fácil no coração do “altruísmo eficaz”. Para um altruísta eficaz, o mundo é muito simples e o caminho para o melhor é fácil de encontrar: basta executar melhores medidas de todos e otimizar todas as suas circunstâncias para qualquer função que esteja em voga no quadro de mensagens naquela manhã, usando qualquer tecnologia que os torne mais rápido. Mas não estabelecemos instituições civis por razões tão triviais quanto otimizar para funções de valor único, porque não existe um único “medidor melhor/pior” quando se trata de participar da sociedade. Argumentos baseados em aptidão são armadilhas quando pensamos em inteligência em geral e IA especificamente.

Outro motivo para rejeitar um teste baseado em aptidão para a IA é que qualquer métrica será, na melhor das hipóteses, incompleta e, na pior das hipóteses, intencionalmente tendenciosa ou limitada (em outras palavras, cozida). Não há sentido em que possamos testar completamente todo o conjunto de circunstâncias que um agente de IA encontrará sem realmente implantá -lo sem limitação. Portanto, acabaríamos com sistemas projetados para passar nos testes e, na verdade, não estarmos seguros de maneiras práticas, demonstráveis ​​e confiáveis. Esse é um problema muito actual, como demonstra as alucinações da IA: não há sentido em que possamos controlar todas as condições de efeito borboleta que podem levar ao carro da IA ​​”decidir” (se tivermos acesso a uma janela interpretável em seu pensamento) “Ah, foda-se, eu quero ouvir este mecanismo cantar, vou acalmar o acelerador agora” quando ela parou.

No entanto, isso potencialmente obscurece alguns problemas de meta-tratado. Por exemplo, os motoristas humanos matam muitas pessoas. Ignoramos esse custo para manter um establishment que realmente não parece tão ultimate? Os carros autônomos não ficam bêbados ou altos ou adormecem ao volante. Qual é o custo de nossa inação e desconforto? Além disso, como está, a inteligência pré-programada já está entrando no carro, como demonstrado pela pista e todos os outros bipes e boops novos carros. Quanto devemos limitar isso e por quê? Essa não é uma pergunta retórica, e eu não acho que importa o que eu acho que a resposta é ou onde eu desenho a linha. Mas acho que há maneiras certas e erradas de falar sobre isso, porque um dia em breve alguém (não eu) enfrentará a seguinte pergunta: o que eu na verdade código No algoritmo (muito actual, muito determinístico) para situações nas quais um carro autônomo detecta prováveis ​​colisões que se resumem em sua avaliação de seu estado atual e de todas as suas possíveis ações?


A idéia principal que quero propor é que responsabilidade é uma maneira melhor de discutir (e, eventualmente, tomar decisões sobre) IA do que habilidade ou utilidade.

Aceitando a premissa de que os seres humanos são motoristas imperfeitos, mas também que não queremos psicobotas imprevisíveis unificadas sob o comando de um irmão de tecnologia desagradável, o que realmente queremos de uma solução para o problema do carro autônomo? Devemos reificar a inação em todos os cenários, para que, desde que o carro permaneça no curso quando algo está dando errado, não é culpado? Ou tentamos fazer uma avaliação dos custos dos diferentes resultados de colisão? O que acontece quando “escolhe” “errado”? Quem pode dizer o que é certo ou errado? Quem é responsável se uma decisão estiver determinada a estar errada? O engenheiro? Qual engenheiro? O que são culpabilidade e responsabilidade nesse cenário?

Essas perguntas são apenas um ponto de partida e, eventualmente, precisarão ser feitas em setores onde a presença da IA ​​ainda não é tão óbvia ou imediatamente controversa como está atrás do volante. É tentador descartar a inclinação e o crud que vemos ao nosso redor da IA, porque muito é facialmente burro, e isso é legitimamente irritante. E é fácil ficar bravo porque é externalidades prejudicar todos nós. Mas a period de sua utilidade, por mais leve, está aqui. E como as implicações dessa ondulação para fora, precisaremos de uma maneira mais estável e coerente de discutir a limitação de seus usos, se queremos que esses limites existam.

Eu não acho que estou sendo um aceleração de olhos arregalados para dizer que os paralelos ao debate de carros autônomos precisarão ser tidos em escolas e saúde, para citar duas áreas com muito investimento ativo e a partir daí para segmentos mais amplos da sociedade. Mesmo se você acredita, como eu, que grande parte da atividade atual não é mais legível do que o frenesi de uma bolha econômica, os principais desenvolvimentos que estamos vendo agora são substanciais o suficiente para persistir, da mesma maneira que a Web ficou por perto após o acidente de pontocom. Para dizer de outra maneira, a IA não é VR.

Precisamente porque estaremos vivendo com quantidades crescentes de IA em nossas vidas, acho que devemos insistir que a responsabilidade existe em algum lugar nesses contextos e descobrir onde colocá -lo, porque sem um conceito de responsabilidade, o contrato social desmorona. E as perguntas só ficarão mais complexas a partir daqui, não menos. Quando um chatbot incentiva o comportamento destrutivo de um usuário, Quem deve assumir a responsabilidade? Se um técnico de ressonância magnética de IA perder o diagnóstico de câncer de um paciente, onde o paciente vai para a restituição?

As respostas a essas perguntas não podem ser encontradas nos debates sobre o que ai pode e não pode faça, mas em conversas sobre o que é deve e não deveria fazer. Apontar todas as falhas e erros da IA ​​ainda não provou ser um método confiável para diminuir seu desenvolvimento e proliferação e, como resultado, passamos o limiar para ignorar o problema. À medida que mudamos para pensar nas ramificações disso, podemos ter mais sorte, colocando consequências reais e visíveis no ultimate de qualquer estrada que um laboratório de IA deseja viajar. Quanto mais rápido pudermos afastar nosso foco da capacidade da IA ​​(ou da falta dela) e para questões de responsabilidade, legislação e regulamentação, mais preparado estaremos para um futuro incerto.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui