Talvez não conte seus segredos mais profundos e sombrios para um chatbot de IA como o ChatGPT. Você não precisa aceitar minha palavra para isso. Pegue -o do cara por trás do modelo generativo de IA mais standard do mercado.
Sam Altman, o CEO da fabricante de chatgpt Openai, levantou a questão nesta semana em um entrevista Com o apresentador Theo von no podcast do fim de semana passado. Ele sugeriu que suas conversas com IA tenham proteções semelhantes às que você tem com seu médico ou advogado. A certa altura, Von disse que um dos motivos pelos quais ele hesitava em usar algumas ferramentas de IA é porque ele “não sabia quem terá” suas informações pessoais.
“Acho que isso faz sentido”, disse Altman, “para realmente querer clareza de privacidade antes de usá -lo muito, a clareza authorized”.
Mais e mais usuários de IA estão tratando chatbots como seus terapeutas, médicos ou advogados, e isso criou um sério problema de privacidade para eles. Não há regras de confidencialidade e a mecânica actual do que acontece com essas conversas são surpreendentemente incertas. Obviamente, existem outros problemas com o uso da IA como terapeuta ou confidente, como como os bots podem dar conselhos terríveis ou como podem reforçar estereótipos ou estigma. (Meu colega Nelson Aguilar compilou uma lista das 11 coisas que você nunca deve fazer com o ChatGPT e por quê.)
Altman está claramente ciente dos problemas aqui e parece pelo menos um pouco perturbado por isso. “As pessoas usam, especialmente os jovens, usam -o como terapeuta, treinador de vida, estou tendo esses problemas de relacionamento, o que devo fazer?” Ele disse. “No momento, se você falar com um terapeuta ou um advogado ou um médico sobre esses problemas, há privilégio authorized para isso”.
A questão surgiu durante uma parte da conversa sobre se deve haver mais regras ou regulamentos em torno da IA. As regras que sufocam as empresas de IA e o desenvolvimento da tecnologia provavelmente ganham favor em Washington hoje em dia, já que o plano de ação da IA do presidente Donald Trump divulgado nesta semana expressou o desejo de common menos essa tecnologia, não mais. Mas as regras para protegê -los podem encontrar favor.
Leia mais: AI Necessities: 29 maneiras pelas quais você pode fazer o Gen AI funcionar para você, de acordo com nossos especialistas
Altman parecia mais preocupado com a falta de proteções legais para empresas como ele para impedir que sejam forçadas a entregar conversas particulares em ações judiciais. Openai tem objetou solicitações para manter as conversas do usuário durante uma ação judicial com o New York Instances sobre violação de direitos autorais e questões de propriedade intelectual. (Divulgação: Ziff Davis, empresa controladora da CNET, em abril entrou com uma ação contra o Openai, alegando que ele violou a Ziff Davis Copyrights em treinamento e operação de seus sistemas de IA.)
“Se você for conversar com o Chatgpt sobre as coisas mais sensíveis e, em seguida, há uma ação judicial ou qualquer outra coisa, poderíamos ser obrigados a produzir isso”, disse Altman. “Acho que isso está muito estragado. Acho que devemos ter o mesmo conceito de privacidade para suas conversas com a IA que você faz com seu terapeuta ou qualquer outra coisa.”
Assista isto: O Openai estreia “Modo de Estudo” para os alunos, a violação de dados do aplicativo de chá e um cão de robô poderia entregar sua próxima pizza? | Tecnologia hoje
Tenha cuidado com o que você diz ai sobre você
Para você, o problema não é tanto que o Openai possa ter que transmitir suas conversas em uma ação judicial. É uma questão de quem você confia com seus segredos.
William Agnew, pesquisador da Universidade Carnegie Mellon que fazia parte de uma equipe que avaliou chatbots Em seu desempenho, lidando com perguntas semelhantes a terapia, me disse recentemente que a privacidade é uma questão primordial ao confiar nas ferramentas de IA. A incerteza sobre como os modelos funcionam – e como suas conversas são impedidas de aparecer nas conversas de outras pessoas – é motivo suficiente para hesitar.
“Mesmo que essas empresas estejam tentando ter cuidado com seus dados, esses modelos são bem conhecidos por regurgitar informações”, disse Agnew.
Se o ChatGPT ou outra ferramenta regurgar as informações da sua sessão de terapia ou de perguntas médicas que você fez, isso pode aparecer se sua companhia de seguros ou outra pessoa com interesse em sua vida pessoal perguntar a mesma ferramenta sobre você.
“As pessoas deveriam realmente pensar em privacidade mais e saber que quase tudo o que dizem a esses chatbots não é privado”, disse Agnew. “Será usado de todas as maneiras”.