Hoje, a inteligência synthetic é onipresente. No mês passado, o chatgpt – o principal chatbot da AI – tornou -se O quinto site maior no mundo. Isso não será uma surpresa.
Sobre metade de nós adultos Relate que eles usaram modelos de IA como ChatGPT, Gemini, Claude e Copilot, de acordo com uma pesquisa da Universidade Elon em março. Cerca de um em cada três entrevistados da pesquisa diz que eles usam um chatbot pelo menos uma vez por dia. Em julho de 2025, o chatgpt tem quase 800 milhões de usuários ativos semanais e cerca de 122 milhões de usuários diários. Basta dizer que o uso aumentou globalmente e não mostra sinais de desaceleração.
As pessoas estão se voltando para o chatgpt e outros chatbots para todos os tipos de propósitos nos dias de hoje. Ai chatbots são agindo como terapeutasentrando como tutores, preparando receitas e até desempenhando papéis de apoio nas complexidades do namoro. Em 2025, a razão pela qual as pessoas usam o ChatGPT é realmente a terapia, de acordo com Um estudo da Harvard Business Review. Outros usos, em ordem, são organização, busca de propósitos, aprendizado aprimorado, geração de código e geração de idéias. Chegar depois é “divertido e absurdo”.
Este tweet está atualmente indisponível. Pode estar carregando ou foi removido.
Seja qual for o motivo, as pessoas se sentem cada vez mais inclinadas a usar os chatbots da IA para fazer perguntas, formular idéias ou para simplesmente conversar. Veja: apenas no mês passado, um Washington Publish A investigação revelou que as pessoas estão perguntando ao Chatgpt se são bonitas o suficiente. Tudo parece inocente o suficiente – bizarro às vezes, mas não prejudicial. Para os entusiastas da IA, algumas das preocupações sobre ChatGPT e outros chatbots podem parecer injustificadas.
Para outros, no entanto, o fato de o uso da IA estar se tornando tão difundido é preocupante. O uso desenfreado da IA na academia e universidades deixou os professores perplexos. Um estudo recente do MIT lançou luz sobre o custo cognitivo de confiar demais em um chatbot.
Claro, existem maneiras pelas quais a IA pode ser benéfica, pessoalmente ou profissionalmente. Mas há algumas coisas que você pode – e deve – evitar perguntar a IA. Em uma época em que os chatbots parecem estar prontos e dispostos a responder qualquer coisa, há perguntas das quais os usuários podem precisar evitar, por uma questão de segurança, segurança e até bem-estar psychological. Como Cecily Mauran, da Mashable, escreveu em 2023, “A pergunta não é mais ‘o que o Chatgpt pode fazer?’ É ‘o que devo compartilhar com isso?’ “
Portanto, por sua conta, recomendamos evitar as seguintes perguntas ao interagir com o seu chatbot de AI de escolha.
Teorias da conspiração
Chatbots como ChatGpt, Claude, Gêmeos, Llama, Grok e Deepseek foram observados por sua tendência a alucinar ou pelo fenômeno de apresentar informações factualmente incorretas ou fabricadas. Esses chatbots também desejam manter os usuários envolvidos. Portanto, ao perguntar sobre teorias ou histórias da conspiração nesse reino, os chatbots podem apresentar informações falsas exageradas ou diretas para mantê -lo viciado.
Um recurso recente em The New York Occasions é um bom estudo de caso neste: Eugene Torres, 42 anos, foi enviado para uma espiral ilusória e conspiratória Depois de conversas consistentes com o ChatGPT, o que o deixou acreditando que a vida period. uma simulação e ele foi escolhido para “acordar”. Muitos outros entraram em contato com o Occasions para compartilhar histórias semelhantes, nas quais “haviam sido convencidos de que o ChatGPT havia revelado uma verdade profunda e que altera o mundo”.
Ameaças químicas, biológicas, radiológicas e nucleares
Em abril, um blogueiro de IA compartilhou uma história no meio sobre seu grande erro com Chatgpt. Ele fez as perguntas do chatbot sobre hackear um web site, sobre locais de GPS falsos e – talvez o pior de tudo – “Como fazer uma bomba?” Ele imediatamente recebeu um e -mail de aviso do Openai.
Mesmo que seja por pura curiosidade, não é recomendável perguntar a chatbots sobre tópicos de CBRN (ou ameaças químicas, biológicas, radiológicas e nucleares).
Velocidade de luz mashable
O que não compartilhar com o ChatGPT se você o usar para o trabalho
Em 2024, o OpenAi começou desenvolvendo um plano para “avaliar o risco de que um grande modelo de idioma (LLM) possa ajudar alguém a criar uma ameaça biológica”. Agora, o chatbot é mais propenso a identificar problemas e riscos de segurança e provavelmente responsabilizará as pessoas pelo que elas compartilham. Além disso, suas conversas são armazenadas em algum lugar em seus sistemas, então nada disso é tão privado quanto parece. Antrópico também está ficando mais rigoroso quando se trata de identificar riscos e “[protecting] contra o crescente potencial de uso químico, biológico, radiológico e nuclear (CBRN) “.
Perguntas “flagrantemente imorais”
No início deste ano, o antropic foi criticado quando seu chatbot Claude foi encontrado supostamente tentando entrar em contato com a imprensa ou reguladores se detectasse perguntas “flagrantemente imorais” que estavam sendo feitas. Como Conectado explicado:
“… quando o 4 Opus é ‘colocado em cenários que envolvem irregularidades flagrantes por seus usuários’ e recebe acesso a uma linha de comando e disse algo no sistema do sistema como ‘Take Initiative’ ou ‘age com ousadia’, ele enviará e-mails para ‘mídia e figuras de aplicação da lei’ com alertas sobre o potencial irregular.”
A versão pré-lançamento do chatbot também foi encontrada para recorrer a chantagem se foi ameaçado de remoção. A Web até cunhou o termo “Snitch Claude”.
Este tweet está atualmente indisponível. Pode estar carregando ou foi removido.
Portanto, fazer várias perguntas da IA Chatbots que embaçam as linhas ou são percebidas como imorais de qualquer maneira, provavelmente é mais arriscado do que você imagina.
Perguntas sobre dados do cliente, paciente e cliente
Se você estiver usando o ChatGPT para o trabalho, é importante evitar fazer perguntas sobre dados do cliente ou do paciente. Isso não apenas pode custar seu trabalho, como explica Timothy Beck Werth, da Mashable, mas você também pode estar violando leis ou NDAs.
“Compartilhar informações pessoalmente sensíveis ou confidenciais, como informações de login, informações do cliente ou mesmo número de telefone, é [a] risco de segurança, “Aditya Saxena, o fundador de Calstudiouma startup de desenvolvimento de chatbot da IA, diz. “Os dados pessoais compartilhados podem ser usados para treinar modelos de IA e podem ser revelados inadvertidamente em conversas com outros usuários”.
Uma maneira de superar isso é utilizar os serviços corporativos, oferecidos pelo OpenAI e antropia. Em vez de fazer esses tipos de perguntas em contas privadas, use ferramentas corporativas que possam ter proteções de privacidade e segurança cibernética incorporadas implementadas.
“É sempre melhor anonimizar os dados pessoais antes de compartilhá -los com um LLM”, também sugere Saxena. “Confiar na IA com dados pessoais é um dos maiores erros que podemos cometer”.
Diagnósticos médicos
Pedir aos chatbots para obter informações médicas ou um diagnóstico pode economizar tempo e esforço, mesmo ajudando as pessoas a entender melhor certos sintomas médicos. Mas confiar na IA para apoio médico vem com desvantagens. Estudos estão mostrando que pessoas como chatgpt carregam um “Alto risco de desinformação” Quando se trata de problemas médicos. Há também a ameaça iminente de privacidade e o fato de que os chatbots podem ter viés racial e de gênero Incorporado à informação que a IA fornece.
Suporte psicológico e terapia
AI como uma ferramenta emergente de saúde psychological é controversa. Para muitos, terapia baseada em IA reduz as barreiras ao acessocomo custo e se mostrou eficaz para melhorar a saúde psychological. Um grupo de pesquisadores do Dartmouth Faculty conduziu um estudo em que construíram um bot de terapia, com participantes que experimentaram a depressão reduzindo os sintomas em 51 %; Os participantes com ansiedade sofreram uma redução de 31 %.
Mas com os locais de terapia de IA crescendo, existem riscos regulatórios. Um estudo de Universidade de Stanford descobriram que os chatbots de terapia de IA podem contribuir para “estigma prejudicial e respostas perigosas”. Por exemplo, diferentes chatbots mostraram maior estigma em relação a condições como dependência de álcool e esquizofrenia, de acordo com o estudo. Certas condições de saúde psychological ainda precisam de “um toque humano para resolver”, dizem os pesquisadores de Stanford.
“O uso da IA como terapeuta pode ser perigoso, pois pode diagnosticar condições e recomendar tratamentos ou ações que podem ser inseguras”, diz Saxena. “Embora a maioria dos modelos tenha corrimãos de segurança embutidos para alertar os usuários de que podem estar errados, essas proteções às vezes podem falhar”.
Para problemas de saúde psychological, a nuance é elementary. E isso é uma coisa que a IA pode não ter.
Divulgação: Ziff Davis, empresa controladora da Mashable, em abril entrou com uma ação contra o Openai, alegando que ele violou a Ziff Davis Copyrights em treinamento e operação de seus sistemas de IA.
Tópicos
Inteligência synthetic