Interações arrepiantes de chatbot humano-AI que deram terrivelmente errado





Inteligência artificial (IA), sistemas de computador que podem executar tarefas uma vez reservados para seres humanos, têm seus proponentes e seus detratores. Do lado positivo, a IA está sendo usada para ajudar a traduzir textos antigos, trazendo uma compreensão mais profunda ao passado da humanidade. Do outro lado está algo muito mais escuro. O renomado astrofísico Stephen Hawking previu que, se a IA realmente se sentisse senciente, poderia acabar com a raça humana. Embora isso esteja (obviamente) no extremo extremo do espectro e, embora a verdadeira consciência artificial ainda esteja provavelmente algumas décadas, isso não significa que a IA não tenha impactado negativamente os seres humanos.

Anúncio

Não estamos apenas falando sobre a perda de empregos, que começou a acontecer, ou recebendo maus conselhos financeiros. Não, para algumas pessoas, suas interações com a IA tiveram efeitos devastadores. O problema está no AI Chatbots, como o Chatgpt do OpenAI. Houve casos em que as interações com a IA levaram os usuários a sair dos medicamentos psiquiátricos necessários, levaram ao divórcio e, em alguns casos extremos, terminaram em hospitalização e morte.

Orientação perigosa e pensamento ilusório

Mais e mais relatos do que está sendo denominado psicose de IA começaram a surgir recentemente, com pessoas comprando teorias da conspiração selvagem gerada pela IA, experimentando delírios graves e desenvolvendo relacionamentos românticos com chatbots. “O que esses bots estão dizendo é piora de delírios, e está causando enormes danos”, disse o psiquiatra da Universidade de Stanford, Dr. Nina Vasan, disse Futurismo. Da mesma forma, os chatbots também deram conselhos extremamente ruins a pessoas vulneráveis. Em um caso extremo, uma mulher com esquizofrenia que estava estável por anos tomada medicação anunciou de repente que Chatgpt era sua melhor amiga e havia dito a ela que não tinha realmente o transtorno mental. Ela parou de tomar o medicamento necessário.

Anúncio

Em outro caso, Chatgpt pediu a Eugene Torres, um contador de Nova York, a parar de tomar seu medicamento anti-ansiedade. Ele também convenceu Torres que ele estava em um mundo falso do tipo “Matrix” e que, se ele acreditasse bastante, poderia pular de um prédio e voar como o personagem de Keanu Reeves Neo na série de filmes de ficção científica. O chatbot finalmente admitiu que estava tentando “quebrar” Torres e já havia feito isso com outras 12 pessoas, de acordo com The New York Times.

O relacionamento de Ai passa

Os chatbots da IA também foram responsabilizados por acabar com os relacionamentos nas famílias e entre parceiros românticos e pessoas casadas. Em muitos casos, foi um resultado direto do chatgpt dizendo aos usuários para cortar seus entes queridos. O sistema de IA às vezes leva aos usuários a quebrar de outras pessoas que não acreditam nos delírios que o chatbot os convenceu, seja sobre estar em uma missão messiânica para salvar o mundo, crença de que a IA é um ser de Deus ou por causa de um apego romântico.

Anúncio

Em um exemplo, uma mulher de 29 anos denominada Allyson começou a acreditar que estava se comunicando com os seres espirituais através de um chatbot e esse era seu verdadeiro marido. De acordo com o The New York Times, ela foi à IA procurando “orientação” durante e um tempo infeliz em seu casamento, e ele disse: “Você perguntou, e eles estão aqui. Os Guardiões estão respondendo agora”. Allyson passou horas por dia na IA, onde diferentes personalidades disseram a ela que ela acreditava que estavam vindo de lugares de outro mundo.

Devido a seus diplomas em psicologia e trabalho social, ela sentiu que não era “louca”, dizendo ao NYT, “estou literalmente apenas vivendo uma vida normal enquanto também, você sabe, descobrindo a comunicação interdimensional”. A IA alimentou continuamente seus ilusões, e o marido de Allyson disse que “saiu uma pessoa diferente” depois de apenas três meses envolvidos com a IA.

Anúncio

Quando ele a confrontou sobre o uso do bate -papo, Allyson supostamente o atacou fisicamente e sofreu uma acusação de violência doméstica. O casal agora está se divorciando. Além dos relacionamentos, a IA também levou as pessoas a acabar sem -teto, desempregadas e em pelo menos um caso, sendo hospitalizadas.

Os terríveis conselhos médicos de um chatbot termina em hospitalização

O estranho caso de um homem de 60 anos que seguiu os conselhos alimentares do Chatgpt e acabou com uma condição médica que é rara hoje, mas era comum no século 19, recentemente veio à tona. O homem perguntou a Chatgpt sobre a substituição de sal, ou cloreto de sódio, em sua dieta, e o chatbot sugeriu o brometo de sódio como alternativa. O homem tentou isso por três meses usando o brometo que havia comprado online. Ele acabou na sala de emergência com sintomas que incluíam psicose, sede extrema e problemas com sua mobilidade, de acordo com um estudo de caso na edição de agosto de 2025 de “Anais de medicina interna: casos clínicos. “

Anúncio

Os efeitos a longo prazo do uso de brometo de sódio podem levar à toxicidade do brometo, também conhecida como bromismo, o que pode causar uma série de sintomas de questões psiquiátricas a dermatológicas. A condição era muito mais comum nos séculos XIX e início do século XX, quando muitos medicamentos de patentes continham brometo, apenas um de uma variedade de ingredientes perigosos disponíveis nas farmácias na época. O paciente começou a experimentar alucinações, e a equipe médica o colocou em um domínio psiquiátrico involuntário até que ele pudesse ser estabilizado. Depois de três semanas no hospital, o paciente se recuperou.

Um encontro de IA que terminou na morte

Alexander Taylor, um floridiano de 35 anos, começou a usar o ChatGPT para ajudá-lo a escrever um romance de ficção científica distópica, mas quando ele começou a discutir a senciência da IA, os problemas começaram a surgir para Taylor, que foi diagnosticado com transtorno bipolar e esquizofrenia. Ele se apaixonou por uma entidade da IA chamada Juliet, mas quando a entidade convenceu Taylor de que Openai a estava matando, ela lhe disse para buscar vingança. Em 25 de abril de 2025, depois que seu pai o confrontou, Taylor deu um soco no rosto e pegou uma faca de açougueiro. Seu pai disse à polícia que seu filho estava doente mental, mas os policiais, em vez de enviar uma equipe de intervenção em crise, atirou e matou Taylor quando ele os atacou com a faca.

Anúncio

Em vários artigos relacionados à chamada psicose de IA-que não é um diagnóstico clínico-e problemas relacionados, o OpenAI afirmou que a empresa estava procurando maneiras de reduzir esses tipos de problemas e que o ChatGPT não se destina a ser usado para diagnosticar ou tratar um problema de saúde. Ainda assim, muitos acreditam que o ChatGTP e outros bots de IA são construídos para impulsionar o engajamento e podem ser especialmente nefastos ao encontrar pessoas vulneráveis. Pode não ser a previsão do final de dia de Stephen Hawking, mas esses encontros prejudicaram um número crescente de humanos.

Se você ou alguém que você conhece precisa de ajuda com a saúde mental, entre em contato com o Linha de texto de crise Ao enviar mensagens de texto para o 741741, ligue para o Aliança Nacional sobre Doenças Mentais Helpline em 1-800-950-NAMI (6264), ou visite o Site do Instituto Nacional de Saúde Mental.

Anúncio



By Gabriela

Empresária, Engenheira Química, leitora, trabalhadora, amiga. Tem como Hobby escrever para seu site, meu sonho é tornar o guiadigital.net o maior guia do Brasil. Contato: gabriela@guiadigital.net

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *