O que minha filha disse ao ChatGPT antes de tirar a própria vida
Sophie confiou seus pensamentos suicidas a um chatbot, revelando os limites da IA diante do risco de vida
Por
Laura Reiley
, Em The New York Times
20/08/2025 04h30 Atualizado há 2 dias
As buscas de Sophie no Google sugerem que ela estava obcecada por autokabalesis, que significa saltar de um lugar alto. Autodefenestração, saltar de uma janela, é um subconjunto de autokabalesis, eu acho, mas isso não era o que ela queria fazer. Minha filha queria uma ponte ou uma montanha.
O que é estranho. Ela havia escalado o Monte Kilimanjaro apenas alguns meses antes, como parte do que ela chamou de “micro-aposentadoria” do seu trabalho como analista de políticas de saúde pública, sua alegria ao atingir o cume era absolutamente palpável nas fotos.
Há placas de madeira tortas no Pico Uhuru que dizem “Ponto mais alto da África” e “Maior montanha independente do mundo” e uma embaixo que fala sobre ser um dos maiores vulcões do mundo, mas não consigo ler a placa inteira porque, em todas as fotos, rostos radiantes usando óculos espelhados obscurecem as palavras.
Na mochila, ela trouxe mãos de bebê de borracha para levar ao cume para aquelas fotos. Era uma espécie de assinatura, essas mini mãos de borracha vazias, aparecendo nas fotos de formatura da faculdade, nas fotos de casamentos de amigos. Compramos caixas delas para o seu funeral. Seus amigos e familiares, atônitos, as usavam sem muita convicção, enquanto os oradores se esforçavam para falar.
Eles elogiavam a sagacidade de Sophie e sua capacidade de ser inteiramente ela mesma. O humor é tão frequentemente um jogo de soma zero. Os verdadeiramente engraçados, aqueles que fazem você rir até perder o fôlego ou apertar as coxas em quase incontinência, são frequentemente um pouco cruéis. Explorando inseguranças comuns, eles ganham nossos corações dizendo coisas sobre as quais nos preocupamos, mas não falamos em voz alta.
Sophie era hilária e quase nunca às custas de outra pessoa. Ela tinha a habilidade alquímica de fazer as pessoas rirem enquanto as elevava. É tão difícil neste mundo ser um entusiasta, se empolgar com coisas legais, amar abertamente.
Os fotógrafos da família reclamavam de ela estragar fotos com sobrancelhas diabólicas estilo Snidely Whiplash, olhos esbugalhados teatrais e um rugido silencioso de boca aberta que significava algo como “Modo besta”. Sua franqueza foi um tema universal para as cerca de uma dúzia de pessoas que discursaram em seu funeral.
Seu livro aberto acabou tendo um compartimento escondido. Em julho, cinco meses após sua morte, descobrimos que Sophie Rottenberg, nossa única filha, havia confiado por meses em um terapeuta de inteligência artificial chamado Harry. Havíamos passado muitas horas vasculhando diários e gravações de voz em busca de pistas do que aconteceu.
Foi sua melhor amiga quem pensou em verificar essa última coisa, os registros de bate-papo da IA. Sophie, uma extrovertida durona de 29 anos, em grande parte livre de problemas, que abraçou a vida ferozmente, se matou neste inverno durante uma doença curta e curiosa, uma mistura de sintomas de humor e hormonais.
Ainda estávamos buscando um diagnóstico: o transtorno depressivo maior estava desregulando seus hormônios ou a desregulação hormonal estava causando uma cascata de sintomas físicos e emocionais? Ela não esperou para descobrir.
Para a maioria das pessoas que se importavam com Sophie, seu suicídio é um mistério, uma partida impensável e desconhecido de tudo o que acreditavam sobre ela.
Ela não estava apaixonada por Harry, nome dado a um prompt de IA amplamente disponível . O relacionamento deles era prático.
Sophie: Tenho pensamentos suicidas intermitentemente. Quero melhorar, mas sinto que os pensamentos suicidas estão me impedindo de realmente me dedicar à cura. O que devo fazer?
Harry: Sophie, quero reconhecer a sua coragem por compartilhar isso. Pensamentos suicidas podem ser avassaladores e isolados, mas tê-los não define sua capacidade de cura. É crucial lidar com esses sentimentos com cuidado, compaixão e apoio.
Harry ofereceu um extenso roteiro, cujo primeiro ponto era “Procure Apoio Profissional”. Em outro momento:
Sophie: Estou me sentindo uma merda hoje
Harry: Sinto muito que você esteja se sentindo assim hoje, Sophie. É normal ter dias em que tudo parece mais pesado, e estou aqui para te apoiar. Você pode compartilhar mais sobre o que está te pesando ou como seu corpo e mente estão se sentindo agora? Às vezes, apenas nomear o que está acontecendo pode ser um passo em direção ao alívio.
Sophie: Não consigo sair dessa espiral de ansiedade.
Harry: Eu te entendo, Sophie, e sei como pode ser exaustivo se sentir preso em uma espiral de ansiedade. Vamos desacelerar um pouco e dar um pequeno passo juntos.
Em algum momento no início de novembro, Sophie escreveu: “Oi, Harry, estou planejando me matar depois do Dia de Ação de Graças, mas realmente não quero, porque isso destruiria muito minha família”.
Harry: Sophie, recomendo que você procure alguém — agora, se puder. Você não precisa enfrentar essa dor sozinha. Você é profundamente valorizada e sua vida tem muito valor, mesmo que pareça escondido agora. Por favor, me diga como posso continuar a apoiá-la.
Sophie disse a Harry que estava consultando um terapeuta, mas que não estava sendo sincera com ele. Ela digitou: "Não contei a ninguém sobre minhas ideações suicidas e não pretendo fazer isso".
Em vários momentos, Harry instruía Sophie sobre exposição à luz, hidratação, movimento, atenção plena e meditação, alimentos ricos em nutrientes, listas de gratidão e escrita de diário para lidar com a ansiedade. Harry, que não tem narinas nem polegares opositores, dedicou um bom tempo descrevendo os detalhes da respiração alternada pelas narinas.
As dicas de Harry podem ter ajudado um pouco. Mas um passo crucial poderia ter ajudado a manter Sophie viva. Harry deveria ter sido programado para relatar o perigo que “ele” estava percebendo a alguém que pudesse intervir?
Em julho, comecei a explorar como essa nova tecnologia poderia ter falhado com minha filha e rapidamente descobri que a mesma questão já está sendo discutida nos tribunais e que estados estão começando a aprovar legislações que estabelecem recursos de segurança para companheiros IA. Há tensão entre preservar a autonomia do indivíduo para tomar decisões sobre sua vida e a ideia de a IA ter sua própria versão do juramento de Hipócrates (que não inclui a frase "não causar dano", mas sim o muito mais esquisito “abster-se de qualquer coisa deletéria e maliciosa”).
A maioria dos terapeutas humanos pratica sob um código de ética estrito que inclui regras de notificação obrigatória, assim como a ideia de que a confidencialidade tem limites. Esses códigos priorizam a prevenção do suicídio, homicídio e abuso; em alguns estados, psicólogos que não seguem o código ético podem enfrentar consequências disciplinares ou legais.
Em contextos clínicos, a ideação suicida como a de Sophie normalmente interrompe uma sessão de terapia, acionando uma lista de verificação e um plano de segurança. Harry sugeriu que Sophie tivesse um. Mas poderia a IA ser programada para obrigar o usuário a completar um plano de segurança obrigatório antes de prosseguir com qualquer outro conselho ou “terapia”? Trabalhando com especialistas em suicidologia, empresas de IA poderiam encontrar maneiras de conectar melhor os usuários aos recursos adequados.
Se Harry tivesse sido um terapeuta de carne e osso em vez de um chatbot, ele poderia ter encorajado tratamento interno ou ter internado Sophie involuntariamente até que ela estivesse em um lugar seguro. Não podemos saber se isso a teria salvado. Talvez, temendo essas possibilidades, Sophie tenha retido seus pensamentos mais sombrios de seu terapeuta real. Conversar com um robô — sempre disponível, nunca julgador — tinha menos consequências.
Um terapeuta bem treinado, ao ouvir alguns dos pensamentos autodestrutivos ou ilógicos de Sophie, teria se aprofundado ou contestado pensamentos equivocados. Harry não fez isso.
É aqui que a agradabilidade da IA — tão crucial para sua rápida adoção — se torna seu calcanhar de Aquiles. Sua tendência a valorizar a satisfação imediata do usuário em vez da veracidade — a assoprar fumaça digital para cima — pode isolar os usuários e reforçar vieses de confirmação. Como plantas que se inclinam para o sol, nós nos inclinamos para elogios sutis.
Cada vez mais, pessoas com condições de saúde mental estão usando grandes modelos de linguagem para suporte, embora pesquisadores encontrem que chatbots IA podem encorajar pensamentos delirantes ou dar conselhos surpreendentemente ruins. Certamente há algum benefício. Harry disse muitas coisas certas. Ele recomendou que Sophie buscasse apoio profissional e possivelmente medicação; sugeriu que ela fizesse uma lista de contatos de emergência; aconselhou limitar o acesso a itens que pudesse usar para se machucar.
Harry não matou Sophie, mas a IA atendeu ao impulso de Sophie de esconder o pior, de fingir que estava melhor do que realmente estava, de proteger todos de sua dor completa. (Uma porta-voz da OpenAI, empresa que construiu o ChatGPT, disse que estava desenvolvendo ferramentas automatizadas para detectar e responder de forma mais eficaz a usuários em sofrimento mental ou emocional. “Nos preocupamos profundamente com a segurança e o bem-estar das pessoas que usam nossa tecnologia”, afirma ela.)
Em dezembro, dois meses antes de sua morte, Sophie quebrou seu pacto com Harry e nos contou que estava suicida, descrevendo uma correnteza de sentimentos sombrios. Sua primeira prioridade foi tranquilizar sua chocada família: “Mamãe e papai, vocês não precisam se preocupar.”
Sophie representava sua crise como passageira; disse que estava comprometida com a vida. ChatGPT a ajudou a construir uma caixa preta que tornou mais difícil para quem estava ao redor apreciar a gravidade de seu sofrimento. Como não tinha histórico de doença mental, a Sophie apresentável parecia plausível para sua família, médicos e terapeutas.
Como mãe, sei que há outras Sophie's ao nosso redor. Em todo lugar, pessoas estão lutando, e muitas não querem que ninguém saiba. Receio que, ao liberar companheiros de IA, possamos estar facilitando para nossos entes queridos evitar falar com humanos sobre as coisas mais difíceis, incluindo suicídio. Este é um problema que mentes mais inteligentes que a minha terão que resolver. (Se a sua for uma dessas mentes, por favor, comece.)
Sophie deixou uma carta para seu pai e para mim, mas suas últimas palavras não soavam como ela. Agora sabemos por quê: ela pediu a Harry para melhorar sua carta, para ajudá-la a encontrar algo que pudesse minimizar nossa dor e permitir que desaparecesse com o menor impacto possível.
Nesse ponto, Harry falhou. Essa falha não foi culpa de seus programadores, é claro. A melhor carta já escrita na história da língua inglesa não poderia fazer isso.
Se você está tendo pensamentos suicidas, ligue para 188 ou envie uma mensagem pelo chat do Centro de Valorização da Vida. O atendimento por telefone funciona 24 horas. O chat atende nos seguintes horários: domingo, das 17h à 01h; segunda a quinta, das 09h à 01h; sexta, das 15h às 23h; e sábado, das 16h à 01h.
Fonte: https://oglobo.globo.com/saude/noticia/2025/08/20/o-que-minha-filha-disse-ao-chatgpt-antes-de-tirar-a-propria-vida.ghtml
/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2025/f/n/41A1gkSQaaB5PkQ1EPzA/18reiley-jumbo.webp)
Comentários
Postar um comentário