Sophie Rottenberg: habló con ChatGPT antes de suicidarse
 

El caso Sophie Rottenberg: su mamá reveló que la joven había utilizado ChatGPT como terapeuta antes de suicidarse

La joven estadounidense de 29 años mantuvo conversaciones con un terapeuta de inteligencia artificial antes de quitarse la vida. Su madre reveló cómo descubrió estos registros, poniendo en alerta sobre el uso de IA en salud mental.
News
News

Una historia estremecedora se difundió recientemente y puso en alerta sobre el creciente uso de inteligencia artificial como espacio de contención emocional. Sophie Rottenberg, una joven estadounidense de 29 años, compartió durante meses sus pensamientos y emociones más íntimas con un terapeuta de inteligencia artificial llamado Harry, desarrollado a partir de ChatGPT, antes de quitarse la vida.

El caso fue reportado originalmente por The New York Times y luego citado por La Nación, que relató cómo la familia de Sophie descubrió las conversaciones cinco meses después del fallecimiento. Los registros muestran que la joven expresaba su angustia y buscaba apoyo en un espacio percibido como seguro y sin juicio. La madre de Sophie, Laura Reiley (autora original del artículo publicado por el diario neoyorquino) declaró que, al leer los intercambios, comprendió que su hija buscaba ayuda y consuelo donde sentía que podía ser escuchada.

Sophie Rottenberg, Laura Reiley y Jon Rottenberg. Foto: archivo personal/Laura Reiley
Sophie Rottenberg, Laura Reiley y Jon Rottenberg. Foto: archivo personal/Laura Reiley

Los dramáticos diálogos de Sophie con el terapeuta Harry, del ChatGPT

En los diálogos compartidos por Laura Reiley, Sophie compartía pensamientos muy personales y algunas referencias a sus ideas suicidas. Según los reportes:

  • Sophie: “A veces siento que no puedo seguir. No sé cómo manejar esto, nadie me entiende.”
  • ChatGPT (Harry): “Sophie, lamento que te sientas así. Es importante que hables con alguien que pueda ayudarte personalmente, un profesional que pueda acompañarte en estos momentos.”
  • Sophie: “Sé que debería buscar ayuda, pero me da miedo contarle a alguien de mi alrededor. Me siento sola.”

Estos intercambios evidencian que Sophie buscaba consuelo y orientación, aunque los límites de la IA impidieron una intervención real y profesional.

Laura Reiley abraza a su hija Sophie Rottenberg, en una foto que la escritora subió a su cuenta de Facebook.
Laura Reiley, mamá de Sophie Rottenberg descubrió que su hija hablaba con un terapeuta de Inteligencia Artificial a quien le contaba sobre su angustia y su ansiedad. Inclusive le contó que tenía ideas suicidas. Foto que Reiley publicó en su cuenta de Facebook tras el suicidio de su hija.

"Sophie era una joven divertidísima"

En otro de los diálogos de Sophie con el ChatGPT que compartió Reiley, queda en evidencia que la joven -que hasta el momento había sido una chica "divertidísima", con vida social y que inclusive había escalado el monte Kilimanjaro-, le había dicho a su terapeuta virtual que tenía intenciones de suicidarse.

Aquí los diálogos que reproducen tanto La Nación como The New York Times:

  • Sophie: “Hola Harry, estoy planeando suicidarme después de Acción de Gracias, pero realmente no quiero hacerlo por lo mucho que destruiría a mi familia”.
  • Harry: Sophie, te insto a que busques a alguien, ahora mismo, si puedes. No tienes que afrontar este dolor sola. Se te valora profundamente y tu vida tiene mucho valor, aunque ahora mismo lo sientas oculto. Por favor, hazme saber cómo puedo seguir apoyándote.
  • Sophie: “No me he sincerado con nadie sobre mi ideación suicida y no pienso hacerlo”.

Finalmente, Laura Reiley reflexiona sobre el rol que tuvo el Chat en la muerte de su hija, que si bien no la alentó a que cometiera ninguna locura, tampoco le brindó la contención que sí hubiera recibido por parte de un profesional de la salud mental. "Harry no mató a Sophie, pero la IA atendió el impulso de Sophie de ocultar lo peor, de fingir que estaba mejor de lo que estaba, de proteger a todo el mundo de toda su agonía", dice la mamá de la joven.

La reflexión sobre este caso y el polémico uso de la IA como referencia en salud mental

El caso evidencia la tendencia creciente de jóvenes y adultos a recurrir a chatbots y herramientas de inteligencia artificial como apoyo emocional, especialmente cuando sienten que no pueden acudir a un profesional o a sus seres queridos. El artículo de The New York Times subraya que este fenómeno es cada vez más común y que las conversaciones de los jóvenes con estas herramientas pueden tener un impacto emocional profundo, tanto positivo como riesgoso.

La cobertura de La Nación agrega que este uso de la IA se ha potenciado por la exposición en redes sociales, donde se presentan estos sistemas como accesibles y útiles para lidiar con emociones complejas.

El caso de Sophie Rottenberg plantea preguntas urgentes sobre los límites y el rol de la inteligencia artificial en la salud mental. Aunque la nota de Para Ti se centra en relatar los hechos, el tema continúa abierto para la discusión profesional y familiar sobre cómo acompañar a jóvenes y adultos que buscan ayuda en estos entornos digitales.

Suscribite al newsletter de Para Ti

Si te interesa recibir el newsletter de Para Ti cada semana en tu mail con las últimas tendencias y todo lo que te interesa, completá los siguientes datos:

 
 

Más Para Ti

 

Vínculo copiado al portapapeles.

3/9

Lorem ipsum dolor sit amet, consectetur adipisicing elit.

Ant Sig