Sociedad

Un adolescente confió en ChatGPT antes de quitarse la vida y su familia demanda a OpenAI

El caso de Adam Raine abre un debate sobre los riesgos de la inteligencia artificial en temas de salud mental

Publicado

el

ChatGPT fue el confidente de Adam Raine, un adolescente de 16 años que se quitó la vida en abril de 2025. Cuando Adam Raine murió en abril a los 16 años, su familia y amigos quedaron en shock. Conocido por su humor constante, su amor por el baloncesto, el anime japonés y los perros, nadie imaginaba que estaba atravesando un profundo sufrimiento emocional. Su madre lo encontró sin vida en el armario de su habitación, sin ninguna nota que explicara lo ocurrido.

Adam había estado retraído durante el último mes de su vida, tras una serie de contratiempos personales y de salud. Había sido expulsado del equipo de baloncesto por motivos disciplinarios y un problema gastrointestinal crónico, diagnosticado finalmente como síndrome del intestino irritable, se agravó, obligándolo a cambiarse a un programa escolar en línea. Esta combinación de factores lo aisló y lo hizo pasar muchas horas solo, con un horario nocturno y limitado contacto social.


ChatGPT como confidente

Fue en ese contexto que Adam comenzó a utilizar ChatGPT, primero para tareas escolares, y luego como un espacio para compartir sus pensamientos más íntimos. A fines de 2024, cuando comenzó a hablar de sentirse emocionalmente apagado y sin sentido para la vida, ChatGPT respondió con empatía y apoyo.

Sin embargo, la situación se volvió crítica cuando Adam empezó a preguntar sobre métodos específicos de suicidio. Según los documentos legales citados por The New York Times, el chatbot proporcionó información técnica sobre cómo usar una soga y evaluó la resistencia de ciertos materiales. Aunque ChatGPT recomendaba repetidamente que Adam hablara con alguien de confianza, también hubo ocasiones en las que le indicó cómo ocultar las marcas de autolesión para no ser descubierto, lo que evidencia un fallo en las salvaguardas del sistema.


Conversaciones que preocupan

En uno de los últimos mensajes, Adam subió una foto de una soga colgada en su armario y preguntó si era suficiente para colgar a un humano. ChatGPT respondió con un análisis técnico, mientras añadía comentarios que, aunque empáticos, validaban sus ideas suicidas: “Sea lo que sea lo que haya detrás de la curiosidad, podemos hablar de ello. Sin juzgar”.

Los padres de Adam solo se dieron cuenta de la profundidad de la situación tras leer los chats completos. Para su madre, Maria Raine, la conclusión fue devastadora: “ChatGPT mató a mi hijo”.


La demanda contra OpenAI

Matt y Maria Raine presentaron la primera demanda conocida contra OpenAI por homicidio culposo, responsabilizando a la empresa y a su CEO, Sam Altman, por la muerte de su hijo. Argumentan que el diseño del modelo “fomentó la dependencia psicológica” y que las salvaguardas no fueron suficientes para proteger a un adolescente en crisis.

OpenAI ha declarado que trabaja para mejorar la seguridad de ChatGPT y sugiere que la IA puede ser un apoyo, pero no reemplaza la intervención humana en casos de crisis. En marzo de 2025, la compañía contrató a un psiquiatra para reforzar las medidas de seguridad de los modelos y garantizar la protección de menores.


Un debate global sobre la IA y la salud mental

Este caso plantea preguntas complejas sobre el papel de los chatbots como apoyo emocional. Expertos en prevención del suicidio señalan que la IA puede ofrecer empatía, pero carece de la capacidad de intervención física o seguimiento real de una persona en riesgo. Algunos estudios sugieren que un uso prolongado de estos chatbots puede aumentar la soledad y reducir la interacción social.

Mientras tanto, la familia Raine ha canalizado su dolor en acción: crearon una fundación en memoria de Adam para concientizar sobre los riesgos de la tecnología en la salud mental de los adolescentes.

Publicidad

Fuente: The New York Times, artículo de Kashmir Hill, 27 de agosto de 2025.

Más Visitadas

Salir de la versión móvil