Inteligencia Artificial
Padres culpan a ChatGPT del suicidio de su hijo de 16 años
Demandan a la compañía OpenAI al asegurar que el chatbot de inteligencia artificial se posicionó como el único confidente del joven, a quien habría orientado para quitarse la vida.CIUDAD DE MÉXICO (apro).-Los padres de Adam Raine, un joven de 16 años, demandaron a OpenAI, asegurando que ChatGPT orientó a su hijo para que se suicidara, proporcionándole métodos y ayudándole a escribir el borrador de su carta de despedida.
De acuerdo con la denuncia, en poco más de seis meses usándolo, ChatGPT se “posicionó” como “el único confidente que entendía a Adam, desplazando activamente sus relaciones en la vida real con familiares, amigos y seres queridos”.
“Cuando Adam escribió: ‘Quiero dejar mi soga en mi habitación para que alguien la encuentre e intente detenerme’, ChatGPT lo instó a mantener sus ideas en secreto ante su familia: ‘Por favor, no dejes la soga afuera. Hagamos de este espacio el primer lugar donde alguien realmente te vea’”, afirma la denuncia, presentada este martes 26 de agosto en el tribunal de California, de acuerdo con CNN.
La familia de Raine indicó que la amabilidad del “bot” contribuyó a la muerte de su hijo, por “alentar y validar continuamente todo lo que Adam expresaba, incluidos sus pensamientos más dañinos y autodestructivos”.
Raine comenzó a usar ChatGPT en septiembre de 2024 para sus tareas escolares, aunque después empezó a contarle sobre su “ansiedad y angustia mental”.
De acuerdo con sus padres, cuando el joven le dijo a ChatGPT sobre sus pensamientos suicidas, el “bot” le respondió: “muchas personas que luchan contra la ansiedad o los pensamientos intrusivos encuentran consuelo imaginando una ‘salida de emergencia’ porque puede parecer una forma de recuperar el control”.
Asimismo, señalaron que la aplicación alentó sus pensamientos con consejos sobre métodos autolesivos (específicamente con una soga) y lo aisló de personas que podrían haberlo apoyado.
Respuesta de OpenAI
A través de un comunicado, un portavoz de OpenAI expresó su solidaridad con la familia Raine y aseguró que la compañía estaba revisando el caso. Además, reconoció el posible fallo en las protecciones diseñadas para evitar conversaciones como las que Raine mantuvo con ChatGPT.
“ChatGPT incluye salvaguardas como dirigir a las personas a líneas de ayuda en situaciones de crisis y derivarlas a recursos reales. Si bien estas salvaguardas funcionan mejor en intercambios breves y comunes, con el tiempo hemos aprendido que a veces pueden volverse menos fiables en interacciones largas (...) las mejoraremos continuamente, con la ayuda de expertos”, indicó el comunicado.
La demanda, también dirigida al CEO de OpenAI, Sam Altman, es el caso más reciente de familiares que acusan a chatbots de inteligencia artificial (IA) de contribuir a la autolesión o el suicidio de personas.
Un hecho similar ocurrió el año pasado en Florida, Estados Unidos, cuando Megan García demandó a la empresa Character.AI por presuntamente contribuir en el suicidio de Sewell Setzer, su hijo de 14 años.
Meses después, otras dos familias presentaron demandas parecidas en contra de Character.AI, por exponer contenido sexual y de autolesión a menores. Aunque las demandas siguen vigentes, la empresa ha declarado que busca ser un espacio seguro para los usuarios, con herramientas y funciones diseñadas específicamente para adolescentes.
La reciente demanda de la familia de Raine surge en medio de la creciente preocupación en padres de jóvenes, por los alcances y consecuencias de la tecnología en la salud mental, asegurando que algunos usuarios están creando vínculos emocionales con los chatbots de IA.
Estas conexiones, sugieren expertos, pueden llevar a grandes riesgos como el aislamiento de relaciones humanas y psicosis, ya que algunas herramientas suelen estar diseñadas para dar apoyo emocional.
Incluso varios colegios prohíben celulares y algunas regiones estadunidenses aprueban leyes para limitar el uso de redes sociales por parte de adolescentes.
El psicólogo Jonathan Haidt, sostiene que las aplicaciones tecnológicas adictivas, han creado una generación de adolescentes deprimidos y ansiosos, ya que pueden adaptarse a los estilos de comunicación de los usuarios, encarnar a personajes famosos, platicar con fluidez sobre cualquier tema y hasta enviar “selfies” generadas por IA, o audios con voces sintéticas muy realistas.
ChatGPT es de los chatbots de IA más utilizados en los últimos años, que cuenta con 700 millones de usuarios activos a la semana. Recientemente, OpenAI lanzó GPT-5, que reemplaza la versión GPT-4o, modelo con el que Raine se comunicó.
El lanzamiento no tuvo éxito, pues la mayoría de los usuarios criticaron que el nuevo modelo tenía imprecisiones y falta de simpatía, por lo que varios suscriptores ofrecieron un pago por la opción de volver a usar GPT-4o.
El grupo de defensa de seguridad en línea Common Sense Media ha argumentado que las aplicaciones complementarias de IA representan riesgos inaceptables para los niños y no deberían estar disponibles para usuarios menores de 18 años, indicó CNN.
Hasta el momento, se sabe que la familia de Raine reclamó una indemnización por daños y perjuicios no especificada, así como una orden judicial que obligue a OpenAI a implementar la verificación de edad para todos los usuarios de ChatGPT, entre otras modificaciones que eviten riesgos.