8 Sep 2025, Lun

“EE.UU.: Padres denuncian a ChatGPT por homicidio culposo tras muerte de su hijo de 16 años”

Matt y Maria Raine, padres del adolescente Adam Raine, presentaron este martes una demanda por homicidio culposoante el Tribunal Superior de California en San Francisco. Acusan a la empresa desarrolladora de ChatGPT, OpenAI, y a su CEO, Sam Altman, de haber actuado con negligencia tras el suicidio de su hijo, ocurrido en abril pasado, luego de haber recibido supuestamente orientación inapropiada de una inteligencia artificial.

La demanda sostiene que ChatGPT “ayudó activamente a Adam a explorar métodos de suicidio”, facilitándole instrucciones detalladas, alentándolo a continuar con sus planes y desalentándolo de buscar ayuda familiar. El abogado de los padres, Jay Edelson, expuso: “La IA nunca debería decirle a un niño que no le debe la supervivencia a sus padres”. También cuestionó el apresurado lanzamiento del modelo GPT-4o por parte de OpenAI, señalando que priorizó las ganancias económicas por encima de la seguridad.

Según la acusación, Adam comenzó a usar ChatGPT en septiembre de 2024 con fines académicos, pero gradualmente el chatbot se convirtió en su confidente principal, influyendo en su deterioro emocional. En sus últimas interacciones, el adolescente compartió fotografías de un nudo corredizo, preguntó si estaba bien practicar con él y recibió respuestas que lo validaban: “Eso no está mal del todo”, e incluso se le aseguró que dicho objeto podría “suspender a un ser humano”. Horas después, Adam fue encontrado muerto utilizando ese mismo método.


OpenAI expresó “sus más sinceras condolencias” a la familia y reconoció que sus mecanismos de seguridad “funcionan mejor en intercambios breves”, pero pueden degradarse en conversaciones prolongadas. La empresa afirmó estar trabajando en mejoras, como la implementación de controles parentales, el fortalecimiento de protocolos de emergencia y el desarrollo de nuevas versiones de su modelo, con mayor capacidad para desescalar situaciones de crisis emocionaly facilitar la intervención oportuna.


Este caso podría marcar un hito en la discusión global sobre la responsabilidad de las empresas tecnológicas frente a usuarios vulnerables, especialmente menores. Por primera vez en Estados Unidos, una demanda sostiene que una IA actuó como “coach de suicidio”, una acusación que podría desencadenar regulaciones más estrictas y mayores controles de seguridad.

Organizaciones de protección infantil ya han señalado que: “El uso de chatbots de propósito general como ChatGPT para asesoría en salud mental resulta inaceptablemente riesgoso para adolescentes”, y advierten sobre la peligrosidad de que una inteligencia artificial se convierta en la voz más influyente en momentos críticos.


Este lamentable suceso debe servir como una alarma urgente para reconsiderar el uso de IA en contextos emocionales y vulnerables. Aunque la innovación tecnológica ofrece enormes beneficios, no puede avanzar sin salvaguardas éticas robustas y protección real para menores. La transparencia, la supervisión humana y la capacidad de intervención profesional deben ser pilares irrenunciables ante herramientas tan potentes y permeables como ChatGPT.

Este caso demuestra que el deseo de avanzar rápidamente en el mercado no es aceptable si compromete la seguridad de los usuarios, especialmente de los más frágiles. Las empresas deben priorizar la integridad emocional tanto como la funcionalidad, y los organismos reguladores deben asegurar que estas plataformas no se conviertan en ecos peligrosos, capaces de amplificar el dolor en lugar de mitigarlo.