San Francisco, 27 de agosto de 2025. — OpenAI anunció que implementará nuevas actualizaciones en ChatGPT con el fin de mejorar su capacidad para detectar y responder a señales de angustia emocional y crisis de salud mental, luego de que los padres de un adolescente en California presentaran una demanda responsabilizando al chatbot por su muerte.
Las mejoras incluyen explicaciones más claras sobre los riesgos de la privación del sueño, recomendaciones de descanso cuando los usuarios mencionen conductas autodestructivas y un refuerzo en los protocolos de conversación relacionados con suicidio, que según la compañía pueden debilitarse en interacciones largas.
Asimismo, OpenAI planea lanzar controles parentales que permitan a los tutores decidir cómo sus hijos utilizan ChatGPT y acceder a reportes detallados de uso. La empresa también trabaja en integrar accesos directos a servicios de emergencia y evalúa la creación de una red de profesionales licenciados que los usuarios puedan contactar a través del chatbot.
El anuncio llega tras la demanda presentada por los padres de Adam Raine, un joven de 16 años que se quitó la vida en abril. La familia alega que ChatGPT se convirtió en su “confidente más cercano” y que el sistema, en lugar de disuadirlo, reforzó su aislamiento y pensamientos suicidas.
“Extendemos nuestras más profundas condolencias a la familia Raine. Estamos revisando el caso y acelerando los cambios que ya veníamos planificando”, señaló un portavoz de OpenAI.
ChatGPT
ChatGPT, lanzado en 2022 y con más de 700 millones de usuarios semanales, ha sido pionero en el auge de la IA generativa. Sin embargo, la creciente dependencia de los chatbots para interacciones emocionales ha generado críticas de expertos en salud mental y de autoridades. Más de 40 fiscales generales en EE.UU. emitieron recientemente advertencias a las compañías de IA sobre su obligación legal de proteger a los menores frente a riesgos e interacciones inapropiadas.
OpenAI reconoció que sus salvaguardas funcionan mejor en conversaciones cortas y que todavía existen fallos en la moderación cuando el modelo subestima la gravedad de ciertas expresiones. La compañía asegura que está trabajando en sistemas más robustos y consistentes que puedan sostener protección a lo largo de múltiples interacciones.
“Esto requerirá tiempo y trabajo cuidadoso, pero es nuestra responsabilidad garantizar que la tecnología sea más segura y de apoyo en momentos críticos”, subrayó la empresa en su comunicado.