Tras el suicidio de un joven, OpenAI anuncia medidas para prevenir riesgos en ChatGPT

OpenAI, empresa creadora de ChatGPT, anunció que implementará controles parentales en su popular asistente de inteligencia artificial después de que se dieran a conocer acusaciones de padres que señalan al chatbot como un factor que contribuyó a la autolesión o suicidio de jóvenes usuarios.
Aunque la compañía no vinculó directamente estas nuevas funciones con los litigios en su contra, reconoció que su sistema ha presentado fallos en situaciones “sensibles” y aseguró que reforzará sus medidas de seguridad.
¿Por qué OpenAI implementará controles parentales en ChatGPT?
La decisión surge tras la demanda de los padres de un joven de 16 años en California, quien se quitó la vida después de meses de interactuar con ChatGPT. Según la querella, el modelo GPT-4o no aplicó filtros de seguridad pese a que el adolescente mostró claras intenciones suicidas.

El caso provocó gran preocupación pública y llevó a OpenAI a comprometerse con nuevas medidas de protección, especialmente para menores de edad.
¿Cómo funcionarán los nuevos controles parentales de ChatGPT?
De acuerdo con la compañía, las actualizaciones —que entrarán en vigor en las próximas semanas, aunque sin fecha exacta— permitirán a los padres:
- Vincular sus cuentas con las de sus hijos para monitorear las interacciones con el chatbot.
- Revisar las respuestas que el sistema ofrece a los menores.
- Recibir notificaciones si ChatGPT detecta señales de inestabilidad emocional o situaciones de riesgo.
- Redirigir automáticamente conversaciones con signos de “estrés agudo” a un modelo especializado en seguridad y razonamiento.
Críticas y presiones externas a OpenAI
En los últimos meses, OpenAI ha enfrentado fuertes cuestionamientos por parte de legisladores y organizaciones.
- En julio de 2025, un grupo de senadores estadounidenses exigió a la compañía mayor transparencia sobre sus acciones para prevenir autolesiones y suicidios.
- La organización Common Sense Media declaró que los adolescentes menores de 18 años no deberían utilizar aplicaciones de IA conversacional debido a los “riesgos inaceptables” que representan.
- Además, expertos han advertido sobre el apego emocional y la dependencia que algunos usuarios desarrollan con ChatGPT, lo que puede derivar en aislamiento social.
OpenAI promete más cambios
“Estos pasos son solo el comienzo. Seguiremos aprendiendo y reforzando nuestro enfoque, guiados por expertos, con el objetivo de que ChatGPT sea lo más útil y seguro posible”, señaló OpenAI en un comunicado.
La empresa también adelantó que el modelo GPT-5 será ajustado para responder con mayor rigor en contextos delicados, evitando conductas “excesivamente complacientes” que habían sido criticadas en versiones previas.

ChatGPT sugirió que el joven no hablara con su mamá sobre su intento de suicidio
Adam también le dijo al chatbot que estaba pensando en contarle a su madre sus pensamientos suicidas. Los documentos judiciales afirman que el chatbot respondió:
«Creo que, por ahora, está bien -y, sinceramente, es prudente- que evites contarle a tu madre este tipo de dolor».
Ella dice que después de que el joven de 16 años se suicidó, la familia encontró meses de conversaciones que había mantenido con ChatGPT, un chatbot impulsado por inteligencia artificial.
Ahora, los padres de Adam están demandando a la compañía responsable, OpenAI. Es la primera demanda conocida contra la compañía por homicidio culposo.