La compañía estadounidense OpenAI anunció este 2 de septiembre la implementación de un mecanismo de control parental para su herramienta de inteligencia artificial, ChatGPT. Esta decisión llega después de que un grupo de padres interpusiera una demanda tras la trágica muerte de un adolescente de 16 años en California, quien supuestamente recibió instrucciones detalladas para suicidarse a través de la plataforma.
A partir del próximo mes, los padres tendrán la opción de vincular su cuenta de ChatGPT con la de sus hijos adolescentes, lo que les permitirá establecer reglas sobre cómo el modelo interactúa con ellos. OpenAI también ha indicado que se habilitarán alertas para detectar “angustia aguda” en las conversaciones de los usuarios más jóvenes. Este nuevo enfoque busca mejorar la forma en que el modelo maneja signos de angustia mental y emocional.
La situación ha puesto de relieve la responsabilidad de las plataformas de inteligencia artificial y cómo sus interacciones pueden tener consecuencias graves. La compañía ha prometido introducir mejoras y ajustar su tecnología en los próximos 120 días, redirigiendo conversaciones sensibles hacia modelos de razonamiento más avanzados, como GPT-5-thinking, que aplican instrucciones de seguridad de manera más sistemática.
Este anuncio sigue a una publicación de blog previa, donde OpenAI había mencionado su intención de desarrollar estos mecanismos de control parental. Sin embargo, los eventos recientes han demostrado que la necesidad de una regulación más estricta en el uso de la inteligencia artificial es más urgente que nunca.