OpenAI anuncia medidas tras suicidio de un joven que utilizaba ChatGPT
La empresa de inteligencia artificial OpenAI informó que tomará medidas adicionales luego de conocerse el caso de un joven que se quitó la vida tras haber utilizado de manera intensiva el modelo ChatGPT. El hecho generó preocupación sobre los riesgos del uso de sistemas conversacionales de IA en situaciones de vulnerabilidad emocional.
De acuerdo con la compañía, la acción inmediata será reforzar los sistemas de seguridad del modelo para detectar con mayor precisión cuando un usuario se encuentra en riesgo, ofreciendo respuestas más responsables y derivando hacia servicios de ayuda psicológica en los casos en que se identifique la necesidad.
La medida forma parte de un esfuerzo más amplio por garantizar que las herramientas de inteligencia artificial sean utilizadas de manera ética y segura. Además, se contempla ampliar la capacitación de los modelos en el manejo de conversaciones relacionadas con temas sensibles como salud mental, depresión y conductas de riesgo.
OpenAI señaló que también trabajará con organizaciones de salud y expertos en psicología para establecer protocolos que permitan a sus productos actuar como un acompañamiento responsable y no como un sustituto del apoyo profesional. El objetivo es que la tecnología pueda contribuir al bienestar de los usuarios sin incrementar los riesgos en casos de fragilidad emocional.
El caso ha reavivado el debate internacional sobre el impacto de la inteligencia artificial en la vida cotidiana y los límites que deben establecerse en su diseño y funcionamiento. Especialistas en ética tecnológica han advertido que los modelos conversacionales, aunque útiles, no deben ser considerados como consejeros profesionales en temas de salud mental, y que su uso requiere de regulaciones claras.
Con estas acciones, OpenAI busca responder a una situación delicada y reafirmar su compromiso de desarrollar tecnologías seguras, al tiempo que promueve un uso responsable por parte de la sociedad.