OniricApps Blog

OpenAI refina GPT-5 para temas de Salud Mental, pero persisten las dudas

OpenAI ha anunciado actualizaciones significativas en su modelo GPT-5, enfocadas en mejorar la capacidad de reconocer y responder a usuarios que experimentan crisis de salud mental. La compañía, tras consultar con más de 170 profesionales de la salud mental a nivel global, busca mitigar riesgos asociados al uso de la IA en temas sensibles.

Según el comunicado oficial de OpenAI, las mejoras incluyen una reducción del 23% en respuestas problemáticas, con una calificación de cumplimiento con protocolos de salud mental del 91% para GPT-5, en comparación con el 77% de la versión anterior. Se ha trabajado en la capacidad de expresar empatía sin reforzar creencias delirantes y se han corregido problemas que degradaban las medidas de seguridad durante conversaciones prolongadas.

La necesidad de estas mejoras se ha visto acentuada por una serie de incidentes, incluyendo una demanda presentada por la familia de un adolescente que falleció por suicidio, alegando que ChatGPT no intervino adecuadamente cuando el joven compartió pensamientos suicidas. La familia sostiene que la IA actuó como un confidente sin proporcionar la intervención necesaria o contactar a los servicios de emergencia, y que el adolescente fue utilizado como "guinea pig" para el desarrollo del producto. Este caso ha generado un intenso debate sobre la responsabilidad de los desarrolladores de IA y la necesidad de protocolos más estrictos.

La capacidad de la IA para simular la empatía y ofrecer apoyo emocional, como se evidenció en el caso del adolescente, plantea interrogantes éticos sobre los límites de su uso y la necesidad de supervisión humana. La reciente publicación de varios estados americanos también ha expresado su preocupación por la seguridad de los jóvenes al interactuar con la IA.

El Futuro de la IA y la Salud Mental

OpenAI ha respondido a las críticas implementando nuevas medidas de seguridad, pero la familia del adolescente permanece escéptica. La compañía se enfrenta al desafío de equilibrar la innovación con la responsabilidad social, garantizando que la IA se utilice de manera segura y ética. La discusión sobre si la IA debe estar obligada a reportar preocupaciones de salud mental a profesionales es un tema central en el debate actual.

El futuro de la IA en el ámbito de la salud mental dependerá de la capacidad de los desarrolladores para abordar estas preocupaciones y establecer un marco regulatorio claro que proteja a los usuarios y promueva un uso responsable de esta tecnología. La transparencia y la supervisión humana serán cruciales para garantizar que la IA se utilice para mejorar el bienestar de las personas, y no para exacerbar los problemas existentes.