11/05/2026 03:58 - Tecnologia
La inteligencia artificial dio un paso histórico en responsabilidad social. OpenAI confirmó el 9 de mayo de 2026 el lanzamiento de "Trusted Contact" (Contacto de Confianza), una función diseñada para intervenir cuando el sistema detecta señales de crisis emocional severa en las conversaciones.
La herramienta permite que un usuario adulto designe previamente a una persona de su círculo cercano como contacto de confianza. Si ChatGPT detecta patrones de conversación que sugieran un riesgo grave de autolesión, el sistema puede enviar una notificación a esa persona para que pueda acercarse y ofrecer apoyo.
OpenAI explicó que trabajó junto con especialistas en salud mental para desarrollar sistemas capaces de identificar patrones relacionados con:
| Categoría | Descripción |
|---|---|
| Psicosis | Detección de pensamientos desorganizados o desconexión de la realidad |
| Manía | Identificación de estados de euforia extrema o hiperactividad inusual |
| Ideación suicida | Reconocimiento de pensamientos o planes de autoeliminación |
| Autolesión | Detección de intención de causarse daño físico |
| Dependencia emocional hacia la IA | Identificación de apego excesivo al asistente virtual |
OpenAI detalló que su enfoque se basa en un proceso estructurado:
Durante años, las plataformas digitales evitaron involucrarse en temas emocionales complejos. Esta iniciativa de OpenAI reconoce que millones de personas utilizan asistentes virtuales como espacios de desahogo emocional. Ignorar señales de crisis podría convertirse en un riesgo mayor. La nueva función abre un debate sobre privacidad, límites tecnológicos y responsabilidad digital, pero representa un paso hacia una IA más empática y socialmente responsable.
Alfredo S. Quiroga
Conspiraciones