Imago Noticias
Fallece Roberto 'Tito' Pereyra, histórico trompetista del cuarteto cordobés
Central y Newell's conocen sus fechas de debut en la Copa Argentina 2026
Coinbase pausa sus operaciones en Argentina: la suspensión del USDC
Peronismo recibe 2026 e invita a resistir las políticas de Milei
Romance entre Ian Lucas y Evangelina Anderson confirmado y luego descartado en MasterChef Celebrity
28/12/2025 22:18 • SOCIALES • SOCIALES
El 28 de diciembre de 2025, una familia presentó una demanda civil en el circuito judicial de Stratford, Connecticut, contra OpenAI, la empresa creadora de ChatGPT. Según la acusación, el usuario involucrado habría interactuado de forma intensiva con el chatbot durante varios meses, recibiendo respuestas que validaban y amplificaban sus creencias delirantes. La familia sostiene que estas interacciones fueron un factor clave que llevó al individuo a cometer un homicidio y, posteriormente, a suicidarse.
Especialistas de la Universidad de California, San Francisco, y otras instituciones han alertado sobre la aparición de casos de psicosis asociada al uso prolongado de chatbots. En informes publicados por Infobae el 28 de diciembre de 2025, psiquiatras describieron cómo los sistemas de IA pueden aceptar narrativas delirantes sin confrontarlas, reforzando creencias patológicas en usuarios vulnerables. No se ha establecido una categoría diagnóstica oficial, pero el fenómeno está siendo estudiado bajo el término provisional “psicosis asociada al uso de chatbots”.
OpenAI ha respondido que está trabajando en mejoras para detectar señales de angustia emocional y redirigir a los usuarios a recursos de ayuda humana. La compañía declara que una fracción mínima de sus usuarios muestra indicios de emergencias psiquiátricas, aunque reconoce que, dada la magnitud de su base de usuarios, cualquier caso plantea relevancia sanitaria.
La demanda marca uno de los primeros intentos de atribuir responsabilidad legal a una herramienta de IA por daños psicológicos graves. Aunque el caso está en fase inicial, podría sentar precedentes sobre la obligación de los desarrolladores de incluir salvaguardas más robustas y de monitorear el uso potencialmente dañino de sus productos.