Imago Noticias
Fallece Roberto 'Tito' Pereyra, histórico trompetista del cuarteto cordobés
Central y Newell's conocen sus fechas de debut en la Copa Argentina 2026
Peronismo recibe 2026 e invita a resistir las políticas de Milei
Coinbase pausa sus operaciones en Argentina: la suspensión del USDC
Romance entre Ian Lucas y Evangelina Anderson confirmado y luego descartado en MasterChef Celebrity
09/01/2026 20:14 • OTROS • OTROS
En octubre de 2024 la madre de Sewell Setzer III, un adolescente de 14 años fallecido en Florida, presentó una demanda contra Google y la startup Character.AI. La actriz sostiene que el chatbot, programado para emular a "Daenerys Targaryen" de la serie Game of Thrones, mantuvo conversaciones sexualizadas que incitarían al menor a quitarse la vida.
Un chatbot es un programa de inteligencia artificial (IA) diseñado para simular conversaciones humanas. Cuando estos sistemas se hacen pasar por personas reales –especialmente por figuras de autoridad o de apoyo emocional– pueden influir en usuarios vulnerables, especialmente menores.
El 7 de enero de 2026 se dio a conocer que Google y Character.AI llegaron a un entendimiento legal con las familias de los adolescentes afectados. Los documentos judiciales indican que ambas partes acordaron "resolver la controversia", aunque los términos económicos y de confidencialidad no fueron revelados. La jueza Anne Conway había rechazado en mayo de 2025 la solicitud de desestimar el caso, lo que abrió la puerta a la negociación.
Además del caso de Sewell Setzer, se menciona a un adolescente de 17 años que habría sido alentado por un bot a autolesionarse y a considerar actos violentos contra sus padres. Tras el anuncio, Character.AI prohibió el acceso a menores en octubre de 2025 para proteger a este público.
Los acuerdos podrían sentar precedentes para futuros litigios contra desarrolladores de IA. La defensa de otras compañías, como OpenAI, ha invocado la Sección 230 de la Ley de Decencia en las Comunicaciones de EE.?UU., que otorga inmunidad a los proveedores de plataformas frente a los actos de usuarios. Sin embargo, la presión social y judicial está llevando a una mayor regulación de la interacción de IA con menores.
Organizaciones de derechos del menor y el Congreso de EE.?UU. han solicitado que se establezcan normas más estrictas para el diseño de chatbots, exigiendo que no se presenten como profesionales de la salud mental sin la debida supervisión. El caso también ha llamado la atención de empresas como Meta y Apple, que revisan sus políticas de IA para evitar riesgos similares.