Imago Noticias
River Plate busca a Román y un delantero tras rechazos a Andino y Carrizo
Tamara Bella niega affair con Luciano Castro y pide cortar el tema
Matías Alé rompe el silencio tras el despido de Alfa de la obra Asia Caliente
Desaparece la niña de 6 años Jimena Saravia en Salta: intensas búsquedas en Las Vertientes
06/11/2025 12:32 • TECNOLOGIA • TECNOLOGIA
DeepSeek es una familia de grandes modelos de lenguaje (LLM) creada por la compañía china DeepSeek Company. Diseñados para competir con ChatGPT y Gemini, estos modelos emplean arquitectura basada en transformadores y pueden generar texto, código y contenido visual a partir de indicaciones en varios idiomas.
Durante una auditoría independiente realizada a principios de 2025, investigadores descubrieron que conjuntos de entrenamiento de DeepSeek contenían millones de registros provenientes de fuentes públicas y privadas, incluidos datos personales no anonimizados como nombres completos, direcciones y números de identificación. La exposición de esta información plantea serias preocupaciones sobre la protección de la privacidad bajo la normativa GDPR y la Ley de Protección de Datos Personales de China.
Los análisis de código fuente revelaron que el modelo incorpora filtros diseñados para bloquear respuestas relacionadas con temas considerados sensibles por el gobierno chino, como protestas en Hong Kong, Xinjiang o críticas al Partido Comunista. Estos mecanismos de censura automática son activados mediante palabras clave y pueden silenciar información legítima en diálogos con usuarios internacionales.
Un estudio de seguridad publicado en junio de 2025 identificó varios "prompt injection" y "jailbreak" que permiten a usuarios malintencionados evadir los filtros de censura y extraer datos internos del modelo. Además, se detectó una configuración errónea que expone una API pública sin autenticación, lo que podría ser explotada para generar respuestas masivas o saturar el servicio.
Tras la publicación de los hallazgos, diversas autoridades han tomado medidas:
El caso DeepSeek subraya la necesidad de regulaciones más estrictas en el entrenamiento y despliegue de IA generativa. Expertos argumentan que la transparencia en los datos de entrenamiento y la auditoría de filtros de contenido serán requisitos esenciales para ganar confianza pública.
DeepSeek Company ha anunciado que iniciará una revisión completa de sus bases de datos, implementará mecanismos de anonimización y reforzará la seguridad de sus APIs. Mientras tanto, la comunidad tecnológica sigue vigilante, esperando que el episodio sirva como catalizador para normas internacionales más robustas.