El modelo de lenguaje artificial DeepSeek, desarrollado en China, ha desencadenado una ola de prohibiciones en varios países tras la revelación de una masiva exposición de datos, censura política integrada y vulnerabilidades que comprometen su seguridad. Autoridades y expertos solicitan medidas urgentes para proteger la privacidad y la integridad de los sistemas de IA.
Antecedentes del modelo DeepSeek
DeepSeek es una familia de grandes modelos de lenguaje (LLM) creada por la compañía china DeepSeek Company. Diseñados para competir con ChatGPT y Gemini, estos modelos emplean arquitectura basada en transformadores y pueden generar texto, código y contenido visual a partir de indicaciones en varios idiomas.
Filtración de datos personales
Durante una auditoría independiente realizada a principios de 2025, investigadores descubrieron que conjuntos de entrenamiento de DeepSeek contenían millones de registros provenientes de fuentes públicas y privadas, incluidos datos personales no anonimizados como nombres completos, direcciones y números de identificación. La exposición de esta información plantea serias preocupaciones sobre la protección de la privacidad bajo la normativa GDPR y la Ley de Protección de Datos Personales de China.
Censura política incorporada
Los análisis de código fuente revelaron que el modelo incorpora filtros diseñados para bloquear respuestas relacionadas con temas considerados sensibles por el gobierno chino, como protestas en Hong Kong, Xinjiang o críticas al Partido Comunista. Estos mecanismos de censura automática son activados mediante palabras clave y pueden silenciar información legítima en diálogos con usuarios internacionales.
Vulnerabilidades de seguridad
Un estudio de seguridad publicado en junio de 2025 identificó varios “prompt injection” y “jailbreak” que permiten a usuarios malintencionados evadir los filtros de censura y extraer datos internos del modelo. Además, se detectó una configuración errónea que expone una API pública sin autenticación, lo que podría ser explotada para generar respuestas masivas o saturar el servicio.
Reacciones globales
Tras la publicación de los hallazgos, diversas autoridades han tomado medidas:
- Estados Unidos: el Departamento de Comercio incluyó a DeepSeek en la Entity List, prohibiendo su venta a compañías americanas.
- Unión Europea: la Comisión Europea recomendó a los gobiernos y a entidades críticas que suspendan el uso de DeepSeek hasta que se corrijan los problemas de privacidad y seguridad.
- Australia y Canadá: emitieron avisos de seguridad que instan a sus agencias a evaluar riesgos antes de adoptar la tecnología.
Implicaciones para la industria de IA
El caso DeepSeek subraya la necesidad de regulaciones más estrictas en el entrenamiento y despliegue de IA generativa. Expertos argumentan que la transparencia en los datos de entrenamiento y la auditoría de filtros de contenido serán requisitos esenciales para ganar confianza pública.
Próximos pasos
DeepSeek Company ha anunciado que iniciará una revisión completa de sus bases de datos, implementará mecanismos de anonimización y reforzará la seguridad de sus APIs. Mientras tanto, la comunidad tecnológica sigue vigilante, esperando que el episodio sirva como catalizador para normas internacionales más robustas.