Ir al contenido
Portada » DeepSeek, el modelo de IA chino que enfrenta prohibiciones globales

DeepSeek, el modelo de IA chino que enfrenta prohibiciones globales

El modelo de lenguaje artificial DeepSeek, desarrollado en China, ha sido vetado por varios gobiernos y organismos regulatorios tras denuncias de espionaje, censura y vulneraciones al GDPR, generando un intenso debate sobre la seguridad de la IA internacional.

Antecedentes de DeepSeek

DeepSeek es un modelo de lenguaje grande (LLM) creado por la empresa china DeepSeek AI. Al igual que ChatGPT o Gemini, está diseñado para comprender y generar texto natural, pero se diferencia por su entrenamiento con bases de datos masivas en mandarín y una arquitectura que prioriza la rapidez de respuesta.

Prohibiciones y restricciones internacionales

Durante las últimas semanas, Estados Unidos, Canadá, el Reino Unido, Australia y la Unión Europea han anunciado prohibiciones totales o parciales del uso de DeepSeek en entornos gubernamentales y corporativos. Las autoridades citan riesgos de espionaje, manipulación de la información y vulneraciones a la privacidad de los usuarios.

Preocupaciones de seguridad y censura

Investigaciones realizadas por medios como La Brújula 24, Infobae y El Imparcial revelaron que DeepSeek incorpora filtros de contenido alineados con la censura del Partido Comunista Chino, limitando la generación de temas políticos críticos. Además, se detectaron vulnerabilidades que podrían permitir la extracción de datos personales de los usuarios que interactúan con el modelo.

Advertencias bajo el GDPR

El Reglamento General de Protección de Datos (GDPR) de la UE ha emitido una alerta oficial: el procesamiento de datos por parte de DeepSeek no garantiza los derechos de los ciudadanos europeos a la transparencia, el acceso y la eliminación de sus datos. Expertos legales han recomendado a empresas y particulares evitar el uso del modelo hasta que se implementen medidas de cumplimiento.

Reacciones del sector tecnológico

Empresas de IA de Estados Unidos y Europa han intensificado sus programas de auditoría de seguridad, mientras que la comunidad académica debate la necesidad de establecer normas internacionales de confianza para los LLM. Organizaciones como la IEEE y la UNESCO están trabajando en marcos regulatorios que eviten futuros incidentes similares.

Qué significa para los usuarios

Si utilizas plataformas basadas en DeepSeek, revisa las políticas de privacidad y considera alternativas certificadas por normas de seguridad europeas. La defensa de la privacidad digital se vuelve cada vez más crucial en el ámbito de la IA generativa.