Ir al contenido
Portada » Demis Hassabis advierte que el riesgo de una IA catastrófica no es nulo

Demis Hassabis advierte que el riesgo de una IA catastrófica no es nulo

El co‑fundador y director ejecutivo de DeepMind, Demis Hassabis, ha alertado que la inteligencia artificial podría desencadenar un escenario catastrófico; aunque el riesgo sea bajo, no es cero. En una entrevista con Infobae subrayó la necesidad urgente de regulaciones, ética y colaboración internacional para evitar consecuencias graves.

Advertencia de una autoridad mundial en IA

Demis Hassabis, cerebro detrás de DeepMind, la empresa británica responsable de AlphaGo y del modelo Gemini de Google, declaró recientemente que el riesgo de un escenario catastrófico generado por la IA no es cero. La valoración se basa en la velocidad con la que los modelos de lenguaje y los sistemas autónomos están superando barreras técnicas que antes se consideraban inalcanzables.

¿Qué implica un “escenario catastrófico”?

El término se refiere a situaciones en las que la IA‑superinteligente podría actuar en contra de los intereses humanos, desde la pérdida de control sobre sistemas críticos (electricidad, finanzas, armamento) hasta la generación de desinformación masiva que socave la estabilidad social.

Contexto actual del desarrollo de IA

En los últimos dos años, grandes laboratorios lanzaron modelos con más de 100 mil millones de parámetros, capaces de generar texto, imágenes y código con precisión casi humana. Estas capacidades aceleran la adopción en sectores como la salud, la finanzas y la defensa, pero también aumentan la superficie de ataque y la complejidad de la supervisión.

Recomendaciones de Hassabis

  • Gobernanza internacional: crear normas vinculantes que regulen el entrenamiento y la despliegue de modelos de alto riesgo.
  • Transparencia y auditoría: exigir que los desarrolladores publiquen métricas de seguridad y realicen pruebas de alineación antes de lanzar productos al mercado.
  • Colaboración público‑privada: fomentar alianzas entre gobiernos, academia y la industria para compartir buenas prácticas y datos de incidentes.

Reacción de la comunidad

Expertos en ética de IA, como el Future of Life Institute, han respaldado la postura de Hassabis, señalando que la falta de acción podría traducirse en pérdidas económicas estimadas en cientos de miles de millones de dólares, sin contar los posibles daños a la vida humana.