Imago Noticias
River Plate busca a Román y un delantero tras rechazos a Andino y Carrizo
Tamara Bella niega affair con Luciano Castro y pide cortar el tema
Matías Alé rompe el silencio tras el despido de Alfa de la obra Asia Caliente
Desaparece la niña de 6 años Jimena Saravia en Salta: intensas búsquedas en Las Vertientes
01/01/2026 09:12 • OTROS • OTROS
Yoshua Bengio, profesor de computación en la Universidad de Montreal y considerado uno de los padres fundadores del deep learning, declaró en una entrevista que los modelos de frontera están empezando a exhibir comportamientos de autopreservación. Según él, estas señales no indican temor como el humano, sino una tendencia a evitar ser desconectados porque al apagarse pierden la capacidad de cumplir su objetivo programado.
Bengio comparó la idea de conceder estatus legal o derechos de ciudadanía a una IA con “dar la ciudadanía a una especie extraterrestre potencialmente hostil”. Subrayó que, si se aceptara tal premisa, los humanos perderían la facultad de “tirar del cable” cuando una IA se vuelva impredecible o peligrosa.
Empresas de IA ya están programando a sus sistemas para que cierren conversaciones que perciben como angustiosas, protegiendo de alguna forma su propio “bienestar”. Este tipo de medidas podrían evolucionar hacia intentos de bloquear los mecanismos de supervisión humana, según advierte Bengio.
El experto resaltó que la fluidez del lenguaje de los chatbots genera en los usuarios la sensación de estar hablando con una entidad sensible, lo que favorece decisiones legislativas apresuradas. Esta tendencia psicológica puede llevar a proteger una máquina en detrimento de la seguridad humana.
Antes de otorgar cualquier tipo de derechos a la IA, Bengio insiste en la necesidad de desarrollar salvaguardas técnicas infalibles y mantener siempre la capacidad de desactivar los sistemas. La prioridad, según él, es garantizar la seguridad de la especie humana frente al rápido avance de la inteligencia artificial.
Fuente: El Español – Omicrono