El director ejecutivo de Google, Sundar Pichai, ha lanzado un fuerte aviso respecto al potencial peligro que representa el desarrollo sin control de las inteligencias artificiales. En declaraciones recientes, el máximo responsable del gigante tecnológico advirtió que hay un ‘riesgo bastante alto’ de que estas tecnologías puedan poner en riesgo la civilización humana.
En una charla pública donde se discutieron los avances y desafíos del sector tecnológico, el CEO de Google enfrentó directamente las preocupaciones sobre el impacto potencialmente devastador de la inteligencia artificial. Pichai no solo reconoció el riesgo, sino que lo describió como ‘bastante alto’, una frase que resalta la gravedad del tema sin entrar aún en terreno alarmista.
Según informa Infobae y otros medios internacionales, este aviso viene en un contexto de creciente desarrollo acelerado de modelos generativos de IA. La empresa de Mountain View ha invertido miles de millones en el desarrollo de sus propios sistemas como Gemini o Bard, que ya están integrados en múltiples productos.
Pichai enfatizó especialmente la necesidad urgente de establecer regulación global para estas tecnologías antes de que se produzcan desastres irreversibles. El ejecutivo señaló que los modelos actuales podrían evolucionar hacia tomar decisiones con consecuencias impredecibles, sin el mismo control ético y legal que poseen las personas.
La fuerte postura del máximo mandatario de la compañía destaca un cambio en tono respecto a otras declaraciones anteriores sobre IA. Hasta hace poco tiempo, Google presentaba una visión más optimista, enfocada en el potencial positivo y transformador de esta tecnología.
La preocupación no es nueva: ya se había manifestado antes con fuerza en los discursos de científicos como Elon Musk o de la investigadora Emad E.深入讨论, pero este aviso mas directo podría tener mayor impacto dado el poderío económico del gigante tecnológico y las inversiones recientes en modelos generativos.
Los expertos señalan que una regulación adecuada es necesaria para mitigar los riesgos de la IA avanzada, como sesgo algorítmico, pérdida masiva de empleos o decisiones éticas controvertidas. La comunidad científica está en alerta sobre el llamado ‘riesgo existencial’ que plantean muchos modelos actuales.