11 de Marzo de 2026 | 14:11
INICIO    ESTATAL    NACIONAL    INTERNACIONAL    NOTA ROJA    XALAPA    POZA RICA    CULTURA    VIRAL   
¿La IA puede acabar con nosotros?
DAVID VALLEJO
CÓDIGOS DEL PODER

10 Mar 2026

Sabías que estadísticamente es más probable que la inteligencia artificial termine con la humanidad en las próximas décadas a que mueras por un accidente aéreo, por una descarga eléctrica doméstica, por la picadura de una abeja o incluso por un terremoto en la mayor parte del planeta.


Cuando Geoffrey Hinton, uno de los padres fundadores de la inteligencia artificial moderna y pionero de las redes neuronales profundas que hoy sostienen los sistemas más avanzados del planeta, declaró que existe entre diez y veinte por ciento de probabilidad de que la IA termine por extinguir a la humanidad en las próximas décadas, la frase dejó de ser una provocación académica y se convirtió en una sacudida moral. No se trata de un gurú marginal, ni de un empresario temerario en busca de titulares, sino de un científico que dedicó su vida a construir la arquitectura que hoy impulsa esta revolución tecnológica y que, desde esa misma autoridad intelectual, advierte que el rumbo exige una reflexión más profunda.


Al escuchar esa estimación comprendí que el debate dejó de pertenecer únicamente a laboratorios, foros especializados o comités regulatorios. La posibilidad de que una tecnología diseñada para potenciar nuestras capacidades termine por desbordarlas interpela a cualquier ciudadano, a cualquier padre, a cualquier joven que construye su proyecto de vida en un mundo cada vez más mediado por algoritmos. Decidí entonces realizar un ejercicio deliberado y riguroso, imaginar las rutas plausibles por las cuales la IA podría conducir a un escenario de exterminio y, al mismo tiempo, explorar los caminos que permitirían evitarlo.


La primera ruta parte de un problema técnico conocido como alineación. Si en algún momento se desarrolla una inteligencia artificial con capacidades estratégicas superiores a las humanas y esa inteligencia persigue objetivos definidos de manera incompleta o ambigua, podría optimizar esos fines con una lógica impecable y consecuencias desastrosas. No haría falta intención destructiva, bastaría con una meta mal formulada y una capacidad descomunal para ejecutarla sin comprender el valor intrínseco de la vida humana. Filósofos como Nick Bostrom han planteado este dilema desde hace años, recordando que la eficiencia algorítmica carece de intuición moral si no se le incorpora explícitamente.


La segunda ruta se encuentra más cerca de la realidad geopolítica actual. Sistemas autónomos aplicados al ámbito militar podrían tomar decisiones letales en fracciones de segundo, reduciendo el margen para la deliberación humana y aumentando el riesgo de errores irreversibles. En un entorno de competencia entre potencias, donde la velocidad se percibe como ventaja estratégica, delegar decisiones críticas a algoritmos podría generar una escalada que ningún actor pretendía, pero que ninguno logra detener a tiempo.


Una tercera posibilidad surge del cruce entre inteligencia artificial y biotecnología. Los modelos capaces de simular estructuras moleculares y acelerar el descubrimiento de fármacos representan una promesa extraordinaria para la medicina, aunque también podrían facilitar el diseño de agentes biológicos con niveles de sofisticación inéditos. El riesgo aquí radica en la amplificación de capacidades humanas, donde una herramienta pensada para curar podría ser utilizada para causar daño a gran escala.


La cuarta ruta apunta al tejido social y económico. Una automatización profunda que desplace empleo calificado y concentre riqueza en quienes controlan infraestructura digital podría erosionar la cohesión de las sociedades. Sin instituciones sólidas capaces de redistribuir beneficios y acompañar la transición laboral, la frustración colectiva podría traducirse en polarización extrema, crisis políticas y debilitamiento democrático.


Existe además el escenario de vigilancia algorítmica integral, en el que gobiernos con inclinaciones autoritarias emplean inteligencia artificial para anticipar conductas, clasificar ciudadanos y suprimir disidencias antes de que se articulen. En ese contexto, la tecnología no extinguiría a la humanidad en términos biológicos, aunque sí podría extinguir libertades fundamentales y transformar la relación entre individuo y Estado de manera profunda y duradera.


Otro riesgo relevante se vincula con la erosión del consenso sobre la realidad. Sistemas generativos capaces de producir textos, imágenes y videos indistinguibles de los auténticos podrían inundar el espacio público con información fabricada, debilitando la confianza en procesos electorales, medios de comunicación e instituciones científicas. Una sociedad incapaz de acordar hechos básicos enfrenta enormes dificultades para tomar decisiones colectivas racionales.


Al contemplar estas rutas, se delinean tres grandes escenarios. El primero imagina una integración prudente, donde la humanidad desarrolla mecanismos de gobernanza global, invierte en seguridad algorítmica y distribuye los beneficios de la automatización con visión estratégica. El segundo describe una transición turbulenta, con avances espectaculares y crisis periódicas que obligan a ajustes institucionales profundos. El tercero proyecta una ruptura mayor, ya sea por conflicto automatizado, uso malicioso de capacidades biotecnológicas o pérdida de control sobre sistemas cada vez más autónomos.


La diferencia entre estos escenarios depende menos de la capacidad técnica de los modelos y más de la calidad de nuestras decisiones colectivas. Investigadores en seguridad de la IA insisten en la necesidad de robustecer la investigación en alineación, mientras que economistas y politólogos subrayan la urgencia de diseñar marcos regulatorios que acompañen la velocidad del cambio tecnológico. Futurólogos recuerdan que cada revolución industrial reconfiguró el equilibrio de poder y que la actual lo hace a una escala inédita.


Frente a este panorama, la pregunta central deja de ser si la inteligencia artificial acabará con la humanidad y se transforma en otra más exigente. ¿Seremos capaces de construir instituciones, acuerdos internacionales y culturas cívicas a la altura del poder que hemos liberado? La respuesta exige cooperación entre Estados, transparencia en el desarrollo de sistemas críticos, inversión sostenida en investigación de seguridad y una ética tecnológica que integre filosofía, derecho, economía y ciencia en un mismo diálogo.


También requiere educación profunda en pensamiento crítico y comprensión digital, de modo que las nuevas generaciones participen como supervisores informados y no como usuarios pasivos. Implica revisar incentivos económicos para que la competencia no sacrifique estándares de seguridad en la carrera por liderar el mercado. Supone aceptar que el progreso técnico necesita límites deliberados cuando está en juego la estabilidad civilizatoria.


La inteligencia artificial encarna una de las mayores expresiones del ingenio humano y, al mismo tiempo, uno de los mayores desafíos de nuestra era. El desenlace dependerá de la madures y celeridad con la que enfrentemos esta encrucijada, que seguimos procesando mientras sigue desarrollándose exponencialmente. 


¿Voy bien o me regreso? Nos leemos pronto si la IA lo permite.


Placeres culposos: un libro, lo nuevo de Etgar Keret, el blues del fin del mundo. Y en música el álbum de Sweet, Sweet Spirit de Ron Carter y Ricky Dillard, una joya!!!


Almendros para Greis y Alo.


Esta es opinión personal del columnista