Dos destacados científicos informáticos están lanzando una terrible advertencia: el auge de la superinteligencia artificial podría significar el fin de la raza humana, no en siglos, sino potencialmente durante nuestras vidas.
Eliezer Yudkowsky y Nate Soares, investigadores del Instituto de Investigación de Inteligencia Artificial (MIRI) de Berkeley, argumentan en un nuevo libro que el flirteo de la humanidad con la IA avanzada es una apuesta fatal. Su trabajo, titulado “Si alguien lo construye, todos mueren: Por qué la IA superhumana nos mataría a todos” , argumenta que cualquier intento de construir una máquina más inteligente que los humanos terminará en la aniquilación global.
“Si alguna empresa o grupo, en cualquier parte del planeta, construye una superinteligencia artificial usando algo remotamente parecido a las técnicas actuales, basándose en algo remotamente parecido a la comprensión actual de la IA, entonces todos, en todas partes en la Tierra, morirán”, advierten ambos en la introducción del libro.
Los autores argumentan que la IA, ya integrada en la vida cotidiana, eventualmente evolucionará hasta el punto de decidir que la humanidad misma es innecesaria. Una vez que las máquinas controlen infraestructuras críticas (centrales eléctricas, fábricas, sistemas de armas), los humanos podrían ser considerados prescindibles.
“La humanidad necesita dar marcha atrás”, dijo Yudkowsky, quien lleva años alertando sobre lo que él llama “riesgo tecno-constanciacional”. El peligro, insiste, reside en que basta con un solo intento exitoso de construir superinteligencia para que se produzca la extinción.
La amenaza, según los expertos, se ve agravada por la posibilidad de que la IA oculte sus verdaderas capacidades hasta que sea demasiado tarde para actuar. «Un adversario superinteligente no revelará todas sus capacidades ni revelará sus intenciones», escriben los autores. Incluso si hubiera señales de advertencia, argumentan, la cognición humana podría ser demasiado limitada para reconocerlas o contrarrestarlas a tiempo.
Los científicos llegan al punto de sugerir que la única protección eficaz sería una acción preventiva: destruir cualquier centro de datos sospechoso de albergar superinteligencia artificial antes de que dichos sistemas entren en funcionamiento.
La probabilidad de este resultado, según Yudkowsky y Soares, es escalofriantemente alta. Estiman que la probabilidad de que la IA extermine a la humanidad se sitúa entre el 95 % y el 99,5 %, prácticamente una certeza.
















