Mientras el resto del mundo se apresura a aprovechar el poder de la inteligencia artificial, los grupos militantes también están experimentando con la tecnología, incluso si no están seguros exactamente de qué hacer con ella.
Para las organizaciones extremistas, la IA podría ser una herramienta poderosa para reclutar nuevos miembros, producir imágenes deepfake realistas y refinar sus ciberataques, advirtieron expertos en seguridad nacional y agencias de espionaje.
El mes pasado, alguien publicó en el sitio web de un grupo pro-Estado Islámico que instaba a otros simpatizantes del EI a integrar la IA en sus operaciones. “Una de las mejores cosas de la IA es su facilidad de uso”, escribió el usuario en inglés.
“A algunas agencias de inteligencia les preocupa que la IA contribuya al reclutamiento”, continuó el usuario. “Así que convierten sus pesadillas en realidad”.
EI, que había tomado territorio en Irak y Siria hace años, pero ahora es una alianza descentralizada de grupos militantes que comparten una ideología violenta, se dio cuenta hace años de que las redes sociales podían ser una herramienta potente para el reclutamiento y la desinformación, por lo que no es sorprendente que el grupo esté probando inteligencia artificial, dicen los expertos en seguridad nacional.
En el caso de grupos extremistas poco cohesionados y con escasos recursos (o incluso de un mal actor individual con conexión a Internet), la IA se puede utilizar para difundir propaganda o deepfakes a gran escala, ampliando así su alcance y expandiendo su influencia.
“Para cualquier adversario, la IA facilita enormemente las cosas”, afirmó John Laliberte, exinvestigador de vulnerabilidades de la Agencia de Seguridad Nacional (NSA) y actual director ejecutivo de la empresa de ciberseguridad ClearVector. “Con la IA, incluso un grupo pequeño y sin grandes recursos puede generar un impacto”.
Cómo están experimentando los grupos extremistas
Los grupos militantes comenzaron a usar IA en cuanto programas como ChatGPT se popularizaron. Desde entonces, han utilizado cada vez más programas de IA generativa para crear fotos y vídeos de aspecto realista.
Cuando se vincula a los algoritmos de las redes sociales, este contenido falso puede ayudar a reclutar nuevos creyentes, confundir o asustar a los enemigos y difundir propaganda a una escala inimaginable hace apenas unos años.
Hace dos años, estos grupos difundieron imágenes falsas de la guerra entre Israel y Hamás, que mostraban bebés ensangrentados y abandonados en edificios bombardeados. Las imágenes provocaron indignación y polarización, a la vez que ocultaron los verdaderos horrores de la guerra. Grupos violentos en Oriente Medio utilizaron las fotos para reclutar nuevos miembros, al igual que grupos de odio antisemitas en Estados Unidos y otros países.
Algo similar ocurrió el año pasado tras un ataque reivindicado por un afiliado del EI que mató a casi 140 personas en una sala de conciertos en Rusia. En los días posteriores al tiroteo, vídeos de propaganda creados con inteligencia artificial circularon ampliamente en foros de discusión y redes sociales, buscando nuevos reclutas.
EI también ha creado grabaciones de audio deepfake de sus propios líderes recitando escrituras y ha utilizado IA para traducir rápidamente los mensajes a varios idiomas, según investigadores de SITE Intelligence Group, una empresa que rastrea las actividades extremistas y ha investigado el uso evolutivo de la IA por parte de EI.
‘Aspiracional’ — por ahora
Estos grupos están a la zaga de China, Rusia o Irán y aún consideran que los usos más sofisticados de la IA son “aspiracionales”, según Marcus Fowler, ex agente de la CIA que ahora es director ejecutivo de Darktrace Federal, una empresa de ciberseguridad que trabaja con el gobierno federal.
Pero los riesgos son demasiado altos para ignorarlos y es probable que aumenten a medida que se expanda el uso de IA barata y poderosa, afirmó.
Los hackers ya utilizan audio y vídeo sintéticos para campañas de phishing, en las que intentan hacerse pasar por altos cargos empresariales o gubernamentales para acceder a redes sensibles. También pueden usar IA para escribir código malicioso o automatizar algunos aspectos de los ciberataques.
Más preocupante es la posibilidad de que grupos militantes intenten usar la IA para producir armas biológicas o químicas, compensando así la falta de experiencia técnica. Este riesgo se incluyó en la Evaluación de Amenazas Nacionales actualizada del Departamento de Seguridad Nacional, publicada a principios de este año.
“ISIS se adentró en Twitter desde el principio y encontró maneras de usar las redes sociales a su favor”, dijo Fowler. “Siempre están buscando la siguiente arma para añadir a su arsenal”.
Contrarrestar una amenaza creciente
Los legisladores han presentado varias propuestas, diciendo que hay una necesidad urgente de actuar.
El senador Mark Warner, de Virginia, el demócrata de mayor rango en el Comité de Inteligencia del Senado, dijo, por ejemplo, que Estados Unidos debe facilitar que los desarrolladores de IA compartan información sobre cómo sus productos están siendo utilizados por actores maliciosos, ya sean extremistas, piratas informáticos criminales o espías extranjeros.
“Desde finales de 2022, con el lanzamiento público de ChatGPT, quedó claro que la misma fascinación y experimentación que el público ha tenido con la IA generativa también se aplicaría a una variedad de actores malignos”, afirmó Warner.
Durante una audiencia reciente sobre amenazas extremistas, los legisladores de la Cámara de Representantes se enteraron de que EI y Al Qaeda han realizado talleres de capacitación para ayudar a sus partidarios a aprender a utilizar la IA.
La legislación que aprobó la Cámara de Representantes de Estados Unidos el mes pasado requeriría que los funcionarios de seguridad nacional evalúen los riesgos de inteligencia artificial que plantean dichos grupos cada año.
Protegerse del uso malicioso de la IA no es diferente a prepararse para ataques más convencionales, dijo el representante August Pfluger, republicano de Texas, patrocinador del proyecto de ley.
“Nuestras políticas y capacidades deben estar a la altura de las amenazas del mañana”, afirmó.
(AP)
















