La nueva era de las guerras con IA: muchos datos, dilemas éticos y una factura incierta

El uso de esta tecnología en Gaza, Venezuela e Irán aviva el debate sobre hasta dónde llega la supervisión humana, pero también un cambio del paradigma económico de la guerra Leer El uso de esta tecnología en Gaza, Venezuela e Irán aviva el debate sobre hasta dónde llega la supervisión humana, pero también un cambio del paradigma económico de la guerra Leer  

Primero, la destrucción de todos los radares venezolanos en la operación de captura de Nicolás Maduro. Poco después, miles de ataques coordinados sobre Irán. Antes, la invasión de Gaza había marcado el principio de un cambio tecnológico a la guerra. Si el conflicto de Ucrania pasará a la historia en la táctica militar por el descubrimiento de los drones baratos como arma de guerra, la guerra con Irán amaga con hacerlo por el primer gran despliegue de ataques orquestados con inteligencia artificial.

Una nueva era que llega con un intenso debate, que abarca desde el derecho a la ética y también la futura economía de los conflictos. El gran canalizador ha sido Dario Amodei, fundador del gigante de la IA Anthropic, que protagoniza un fuerte choque con el Ejecutivo de Donald Trump al negarse a eliminar las salvaguardas que tienen sus modelos de lenguaje para ciertos usos. Concretamente, el uso autónomo de armas sin un humano detrás y el de la vigilancia masiva.

«Anthropic entiende que el Departamento de Guerra, y no las compañías privadas, toman las decisiones militares. Nunca hemos tenido objeciones a operaciones particulares (…) Sin embargo, en algunos casos, creemos que la IA puede socavar, más que defender, los valores democráticos», señalaba en un comunicado el CEO de la compañía.

El analista geopolítico senior en Arcano Research y ex oficial de la CIA Bjorn Beam subraya el profundo cambio de paradigma en que vivimos con una tecnología que permite captar la información miles de sensores y analizarlos en cuestión de segundos. Un proceso que antes llevaba horas y dispara la capacidad de decisión de los ejércitos, y que se une al impacto que ya está teniendo el uso generalizado de vehículos autónomos.

«En Ucrania, se vio por primera vez el uso de drones buscando diferentes posibles objetivos para atacar con IA», explica el experto, que apunta los dos otros grandes usos de la IA en los nuevos conflictos, como son la recopilación y cruce de datos y su aplicación a la inteligencia para ciberataques. «Hay decisiones que llevan días y ahora se toman en minutos», subraya el antiguo miembro del servicio secreto de EEUU.

Precisamente, el hecho de que este tipo de situaciones no tengan un humano detrás es un asunto central para muchos expertos éticos que tampoco se puede desligar de la realidad: las armas autónomas están ya en el campo de batalla. «Yo creo que la intervención humana tiene que estar presente. No contemplo un campo de batalla desprovisto de seres humanos en el que la inteligencia artificial decida a quién atacar, eso tiene unos flecos éticos impresionantes», subraya el general de brigada en reserva y profesor de la Universidad de Navarra Salvador Sánchez Tapia.

El CEO de Anthropic da por sentado que hay y habrá armas autónomas en el futuro, pero advertía en su comunicado que la tecnología aún no estaba preparada para tomar con suficientes certezas decisiones claves, como podría ser formar parte de las defensas antiaéreas y desviar un misil.

«El propio CEO de Anthropic asegura que hacen falta distintos guardarraíles para la defensa o para un modelo normal, pero tiene que haber algunos. Ahora las decisiones de los jefes de unidad y el Gobierno son tomadas con los datos de estas empresas y, si las empresas cambian, estos cambian. Por eso entiendo también que el Gobierno quiera cierto control«, remarca Beam sobre un conflicto que, de momento, tiene a la empresa de IA en una lista negra para contratar con la Administración.

La Unión Europea tampoco es ajena a esta situación y ya trabaja en sus propios escenarios que, necesariamente, pasan por usos de sistemas similares a los estadounidenses. «Los límites éticos que tiene un modelo para su uso normal no son los mismos que en una época de guerra», explica Idoia Salazar, presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial, OdiseIA.

La jurista explica que situaciones excepcionales como la pandemia ya han facultado a los gobiernos para tomar medidas excepcionales y los conflictos son una situación más donde es «lógico» que el uso de herramientas tan potentes como los modelos de lenguaje cambie y se aproveche.

Con todo, sí cree que es necesario que ese marco cuente con su propia ética y respeto a los derechos y, de hecho, señala que la Comisión está ya trabajando en cómo incorporar una capa de ética a los algoritmos de IA que ayudan a la toma de decisiones en sus ejércitos y a otros elementos como los vehículos autónomos, claves en el devenir de los nuevos campos de batalla.

Este nuevo paradigma tiene como claros ganadores a las empresas tecnológicas, tanto algunas más asentadas como Microsoft o Google, que también proveen de numerosas capacidades al Estado, como otras de sectores adyacentes, desde el mundo de los satélites hasta startups que se han hecho gigantes gracias, en gran parte, a los contratos militares, como Anduril y Palantir. Esta última se ha forjado su nombre entre excéntricas declaraciones de su CEO y un halo de secretismo en torno a sus tecnologías de análisis de datos hasta valer en bolsa 370.000 millones de dólares, 244 veces sus beneficios. Precisamente, el uso de la tecnología de Palantir combinada con grandes modelos de lenguaje ha sido la base de la toma de decisiones de objetivos de Estados Unidos en sus últimas operaciones.

La estructura donde se agrupan estas tecnologías punteras es el proyecto Maven, una especie de puesto de mando que combina información recogida del campo de batalla por sensores, cámaras de drones, recopilaciones de otras cámaras con ataques informáticos, redes sociales o imágenes satelitales para que los militares tengan un mejor entendimiento de la situación.

Anduril, por su parte, comenzó con el desarrollo de drones autónomos, pero ha ido virando también a otras tecnologías de tomas de decisiones y, últimamente, hacia otros grandes proyectos como el soldado conectado, un plan para dotar a los militares estadounidenses de gafas de realidad extendida que aumenten sus capacidades.

A esto se unen otras decenas de actores, desde empresas de satélites que proveen imágenes casi en tiempo real a los militares hasta numerosos fabricantes de nuevos drones y vehículos autónomos, grupos de ciberseguridad y ciberdefensa; dotando de unas capacidades extensas en todos los bandos, ya que expertos como Beam destacan el desarrollo iraní en el área cibernética, así como la de otros países como Corea del Norte.

«También está la parte de la sofistificación de la defensa cibernética, como es el caso de Irán que en sus ataques utiliza IA para buscar, sacar y estructurar datos de distintos países y gobiernos. Hasta febrero, estaban dentro de un banco de Estados Unidos. Google ha denunciado también que Gemini AI fue objetivo de phising de IA por parte de Irán», apunta el exoficial de la CIA, que también subraya que esa «sofistificación» llega al punto de usar agentes de IA de forma constante para hacer ataques continuos.

Entre los beneficios que se esgrimen acerca de esta transformación al mundo militar hay dos que destacan: una minimización de las víctimas mortales y un menor coste económico. El ejemplo paradigmático de las lógicas económicas de la nueva guerra es el derribo de los drones Shahed iraníes, que cuestan unos 25.000 dólares, con interceptores Patriot que lanzan misiles de un coste millonario, sin embargo el cambio es más profundo y las cuentas no son tan sencillas.

En ese sentido, el influyente think tank Rand apunta a que la IA traerá un giro significativo en lo económico: se pasará de primar la calidad a apostar por la cantidad. Es decir, de un paradigma de programas diezmilmillonarios súpercomplejos y prodigios técnicos, a un nuevo escenario de guerra donde prime poner muchos elementos más baratos y fácilmente reemplazables, como los drones o también señuelos para distraer a la IA e impedir que tome decisiones, por ejemplo.

Todo pasos hacia un escenario cada vez más copado por vehículos o elementos autónomos como robots cada vez más presentes, señala por su parte Sánchez Tapia. El profesor de la Universidad de Navarra remarca que los humanos seguirán siempre teniendo «ciertas decisiones», pero la tendencia avanza hacia «enjambres programados» con misiones predefinidas y los humanos como últimos decisores.

Un camino que, advierte, Europa está recorriendo más lento. «Estamos un poco por detrás de China, Israel y Estados Unidos», subraya, y hace un llamamiento a la Unión. «Para que nuestra industria de la defensa y la inteligencia artificial tenga autonomía tiene que ser competitiva y desde mi punto de vista no lo es. No solo el sector en sí, sino el entorno de legislación. La normativa que tiene que favorecer estas industrias. Si están lastradas respecto a otras zonas sin limitación, a la postre la gente buscará proveedores fuera del continente, que es lo que se busca evitar», reflexiona.

Sin embargo, las cuentas de la futura factura de esta nueva guerra no están tan claras. Un informe del Brennan Center for Justice de la Universidad de Nueva York calcula que el Gobierno estadounidense ya ha comprometido más de 75.000 millones de dólares (64.689 millones de euros al cambio) a su intento de conseguir mejores armas autónomas. Entre las partidas, destaca un proyecto fallido de más de 20.000 millones para que Microsoft desarrollara las gafas del soldado conectado, que es el que ahora gestiona Anduril.

En su propio estudio, Rand advierte también de las masivas implicaciones que esta nueva guerra tiene en la logística de un ejército invasor. Por un lado, está la necesidad de transportar los hipotéticos robots, drones y otros elementos hasta el combate. Un desafío que implica construir nuevas lógicas, ya que muchos drones, a diferencia de los aviones, son elementos que solo tienen un uso y se autodestruyen por lo que es necesario llevar reemplazos.

Parte de estos ahorros podrían capitalizarse en un ahorro de personal, al haber menos soldados sobre el terreno, señala el análisis de Rand, que apunta también a que la IA tiene potencial de ayudar a los ejércitos a compensar la falta de mano de obra en sus áreas de ciberseguridad y generar código con menos vulnerabilidades que puedan aprovechar los atacantes rivales.

También hay otra vertiente económica transversal a toda esta transformación. Se necesita computación y almacenamiento para que todo funcione. Los investigadores del Brennan Center, Amos Toh y Emile Ayoub, rastrearon los contratos del Pentágono y otras ramas del ejército: tiene compromisos por más de 9.000 millones de dólares (7.766 millones de euros) en capacidad en la nube con Amazon Web Services, Google, Microsoft y Oracle. Otro ejemplo sería el faraónico proyecto antimisiles de Trump, la cúpula dorada, que costaría otros 25.000 millones de desarrollo más luego una operación con elevados costes energéticos y de personal.

Esta apuesta también plantea otra vertiente, la conversión de los centros de datos en emplazamientos estratégicos, algo que ya se ha visto con los ataques de Irán a centros en Emiratos. «Irán ya ha puesto en su lista de objetivos a Amazon, Microsoft, Google o Nvidia…», apunta el experto en geopolítica de Arcano Research, que señala que otro elemento clave son los cables submarinos. «El 90% de nuestras comunicaciones van por estos cables (…) Rusia dobla cada año sus ataques a infraestructuras en Europa: cables, centros de radar, hospitales, energía, cada ataque es parte de una guerra de desestabilización», retrata la situación Beam, quien señala que vamos a un escenario de mayor impacto de este tipo de ataques en campos como el uso de IA para multiplicar desinformación en redes.

Una situación amplificada por la falta de moderación en estas plataformas y la posibilidad de crear imágenes cada vez más realistas con la inteligencia artificial, que pinta un escenario que deja pocas dudas sobre el potencial de la IA como arma en plena escalada de la incertidumbre global.

 Actualidad Económica // elmundo

Te puede interesar