Guerra a l'Iran

La intel·ligència artificial dispara la capacitat de matar dels EUA i Israel

El sistema Project Maven, utilitzat pel Pentàgon, pot processar mil imatges en un segon i fer de la informació objectius potencials

14/03/2026

LondresL'ull humà pot analitzar una imatge de satèl·lit en uns deu minuts. El sistema Project Maven, el programa d’anàlisi d'imatges amb intel·ligència artificial del Pentàgon i en el qual participen empreses com Palantir Technologies, pot processar mil imatges en un segon. Aquesta enorme capacitat de computació ha convertit la guerra a l'Iran en un dels primers conflictes on els sistemes d'intel·ligència artificial tenen un paper central en la identificació i priorització d’objectius, i on la velocitat de càlcul condiciona el ritme de les operacions. I ho fa molt més que en conflictes anteriors. La guerra de Tel-Aviv i Washington contra Teheran suposa el debut a gran escala per a una tecnologia que fins fa poc era poc més que un experiment, tot i que Ucraïna i Gaza n'han vist ja alguns primers assajos generalitzats.

Balanç provisional de víctimes per països
Xifres oficials aproximades dels morts i els ferits confirmats
Cargando
No hay anuncios

Les possibilitats d'aquest sistema Maven, combinat amb models d'IA generativa com Claude, de la companyia Anthropic, van permetre als nord-americans i als israelians atacar 3.000 objectius durant les primeres 24 hores de l'ofensiva. Això suposa una autèntica "metamorfosi del camp de batalla", en paraules del mariscal de l'aire retirat de la Royal Air Force britànica Martin Sammy Sampson. "Ens trobem davant una fase inèdita de la guerra, on la presa de decisions s'ha desplaçat cap a arquitectures algorítmiques a gran escala que culminen anys d'experiments secrets", afirma. Sampson, director executiu de la branca del Pròxim Orient del think tank International Institute for Strategic Studies (IISS), de Londres, ho explicava aquesta setmana a l'ARA durant una sessió informativa.

La tecnologia, que Israel ja ha utilitzat a Gaza, ha contribuït a fer possible que en un sol dia es duguin a terme tants atacs com en mesos de campanya convencional. Un flux constant de dades es transforma en objectius potencials en un procés en què, segons diversos especialistes, la supervisió humana es pot reduir a un simple tràmit de validació.

Cargando
No hay anuncios

Com funciona Project Maven?

La història militar entra així en una fase en què, com afirma Sampson, el que compta és "la freda velocitat de càlcul". El mariscal descriu el sistema com una "execució i planificació 24/7": en resum, la pluja de foc no s’atura. El ritme supera fins i tot els exercicis de simulació més ambiciosos del Pentàgon, com el concepte "a thousand decisions", dissenyat per entrenar comandaments a identificar mil objectius en una hora. A l'Iran, l'escala ha estat el doble de la famosa campanya Shock and Awe del 2003, durant la guerra de l'Iraq, que va implicar 1.700 sortides aèries en 48 hores. Segons Sampson, la IA "no és un complement, és el cor d'una màquina que ja no analitza la guerra", sinó que gestiona dades per optimitzar l'eliminació sistemàtica d'objectius.

Cargando
No hay anuncios

El sistema va començar a projectar-se el 2017 com un experiment per classificar vídeos de drons. Amb el temps s'ha convertit en una plataforma capaç d'interpretar el volum aclaparador de dades generades per satèl·lits, sensors, radars i comunicacions interceptades. Maven fusiona en una sola interfície mapes digitals, geolocalitzacions, telemetria i imatges comercials.

Mitjançant visió per computador pot classificar objectes amb una probabilitat elevada —per exemple distingir un vehicle militar d’un camió civil—, identificar fonts de calor o detectar infraestructures de comunicacions. Aquesta arquitectura funciona com el sistema nerviós del camp de batalla digital i resol el que els militars anomenen el problema de "l’excés d’informació". És a dir, soluciona el que cap equip humà pot fer: processar milers d'hores de vídeo i senyals en temps útil.

Cargando
No hay anuncios

La integració amb models d'IA com Claude hi afegeix una nova capa de sofisticació: la capacitat de sintetitzar i interpretar aquest enorme flux d'informació. L'empresa Palantir Technologies aporta les dades brutes del sistema —procedents de satèl·lits, sensors i intercepcions de comunicacions—, mentre que Claude actua com una "escorça cerebral" que permet interrogar la plataforma amb preguntes formulades en llenguatge corrent i obtenir respostes operatives en qüestió de segons, sosté Sampson.

Un exemple: un comandant pot demanar quins centres logístics enemics són més vulnerables dins d'un radi determinat. Claude creua les dades disponibles i genera una resposta operativa clara, mentre els sistemes d'anàlisi filtren possibles falsos positius i presenten als comandaments una llista d’objectius que serien prioritaris.

Cargando
No hay anuncios

El procés segueix la cadena digital F2T2EA —detectar, fixar, seguir, designar, atacar i avaluar— a una velocitat que cap humà podria igualar. El sistema Project Maven pot analitzar milers d'imatges en segons, correlacionar signatures tèrmiques –l'empremta de calor que deixa anar un objecte o un cos humà– i transmissions de ràdio en temps real i presentar objectius que es consideren prioritaris. Com si fos una mena de joc de vídeo, l'operador-executor només ha de revisar i autoritzar. Almenys en teoria. A la pràctica, l'acceleració i l'exigència del comandament pot fer que autoritzi sempre de forma sistemàtica. S'acaba així amb el que els militars anomenen "colls d’ampolla cognitius". El resultat és que es prenen mil decisions en una hora. És clar, també es redueix al mínim el marge de deliberació humana.

El revers encara més fosc

I com si fos una mena de joc de vídeo, l’operador-executor només ha de revisar i autoritzar el cop. Almenys en teoria. A la pràctica, l’acceleració i l’exigència del comandament pot fer que autoritzi sempre de forma sistemàtica. S’acaba així amb el que els militars anomenen “colls d’ampolla cognitius”. El resultat és que es prenen mil decisions en una hora. És clar, també es redueix al mínim el marge de deliberació humana i augmenta la possibilitat d'errors. 

Cargando
No hay anuncios

En declaracions a l’agència Bloomberg la setmana passada, el capità Timothy Hawkins, portaveu del Comandament Central dels Estats Units (CENTCOM), insistia que la IA no decideix què és un objectiu ni substitueix els humans a l’hora de prendre una decisió. Amb tot, reconeixia que ajuda a “prendre decisions més intel·ligents més ràpidament”. El temps entre la detecció i l’atac es redueix.

Cargando
No hay anuncios

Aquesta eficiència, però, té un revers encara més fosc. La mateixa tecnologia que promet precisió quirúrgica pot amplificar errors de manera catastròfica. 

L’atac a l’escola de Minab en les primeres hores de la guerra de l’Iran, on van morir 168 persones —almenys 110 nenes—, s’ha convertit en símbol d’aquesta deriva.

Cargando
No hay anuncios

Segons diverses anàlisis, els sistemes d’intel·ligència podrien haver interpretat una concentració de signatures tèrmiques —el patró de calor que emeten objectes o cossos humans i que detecten els sensors infraroigs— i emissions electròniques compatibles amb un centre de comandament militar. Però no van detectar que es tractava d’una sala d’actes plena de nenes.

La tragèdia es va agreujar amb la lògica del double-tap, una segona onada d’atacs programada per colpejar quan els equips de rescat ja són a la zona, i que a Gaza els israelians han fet servir reiteradament. El fet que hi hagués a prop una instal·lació de la Guàrdia Revolucionària reforça la hipòtesi de l’atac nord-americà, tot i que el Pentàgon i el president Donald Trump n’han defugit la responsabilitat. Així i tot, una informació publicada dimecres passat per The New York Times indicava que el mateix Pentàgon havia detectat que les dades utilitzades per la intel·ligència artificial no eren actuals. Un altre error, doncs.

Davant la superioritat tecnològica aliada, l’Iran ha optat per una estratègia asimètrica que Sampson descriu com una “escalada anàrquica”. Mentre la IA dels Estats Units busca objectius presumptament estratègics, Teheran intenta provocar el xoc social a la regió. 

L’absència de míssils de creuer al camp de batalla suggereix, deia el mariscal, que l’Iran els reserva, no que ja els hagi consumit al 90%, com ahir deia el secretari de Defensa, Pete Hegseth: aquests projectils, de vol molt baix, són especialment difícils de detectar pels radars, fins i tot pels sistemes basats en intel·ligència artificial. Paral·lelament, com apunta Sampson, Teheran explota els errors dels algoritmes occidentals i converteix episodis com el de Minab —tragèdia o assassinat massiu— en munició narrativa per erosionar la més que dubtosa legitimitat d’una ofensiva il·legal que no té aturador.

Hi ha, encara, dues altres grans incògnites, impossibles de comprovar a hores d’ara. D’una banda, si la intel·ligència artificial és tan eficaç com sostenen els seus creadors –alguns analistes afirmen que les forces iranianes han construït durant anys esquers per confondre els algoritmes de sistemes relativament pocs experiments; d’una altra, si les anomenades ciutats de míssils subterrànies de l’Iran s’han vist afectades greument o no per dues setmanes de campanya aèria. De moment, sembla difícil de dir.

La batalla entre Anthropic i la Casa Blanca

En paral·lel a la capacitat d'innovació tecnològica que ha posat de manifest la guerra, s'ha obert una esquerda sísmica a Washington. L'administració de la Casa Blanca ha classificat Anthropic com un "risc per a la cadena de subministrament". La decisió és extraordinària perquè el govern dels EUA sol ser el protector ferri de les seves empreses tecnològiques davant la regulació internacional. Ara, però, ha col·locat Anthropic al mateix nivell de restricció que el gegant xinès Huawei. El motiu de la discòrdia és el posicionament del seu CEO, Dario Amodei, que ha imposat clàusules estrictes: la seva tecnologia no pot ser usada per a la guerra autònoma letal ni per a la vigilància massiva de ciutadans. La Casa Blanca ha respost amb una duresa inaudita, titllant l'empresa de "radical d'esquerres i 'woke'" i afirmant que no correspon a les empreses dictar el comportament de l'exèrcit. Amodei, per la seva banda, manté una postura molt ambigua: d'una banda, ha impugnat judicialment la decisió del govern i, de l'altra, afirma que la seva tecnologia "encara no és prou bona" per fer les coses que l'exèrcit vol fer.