Món

Guerra llampec de la informàtica

Diversos països desenvolupen armes robotitzades i dirigides per intel·ligència artificial (IA). L’informàtic i investigador Toby Walsh parla dels perills que impliquen i de com caldria regular-les.

Segueix-nos a Facebook per assabentar-te dels nostres darrers reportatges

Senyor Walsh, la guerra de Rússia contra Ucraïna sembla ser, en certa manera, un escenari de proves per a sistemes moderns d’armament. A principis del conflicte, Ucraïna va apostar fort per l’ús de drons turcs del tipus Bayraktar, i ara Rússia podria pressionar amb drons iranians. En un futur, aquestes armes també podran servir-se de la intel·ligència artificial per iniciar atacs?

Sí, només és qüestió de temps que s’usin robots assassins dirigits per IA. Justament fa poc que vaig publicar un article advertint d’una nova mina antipersona anomenada POM-3, que utilitza Rússia. Aquest tipus de mina es basa en un disseny de les forces armades alemanyes conegut com ‘mina schrapnel’, que els soldats aliats anomenaven de broma “Bouncing Betty” (Betty la saltadora). Aquesta mina és capaç de detectar passos al seu voltant; aleshores, fa un salt i es detona a una alçada d’un metre amb l’objectiu de fer miques tants soldats com sigui possible. Rússia ha anunciat que utilitza IA per dirigir aquest tipus de mines, que poden distingir si les tropes que se li acosten són russes o no i decidir si explotar o no. Les mines terrestres són brutals, destrossen persones indiscriminadament, sovint criatures. És per això que estan prohibides a nivell internacional: 164 estats es van comprometre a no utilitzar-les; entre ells, Ucraïna. Rússia, però, no. Ara, com que he criticat les mines POM-3, m’han obert les portes a un club de privilegiats: formo part de la llista d’individus que tenen vetada l’entrada a Rússia. Em sento afalagat.

Arreu del món, les forces armades de l’aire semblen estar un pas per endavant. Austràlia, per exemple, col·labora amb l’empresa Boeing per provar avions de combat semiautònoms. Aquests avions caça interceptors han de servir d’escolta per als pilots dels bombarders, se’ls anomena “Loyal Wingman”.

El terme “Loyal Wingman” és equívoc i maquilla la realitat. Dona a entendre que l’objectiu és tan sols protegir la vida (en aquest cas la del pilot), però la realitat és totalment diferent. Ja fa temps que està tenint lloc una carrera armamentística a escala mundial per l’ús de la IA en el sector militar i l’opinió pública pràcticament ni se n’ha adonat. L’exèrcit dels Estats Units desenvolupa un tanc robotitzat anomenat Atlas. La marina americana treballa en uns vaixells de guerra totalment automàtics, els Sea Hunter, un dels quals ja ha viatjat tot sol des de Hawaii fins a la costa de Califòrnia. La Xina desenvolupa artefactes voladors dirigits per IA i Rússia vol desenvolupar un submarí no tripulat anomenat Posidó que fins i tot podrà equipar-se amb bombes atòmiques. Tot plegat és un malson. Pot imaginar-se res més esfereïdor que un submarí en el qual és un programa informàtic (i no un comandant) qui decideix iniciar una guerra nuclear?

Tot això no són escenaris catastròfics que al final no es convertiran en realitat?

En absolut. Les armes automàtiques fins i tot potser són més perilloses que les bombes atòmiques. Construir una bomba nuclear requereix de molts coneixements: un equip de físics i d’enginyers excel·lents, material fisionable i molts diners. Per aquest motiu, ara per ara les armes nuclears estan fora de l’abast de molts països, afortunadament. Tanmateix, les armes amb IA són totalment diferents. Sovint n’hi ha prou de comptar amb sistemes d’armament comuns, equipar-los amb els xips i el software corresponents, i amb accessoris que es poden obtenir amb impressió 3D, per convertir-los en armes autònomes.

Aquest tipus d’armes fetes a casa, un parell de tancs autònoms Atlas o els vaixells Sea Hunter serien realment decisius en un conflicte bèl·lic?

Això no ho sé, però sí que podrien fallar i iniciar accidentalment una guerra que després es prosseguiria amb armes convencionals o coses pitjors. Rússia, per exemple, suposadament ha utilitzat armes hipersòniques en la guerra contra Ucraïna. Aquest tipus d’armes volen cap al seu objectiu a una velocitat molt superior a la del so. En casos així, les línies de defensa pràcticament no tenen temps de reaccionar o de descartar falses alarmes. Tot plegat accelera els conflictes bèl·lics. Es podria arribar a una guerra hiperràpida, una ‘flash war’, una guerra llampec de sistemes informàtics que en poc temps podrien fer escalar un conflicte. L’automatització de la guerra té un efecte desestabilitzador i això s’ha d’evitar com sigui.

Tot i així, les armes semiautònomes no poden servir per salvar vides? El sistema antimíssils Phalanx, que els Estats Units utilitza en els sistemes de defensa de vaixells de guerra, reacciona molt més ràpid del que podria reaccionar una persona davant d’un atac.

Sí, és clar, si del que es tracta és de defensar-se d’una arma hipersònica, és una bona eina, però Phalanx és un sistema clarament defensiu. En els sistemes de defensa, l’ús d’IA és més aviat poc problemàtic, però el seu ús no està exempt de riscos. Fins a quin punt es fiable? Què passa si el software confon un avió de passatgers per un míssil enemic i dispara?

Qui assumirà la responsabilitat dels crims de guerra comesos per les armes automàtiques? El 2017, el Parlament Europeu va discutir molt seriosament la possibilitat d’atorgar, com a mínim a llarg termini, un estatus especial d’individu a certes màquines per poder retre comptes en cas de mal ús.

I això de què servirà? Les empreses prou es consideren “persones jurídiques”, però sovint això no serveix de res en cas que cometin delictes econòmics.

Actualment ja s’estan utilitzant robots assassins en les ofensives?

Al voltant d’això hi ha molta especulació. Sembla, però, que Turquia ha enviat un dron automàtic anomenat Kargu i equipat amb un software de reconeixement facial a caçar persones a la frontera síria. Sembla ser que Kargu utilitza un programa de reconeixement facial tan dolent com el dels nostres telèfons mòbils —que té molts errors i problemes— per identificar i matar persones. Imagini’s l’horror de veure que el persegueix un eixam de drons assassins. Encara que el sistema no acabi de funcionar del tot, les dictadures podrien utilitzar aquests mecanismes per terroritzar la població. Són eines perfectes per al terrorisme d’estat.

Encara és realista plantejar la redacció d’una mena de tractat com el de No Proliferació Nuclear que prohibeixi les armes dirigides per IA, tal com vostè comenta al seu nou llibre MachinesBehaving Badly (en català, lit. ‘Màquines que no es porten bé’)?

La prohibició potser no sempre funciona bé del tot, però pot evitar que la situació empitjori. Hi ha molts exemples d’armament utilitzat en uns inicis i prohibit posteriorment. Pensi en l’ús generalitzat dels gasos tòxics durant la Primera Guerra Mundial, o en els làsers encegadors que deixaven els soldats sense visió. El 1998 es va firmar un protocol de les Nacions Unides que en prohibia l’ús i des de llavors pràcticament mai més no se n’ha vist cap en un camp de batalla, malgrat que les tecnologies làser d’ús civil estan molt esteses. En el cas de les mines antipersona, la prohibició no acaba de rutllar, però gràcies als protocols que les prohibeixen se n’han destruït 40 milions d’unitats, la qual cosa ha salvat la vida de moltes criatures. Les bombes de dispersió han tingut una evolució similar: se’n va destruir el 99%, però a Síria van tornar-se a utilitzar. Podem, doncs, servir-nos de l’estigmatització perquè les armes autònomes es considerin inacceptables.

Cinc anys enrere semblava més optimista i afirmà al seu llibre, It’s Alive (en català, lit. “És viu”), que la intel·ligència artificial tindria un futur gloriós. Què l’ha fet canviar d’opinió?

La realitat! Simplement hem pogut veure’n molts efectes secundaris nocius. Cada cop ha quedat més clar fins a quin punt s’ha utilitzat la publicitat electoral dirigida per “hackejar” el cervell de les persones amb l’objectiu que votessin per Donald Trump o a favor del Brexit. Perquè votessin, sovint, contra els seus propis interessos. L’aprenentatge automàtic no ha fet sinó agreujar aquest tipus d’atacs per crear una tempesta perfecta.

Amb tot, la Unió Europea està elaborant un reglament per a una “IA digna de confiança”.

La UE és pionera en la regulació de la intel·ligència artificial. I el mercat europeu és prou gran perquè les multinacionals considerin que val la pena adaptar els seus productes d’IA a la normativa europea. Tot i així, cal mirar sempre la lletra petita. Formular normes és una cosa, però la qüestió és fins a quin punt es podrà pressionar perquè es compleixin les regles.

D’entrada hi ha molta diversitat d’opinions, com ara en la qüestió de la transparència. La IA realment pot ser transparent i comprensible? No acaba essent sempre i per definició una mena de caixa negra?

La transparència està sobrevalorada. Les persones no som transparents, però confiem els uns en els altres en el nostre dia a dia. Jo, per exemple, confio en la meva metgessa malgrat no ser metge i no poder entendre les seves decisions fins al més mínim detall. Ho faig tot i no saber què li passa pel cap. Tanmateix, confio en les institucions que la supervisen.

Com podem garantir que la IA funciona de conformitat amb les normes si no en coneixem el codi informàtic?

Això és, certament, delicat, però no afecta només la IA. A dia d’avui, les empreses modernes també són una forma d’intel·ligència sobrehumana. Ni tan sols la persona més intel·ligent del món seria capaç de fabricar un iPhone tota sola; ningú és prou llest per dissenyar tot sol una central elèctrica. Totes les empreses se serveixen de la intel·ligència d’un gran nombre d’empleats d’intel·ligència corrent per crear un col·lectiu sobrehumanament llest i això és, en certa manera, una mena d’intel·ligència artificial.

Si hi hagués un sistema de IA que se n’anés pel mal camí, simplement no podríem desendollar-ho?

De cap manera! No podem apagar els ordinadors del sistema bancari mundial perquè l’economia se n’aniria en orris. No podem apagar els ordinadors que controlen el transit aeri perquè tot el transport col·lapsaria. Tampoc no podem apagar els ordinadors de les centrals elèctriques perquè hi hauria una apagada general. A dia d’avui ja depenem totalment dels ordinadors i la IA no farà sinó augmentar aquesta dependència. No hi ha volta enrere. L’únic que podem fer és intentar que aquesta IA es programi d’acord amb els valors de la nostra societat.

Una vegada va predir que un cotxe autònom provocaria un accident amb un ciclista o amb un vianant, cosa que ocorregué més o menys un any després. Quines són les seves profecies per als propers cinc anys?

Els sistemes de reconeixement facial automàtic seran objecte d’escàndols. La start-up americana Clearview AI ha recopilat milions de fotografies sense el permís de les persones afectades. L’empresa va anar a judici i en va sortir amb una sentència condemnatòria, però continua fent la seva. És increïble que encara no l’hagin arruïnada a denúncies. I també preveig un augment dels ‘deepfake’, de vídeos i fotografies manipulades amb IA. D’aquí a pocs anys, els ‘deepfake’ tindran el poder de determinar resultats electorals o d’iniciar conflictes armats… o, fins i tot, de totes dues coses.

Traducció de Laura Obradors

Subscriu-te a El Temps i tindràs accés il·limitat a tots els continguts.