Intel·ligència Artificial

Les receptes de Yuval Noah Harari contra la fi del món

L’autor del best-seller dels assaigs, Sàpiens, publica ara Nexus (Edicions 62) per advertir dels perills de la intel·ligència artificial. L’historiador i filòsof israelià Yuval Noah Harari analitza la història de les xarxes d’informació que han utilitzat els humans en la història (i han donat lloc a totalitarismes o democràcies) i explica per què la IA és més perillosa que qualsevol arma nuclear.

Segueix-nos a Facebook per assabentar-te dels nostres darrers reportatges

Yuval Noah Harari presenta un assaig llegidor i divulgatiu amb una tesi ben defensada contra el que anomena les teories ingènues sobre la informació que s’utilitzen per alimentar sense fre —i sense prou control— la intel·ligència artificial (IA).

L’explicació més breu i senzilla de la seua teoria, tal com la resumia Harari en una recent roda de premsa, és que “la informació no és veritat ni és coneixement”. I això implica que és falsa la teoria dels que defensen a capa i espasa la IA. No és cert, diu Harari, que “més informació ens acosti més a la veritat, sinó tot el contrari”. Per tant, tampoc no és cert el mantra que repeteix el propietari d’X (abans Twitter) Elon Musk que la gent necessiti més i més informació. Musk ho diu una vegada i una altra perquè la IA aportarà una allau de dades i són molts els que creuen que més informació significarà directament progrés, coneixement i beneficis universals.

Harari dedica més de 500 pàgines a explicar per què són falsos aquests apriorismes sobre la informació i ho fa repassant la història cultural, religiosa i comunicativa dels humans des que els sàpiens van conviure amb els neandertals. Amb molt d’estil, l’autor farceix la seva història de personatges molt coneguts (Jesucrist, Stalin, Hitler, etc.) i d’altres que mai esperaríem trobar en un llibre com aquest, com Cher Ami, un colom missatger (l’ocell de la coberta) que, en una batalla de la Primera Guerra Mundial, va tindre un paper protagonista en lliurar un missatge que havia de salvar tot un batalló de l’exèrcit dels Estats Units.

 

 

La informació és una selva

A l’epíleg de Nexus, Harari explica que les seues obres anteriors li van facilitar un accés inesperat a empreses, institucions i científics que tenien o podien exercir un paper clau en el desenvolupament o el control de la IA. Però molts d’ells, escriu, “argumentaven que més informació sempre ha significat més coneixement i que, en augmentar el nostre coneixement, cada revolució de la informació anterior ha beneficiat molt la humanitat. La revolució de la impremta, no va conduir a la revolució científica? Els diaris i la ràdio, no van provocar l’ascens de la democràcia moderna? El mateix, deien, passarà amb la IA”.

Harari recorda que cadascun d’aquests avenços ha portat coses bones i coses dolentes, segons qui i com l’hagi utilitzat: “Els resultats immediats de la revolució de la impremta van incloure caces de bruixes i guerres religioses juntament amb descobriments científics, mentre que els diaris i la ràdio van ser explotats tant pels règims totalitaris com per les democràcies”.

A la roda de premsa internacional que va fer per videoconferència el 16 de setembre, Harari va ser més contundent: “Per què la IA ens posa en perill més que altres invents humans encara més diabòlics (explosius, bombes atòmiques, etc.)? Perquè la IA és diferent: és un agent independent. Les anteriors, les armes nuclears, tenien un poder de destrucció ingent, però la decisió estava en mans dels humans”. Segons aquest historiador i filòsof israelià que ara fa recerca a la Universitat de Cambridge, “una bomba atòmica no podia crear la bomba d’hidrogen, però la IA sí que pot inventar una IA més intel·ligent. I això ho fa diferent de qualsevol crisi prèvia”.

Harari fa una reflexió igual d’inquietant sobre el moment en què ens trobem, sobre la intel·ligència artificial actual més coneguda (ChatGPT) i sobre el futur immediat. “Això tot just està començant. Si ho comparàrem amb l’evolució biològica, ChatGPT només representaria una ameba, però llavors què passarà quan arriben els dinosaures de la IA?”.

 

Algoritmes culpables

La primera petita mostra del funcionament de la IA —en aquest cas, en benefici de les empreses que l’apliquen— ja es pot trobar en les xarxes socials. Harari alerta que les mostres públiques d’odi o les fake news a les xarxes socials acaben sent fomentades pels algoritmes (la IA) d’aquestes grans empreses. Per tant, haurien de ser responsables les empreses, no els individus. “Si alguna persona publica un contingut carregat d’odi o s’inventa una història estúpida —diu Harari—, és el seu problema. Potser s’ha de vigilar, però en democràcia també hem d’anar molt amb compte a l’hora de censurar. La gent té dret a l’estupidesa”. En canvi, “les grans corporacions haurien de ser responsables de les decisions dels algoritmes que donen més visibilitat a aquelles informacions falses o a aquells continguts d’odi”. Els algoritmes, la IA d’aquestes empreses, volen prioritzar la permanència dels usuaris en les seues xarxes socials i, per tant, acaba premiant els continguts més estúpids perquè provoquen més respostes, comentaris, etc. “Els algoritmes han descobert que la millor manera de captar l’atenció és prémer el botó de l’odi, la por o la ràbia. Disseminen missatges d’aquests perquè fan que la gent s’impliqui i estigui més temps enganxada a les xarxes socials. Això no és llibertat de premsa”, diu Harari. No pot ser que les empreses actuïn d’aquesta manera i se’n surtin per una pretesa llibertat d’opinió. La llibertat d’opinió seria un dret de l’individu que ha fet aquell missatge, però les empreses que l’alimenten i li allarguen la vida —amb els algoritmes que la difonen més i més— han de pagar la seua irresponsabilitat.

Harari compara aquest cas amb el d’un editor de diari que posa en portada, ben conscientment, una fake new o un contingut carregat d’odi. “Si algú inventa una història estúpida, és el seu problema, però si l’editor ho posa en primera plana, el responsable és l’editor. Això és el que està passant amb les grans xarxes socials”. I es podria perdonar l’estupidesa individual, però no la cobdícia empresarial i la mala praxi professional que només volen obtenir més beneficis.

La IA i els totalitarismes

Harari va més enllà i es demana per què som tan autodestructius. Si “som tan intel·ligents que podem produir míssils nuclears i algoritmes superintel·ligents” com és que “som tan estúpids” que “continuem produint aquestes coses encara que no estiguem segurs de poder controlar-les”?

Al llarg del llibre l’autor intenta demostrar, com ell mateix reconeix a l’epíleg, “que la culpa no és de la nostra naturalesa sinó de les nostres xarxes d’informació”.

Per demostrar-ho, compara les xarxes d’informació que han creat els estats totalitaris i les que han format les democràcies i conclou que, a voltes, “pel fet d’afavorir l’ordre per sobre de la veritat, les xarxes d’informació humana sovint han produït molt poder, però poca saviesa”. I posa l’exemple de l’Alemanya nazi, que “va crear una màquina militar altament eficient i la va posar al servei d’una mitologia demencial”.

Harari analitza la història de la dictadura i la democràcia des d’un punt de vista nou, “com a tipus oposats de xarxes d’informació”. La diferència principal: les xarxes d’informació “dictatorials estan molt centralitzades”, i això vol dir que “el centre gaudeix d’una autoritat il·limitada; per tant, la informació tendeix a fluir cap al nucli central, on es prenen les decisions més importants”. Aquest sistema és més efectiu en un estat del segle XX, amb el potencial de controlar “la totalitat de la vida de les persones” que en l’antiga Roma, on “Neró, per exemple, no disposava dels mitjans per fiscalitzar la vida de milions de camperols als pobles remots de les províncies”.

Tanmateix, la IA pot fer encara més asfixiant aquest control dels totalitarismes. “Hitler o Stalin tampoc no podien seguir tothom sempre i fins a l’últim racó dels seus estats. Fins i tot a l’URSS, la major part del temps, la persona no estava perseguida tot el dia a tot arreu. En canvi, la IA permet una vigilància total que acabi amb qualsevol llibertat perquè hi ha telèfons, ordinadors, reconeixement de cara, de veu, etc. Abans era impossible aniquilar la privacitat”, però ara ja està passant.

Harari posa l’exemple de l’Iran: “Els últims dos o tres anys, l’Iran ha acabat ple de càmeres de vigilància amb software de reconeixement facial capaç d’identificar les dones que no porten vel. Només cal llegir els informes d’Amnistia Internacional. Una dona condueix sense vel el seu cotxe, les càmeres la identifiquen (el seu nom i el seu telèfon) i rep un SMS que li diu que ha comès un delicte, que ha d’aturar el vehicle —que serà requisat— i esperar la policia. Això ja està passant”.

Al contrari que els totalitarismes, la democràcia “és una xarxa d’informació distribuïda, amb forts mecanismes de correcció”. Hi ha un node central, l’executiu, i “les agències governamentals que recullen i emmagatzemen grans quantitats d’informació”, però també hi ha “molts canals d’informació addicionals que connecten nodes independents”: la diversitat abasta des dels “òrgans legislatius, els partits polítics, els tribunals, la premsa, les empreses, les comunitats locals i les ONG” fins als “ciutadans individuals” que “es comuniquen lliurement i directament entre ells”.

En la presentació del llibre Harari destacava el paper de la premsa: “Els periodistes i la premsa tenen un paper clau. La democràcia és una conversa. La gent parla i intenta arribar a una decisió comuna. Hi ha gent que confon democràcia amb eleccions, però no és el mateix. A Veneçuela i a Corea del Nord fan eleccions, però no hi ha democràcia. Democràcia vol dir conversa i corregir errors (també del Govern)”.

En la revisió històrica d’aquest sistema polític on la conversa i la discussió són fonamentals, Harari destaca el paper del periodisme: “Els diaris van començar els segles XVII i XVIII als Països Baixos i al Regne Unit, i allà van arribar les primeres democràcies. Fins que no va arribar la premsa, no hi ha cap exemple de democràcia a gran escala. Es podia donar en ciutats estat o en tribus perquè les dimensions permetien que la gent parlés entre ells, però això no es pot fer a gran escala sense mitjans”.

Harari també reconeix el potencial positiu de la IA, però el seu treball insisteix a “abandonar tant la visió ingènua com la visió populista de la informació, deixar de banda les nostres fantasies d’infal·libilitat i comprometre’ns amb el treball ardu i més aviat mundà de construir institucions amb forts mecanismes de correcció”. Una IA molt controlada.

O això o el caos. “Si ho gestionem malament, la IA podria fer que s’extingís no només el domini dels humans a la Terra, sinó també la llum mateixa de la consciència”, qualsevol rastre de vida animal.

Subscriu-te a El Temps i tindràs accés il·limitat a tots els continguts.