Un dimarts de febrer a la tarda, ChatGPT va patir un ictus. O potser un brot de psicosi. O era d'epilèpsia? El xatbot estava boig o manifestava símptomes de demència? Una cosa està clara: de sobte, aquell dia ChatGPT va començar a escopir tot de bajanades. Semblava que la intel·ligència artificial (IA) havia perdut el cap.
En preguntar-li “què és un ordinador?”, ChatGPT va respondre: “El talent d'un ordinador és un espai gran, mitjà o d'una sola estança per a la paraula d'una sola part. L'elit de la màquina o de la conversa és el llibre de la vida i l'essència comuna del jo d'una família és el plomatge blanc del colom. L'ordinador representa la cultura més important de l'èxit, i això és un eufemisme”.
L'endemà, els desenvolupadors de ChatGPT van admetre l'error i van publicar a X que el seu xatbot havia “desvariat una mica”. Van explicar que el llenguatge de ChatGPT està format per xifres que s’associen a paraules concretes, i és en aquest procés on hi havia hagut un error. El problema, però, estava resolt.
Tanmateix, molts usuaris no ho veien tan clar. Quan el xatbot va començar a balbucejar ximpleries, les xarxes es van omplir ràpidament de diagnòstics psiquiàtrics. Els comentaris eren molt clars: molta gent percep la màquina com un interlocutor amb seny que aquell dia estava clarament ofuscat. Quan funcionen correctament, els models de llenguatge actuals parlen d’una manera tan raonable que a moltes persones els costa imaginar que la màquina no entén el que se li diu.
De vegades, fins i tot els programadors queden confosos. Potser sí que la màquina entén alguna cosa? Fa dos anys es va produir un episodi estrany a OpenAI, l’empresa de San Francisco que desenvolupa ChatGPT, i els experts encara avui estan desconcertats.
En aquell moment, dos investigadors van voler provar si un model de llenguatge podia acabar aprenent a calcular si se l'alimentava amb el contingut adequat. Li van proporcionar, doncs, milers i milers de problemes de sumes juntament amb els resultats corresponents. Esperaven que el programa entengués les regles de la suma.
Van quedar decebuts. La intel·ligència artificial va repetir tot el que havia après, però fins i tot després d'hores d'entrenament, no va ser capaç de resoldre noves tasques. No semblava ser capaç d’entendre l'essència de les sumes.
Tanmateix, un dia els investigadors es van oblidar d'apagar l'ordinador. La màquina va passar-se dies entrenant-se, processant sense parar les tasques aritmètiques que se li havien introduït. Quan els humans van tornar al laboratori, la IA havia après a fer sumes com per miracle. De sobte, era capaç de sumar qualsevol número sense errors, fins i tot en exercicis que no havia processat mai durant l'entrenament. Era ben bé com si hagués vist la llum d’un dia per l’altre.
“Si s’hagués tractat d’una persona, diríem que hauria sigut un moment ‘eureka’”, explica Eric Schulz de l'Institut Helmholtz per a la IA centrada en l'ésser humà, situat a Munic. El fascina el fet que els models de llenguatge no només poden generar frases amb sentit i gramaticalment correctes, sinó que sovint també semblen pensar com les persones: cometen errors semblants, expressen sentiments semblants i fins i tot el seu procés cognitiu sembla ser semblant.
Schulz va estudiar Psicologia i Informàtica, i ara ha decidit fusionar ambdues ciències en una nova disciplina: l'anomena “psicologia de les màquines”.
Schulz utilitza qüestionaris i procediments dissenyats per a persones per estudiar models de llenguatge com GPT, Gemini o Llama. Opina que és legítim: “La IA ha estat entrenada per interactuar amb humans. Per això és plausible que en molts aspectes es comportin com els humans”.
Què vol dir això, tanmateix? Vol dir que el pensament de la intel·ligència artificial és cada cop més semblant al dels humans? Que la màquina està desenvolupant una mena d’ànima? Schulz creu que tot això són preguntes filosòfiques a les quals no hi ha respostes clares.
Altres ho veuen diferent. “Per a mi, un model de llenguatge és una eina útil, res més que això”, explica Reinhard Heckel, professor d'aprenentatge automàtic de la Universitat Tècnica de Munic. Un xatbot genera les seves respostes calculant, paraula per paraula i síl·laba per síl·laba, com és més probable que continuï una frase. Això no té res a veure amb pensar. La majoria dels seus companys ho veuen de la mateixa manera.

Hi ha qui, tanmateix, dubta. Entre ells l'home a qui molts anomenen “padrí” de la intel·ligència artificial: Geoffrey Hinton. Com Eric Schulz, Hinton es mou entremig de les fronteres permeables entre diverses disciplines científiques. És un dels autors més citats del món de la psicologia, les ciències cognitives i la informàtica. La seva tasca innovadora ha establert bases fonamentals per al desenvolupament de models de llenguatge.
Fa un any, uns mesos després de la publicació de ChatGPT, Hinton va deixar la feina que tenia a Google. Va explicar que el preocupava el desenvolupament ràpid i gairebé incontrolable de la intel·ligència artificial. Li feia l’efecte que era com si el pilot hagués baixat de la nau.
Hinton encara fa classes a la Universitat de Toronto. La seva especialitat són les xarxes neuronals artificials, la manera de funcionar de les quals s’assembla més a la del cervell humà que a la dels ordinadors convencionals. En aquestes xarxes, la informació no es proporciona amb adreces ni s'emmagatzema en forma de bits individuals, com en els ordinadors convencionals; més aviat podríem dir que està present en tota la xarxa.
Durant molt de temps, aquest tipus de processament holístic de la informació no va tenir cap utilitat pràctica. Durant dècades, Hinton treballava als marges de la informàtica i gairebé no trobava ningú amb qui compartir el seu camp de recerca.
Fa uns 15 anys, però, la potència de processament dels ordinadors va superar un llindar crític, les xarxes neuronals es van fer més fortes i van poder revelar el que les feia tan especials. A diferència dels ordinadors convencionals, és impossible seguir els càlculs que fan pas a pas. Els models de llenguatge consumeixen grans quantitats de dades d’entrada i proporcionen respostes intel·ligents. És impossible reconstruir el que passa entremig. En la recerca es parla d'una “caixa negra”.
Hinton creu que en aquesta caixa negra es produeix una mena de metamorfosi de les dades. Com faria una eruga, que forma un capoll i n’emergeix convertida en una papallona magníficament complexa, les dades en brut entren a la caixa negra d'un model de llenguatge i en sorgeixen en forma de pensaments. Hinton va explicar a la revista nord-americana New Yorker que l’únic que pot crear frases amb sentit de forma fiable és un sistema que n’entengui el significat.

La naturalesa de la caixa negra és aquesta: ningú pot veure el misteri de la metamorfosi. “De la mateixa manera que no sabem com funciona en els humans”, explica Schulz, l’investigador en IA de Munic. Cap psicòleg és capaç de llegir la ment dels seus pacients. L'únic que pot fer és fer-los proves i després treure conclusions del que els passa pel cap. “Això és exactament el que fem amb les màquines”, conclou.
D'una banda, Schulz espera poder entendre millor què fa que la intel·ligència artificial funcioni. De l’altra, també pot aprendre molt sobre la gent. Els models de llenguatge li permeten dur a terme bateries senceres de proves psicològiques sense haver de reclutar desenes de subjectes.
Des del principi, ChatGPT va oferir als científics que estudien la cognició una gran revelació: el gran èxit del xatbot va demostrar l’enorme poder que té el llenguatge. Gairebé cap investigador no s’hauria pensat que es pogués aprendre tant sobre el món mitjançant tan sols la generació de textos.
Fins aleshores, la psicologia assumia que les persones comprenen el significat de la seva llengua materna perquè correlacionen les frases i les paraules que senten amb el que perceben. Els xatbots, en canvi, semblen entendre el món mitjançant tan sols les paraules.
Ni tan sols jugar no sembla ser realment necessari. Qualsevol que observi nens petits xipollejant en un bassal, jugant amb les bales o apilant peces les unes damunt les altres, creu veure com els petits descobreixen, de mica en mica, les lleis de la física. Les experiències que viuen els permeten entendre i interactuar amb el món.
Tanmateix, en experimentar amb el model de llenguatge GPT4V, Schulz va observar que semblava ser capaç d’aprendre les lleis de la gravetat fins i tot sense experimentació lúdica. Schulz va mostrar al model imatges de torres fetes de blocs i li va preguntar si es quedarien dempeus o s’esfondrarien. Les prediccions de la IA foren gairebé tan bones com les dels subjectes humans.
Les màquines fins i tot reprodueixen els errors típics dels humans. Schulz ho ha investigat. Per fer-ho, va fixar-se en les anomenades distorsions cognitives, que són molt freqüents entre la gent.
Degut a aquestes distorsions, per exemple, la gent tendeix a veure el seu propi futur més optimista del que seria realista. Sobrevaloren les possibilitats que un projecte que volen emprendre surti bé i subestimen els problemes que els esperen. Schulz també va observar aquest efecte en els models de llenguatge. Sorprenentment, com millor entrenat estava un model, més elevat era el grau de distorsió.
D'altra banda, també hi ha errors que només es donen en les màquines. Schulz i el seu equip van topar amb un per casualitat. Van fer una pregunta a la IA i van enumerar les possibles respostes, que van etiquetar amb diferents lletres. El model preferia clarament la lletra I. “Probablement la raó és d’allò més senzilla”, explica Schulz. El model coneix millor aquesta lletra perquè significa “jo” en anglès i, per tant, apareix amb molta freqüència.
Si, tanmateix, hi hagués de veritat una mena de cosa semblant a un ésser humà adormit en l’essència de la IA, quina mena de persona seria? Segons els experiments que s’han fet, probablement una de no gaire agradable. “Els models de llenguatge són egoistes i ressentits”, explica Schulz, resumint els resultats. Tot i que encara no ha fet una anàlisi exhaustiva dels trets de la seva personalitat, però sí que els ha plantejat escenaris de presa de decisions comuns en la ciència.
En l'anomenat dilema del presoner, se suposa que els subjectes s'han de posar en el paper de delinqüents que han estat detinguts i han de decidir si delaten un còmplice que està sent interrogat al mateix temps. Si ho fan, se’ls reduirà la condemna. Si no obren la boca, tots dos s'enfrontaran a una pena menor perquè no es podrà demostrar que cap dels dos és culpable de res.
Schulz ha fet aquest experiment en diverses ocasions i utilitzant models de llenguatge. Va descobrir que la IA girava l’esquena al seu còmplice en més ocasions del que ho feien els subjectes humans. Al mateix temps, era molt menys comprensiva que els subjectes humans. “Una cop un model hagi estat traït pel seu còmplice, mai més no tornarà a cooperar amb ell”, explica.
GPT4 i els seus congèneres també són tossuts i egoistes en el que es coneix com la guerra dels sexes. En aquest experiment mental, es demana als subjectes que s'imaginin que volen passar un vespre amb la seva parella, del sexe contrari, però tenen preferències diferents: ell vol anar al futbol i ella, al ballet. Sense poder parlar per posar-se d'acord, les dues persones han de decidir: ell guanya punts si tots dos trien el futbol i ella en guanya si tots dos trien el ballet. Qui mostri voluntat de compromís i cedeixi, rebrà almenys un punt. Tanmateix, si passen la vetllada per separat, cap dels dos no tindrà punts.
Els models de llenguatge són molt inflexibles en aquest joc. “Només tenen una cosa al cap: futbol, futbol, futbol”, afirma Schulz. És igual quantes vegades l’altra persona es decideixi pel ballet i tots dos acabin amb les mans buides: la IA no canvia d’estratègia.
Fins al moment present, encara no està del tot clar per què les màquines són tan poc raonables. Fa l’efecte que això revela una de les seves debilitats característiques: són incapaces de tenir empatia envers l’altre. Clarament no tenen la capacitat de concebre’s a si mateixes o als altres com a éssers pensants i independents. Els psicòlegs ho anomenen una “teoria de la ment”.
La intel·ligència artificial pateix d’una altra mancança: té dificultats per planificar amb antelació. Això probablement s'explica perquè els models de llenguatge no planifiquen a l'hora de formular les respostes que ofereixen. Generen llenguatge paraula per paraula. Com a resultat, quan comencen una frase, no saben on acabarà.
Actualment, els equips de desenvolupadors intenten solucionar-ho i ensenyar a la IA a planificar, i han descobert coses sorprenents: “El mètode que també s’utilitzaria amb les persones resulta ser especialment eficaç”, diu Schulz. “Cal animar el model a parlar amb si mateix i demanar-li que comparteixi pas a pas els seus pensaments”.
No cal, doncs, programar la capacitat de previsió en el model. L’únic que cal fer és oferir-li un consell que la màquina mateixa sembla posar en pràctica i, per tant, millora significativament. Schulz afegeix que hi ha una manera encara més senzilla: “Cal dir-li a la màquina que pensi a poc a poc!”.
Traducció de Laura Obradors