Economia

Les cares que hi ha al darrere de la Intel·ligència Artificial

Treballadors per tasques i moderadors de contingut duen a terme la feina bruta digital per entrenar ChatGPT i altres productes. La retribució és baixa i la feina suposa una forta càrrega psicològica. Ara es defensen contra unes condicions laborals miserables.

Segueix-nos a Facebook per assabentar-te dels nostres darrers reportatges

L’horror de què parla Mophat Okinyi començava cada matí puntualment a les vuit. Així que engegava el portàtil a la quarta planta d’un edifici d’oficines als afores de Nairobi, li apareixien a la pantalla textos que a la nit no li deixarien aclucar l’ull: notícies sobre abusos infantils, relats sobre profanacions de cadàvers i descripcions d’incestos.

A Okinyi li pagaven per llegir aquells textos, de la primera paraula a l’última, per insuportables que fossin. La seva feina era comprovar atrocitats per classificar-les en categories. La sodomia o les violacions de persones adultes, així ho havia determinat qui el contractava, pertanyien a una categoria amb l’etiqueta interna C3. La violència sexual contra infants entrava en la categoria C4.

Que es classifiqui la violència i els assalts, que facin falta persones com Okinyi per fer aquestes feines, té alguna cosa a veure amb el boom de la intel·ligència artificial (IA). Aquest kenyà de 27 anys treballava per a OpenAI, una de les empreses líders al món d’IA generativa. L’empresa externa a OpenAI que tenia contractat Okinyi enviava cada setmana als seus treballadors centenars de textos amb continguts pertorbadors perquè els classifiquessin.

Durant mig any, fins a final de març del 2022, Okinyi explica que va entrenar ChatGPT, el xatbot de l’empresa. Set mesos més tard va sortir al mercat el programa, ara elogiat arreu del planeta, que pot escriure treballs acadèmics, relats curts o comunicats de premsa. Però, igual que un cotxe autònom ha d’aprendre a identificar els ciclistes o els vianants per no atropellar-los, persones com Okinyi han hagut d’ensenyar als sistemes d’OpenAI què són la violència i la pornografia. Per impedir que generin coses com aquestes o, en cas que ho facin, per assegurar-se que es filtri la informació i no es mostri als usuaris. Una mena d’entrenament moral per a màquines sense el qual el producte no hauria pogut sortir mai al mercat.

Mentre OpenAI rebia milers de milions de dòlars d’inversió, a Okinyi li pagaven, segons afirma ell mateix, poc més d’un euro per hora. El títol oficial que tenia era el d’analista de qualitat, responsable de continguts explícits. Fent d’una mena de capatàs digital, controlava si els seus companys cometien errors en l’avaluació de textos sexuals i violents. El seu objectiu laboral: 700 articles al dia, diu Okinyi.

Al sofà de la sala d’estar de casa seva, aquest noi kenyà, vestit amb una dessuadora negra, ens explica com era la seva vida laboral fa un temps. Va deixar la feina d’entrenador d’IA i ara treballa assessorant clients per internet. Però el que va haver de veure aleshores no ho pot oblidar. Avui dia encara hi pensa.

L’entrenament de ChatGPT també es feia amb dades que, pel que sembla, provenien d’alguns dels racons més foscos d’internet, si bé les empreses oculten d’on surten exactament o qui els ha escrit. En un dels textos que Okinyi, segons relata ell mateix, va haver d’avaluar, s’explicava la història d’un fill que va mantenir relacions sexuals amb el cadàver de la seva mare després que aquesta hagués mort a l’hospital. O sobre incestos amb conseqüències mortals. “Després de llegir aquells textos, m’havia de prendre un got de vi a la pausa per dinar”, diu Mophat Okinyi.

Va començar a dubtar del món. I de la tasca que hi feia. “Érem uns soldats que eren responsables de la seguretat de les persones. Interceptàvem bales per fer que ChatGPT fos segur”, diu Okinyi. “Ara hem de viure amb les ferides”.

El que va viure és la trista normalitat des de fa anys. A tot el món, les empreses tecnològiques més riques del planeta fixen salaris baixos per perfeccionar els seus sistemes per als usuaris i usuàries. No sempre són treballadors fixos com Okinyi. Les empreses també es valen dels serveis dels anomenats clickworkers (‘treballadors per tasques’), a qui encara se’ls paga pitjor; sovint per sota del salari mínim local, tot i que la majoria tenen almenys un grau universitari.

Tots dos grups tenen un paper important en el desenvolupament de la IA. Els uns fan el treball previ –a vegades aterridor, però que sovint tan sols és repetitiu– per entrenar nous sistemes: anoten imatges, marques cares i classifiquen textos i vídeos en categories. Tot seguit, els altres supervisen i classifiquen sobretot articles marcats pels usuaris com a indecents o il·legals que circulen per les xarxes socials. Aquesta feina es diu moderació de continguts; el terme amaga que també suposa una mena d’entrenament de la IA. Algunes persones fan totes dues feines, de vegades a la mateixa empresa. Els uneix una cosa: que la gent no els coneix.

Aquest sector tèrbol d’entrenadors d’IA i treballadors per tasques mal pagats creix lluny de la vista de la gent. Queda ocult darrere els relats sobre els genials programadors i els famosos directors executius tecnològics com el màxim responsable d’OpenAI Sam Altman, que haurien creat una IA que suposadament actua en bona mesura de manera autònoma. La veritat és que, sense els treballadors que hi ha al darrere, les seves aplicacions no haurien sortit al mercat ni de bon tros amb la rapidesa que ho han fet.

Ghost Work” (‘feina fantasma’), així anomenen Mary L. Gray i Siddarth Suri, de Microsoft Research, el fenomen en el llibre titulat justament amb aquesta expressió, el qual es considera una obra fonamental sobre aquest model de negoci, tan irreemplaçable com controvertit. Són fantasmes que romanen sempre invisibles. Els experts calculen que arreu del món hi deu haver uns quantes desenes de milers (probablement més de 100.000) de moderadors de contingut. A més, cal afegir-hi milions de treballadors per tasques autònoms només a Europa i els Estats Units. No tenen un poder de negociació efectiu ni capacitat de fer pressió, treballen per exemple en barris pobres de l’Argentina o en presons fineses. A les grans empreses tecnològiques no els agrada parlar d’aquestes persones i guarden silenci sobre els detalls.

Les condicions laborals són problemàtiques, entre altres coses perquè, en la majoria dels casos, les companyies tecnològiques no contracten directament els moderadors i els anotadors de dades, sinó que subcontracten la feina a empreses poc conegudes. Sama és el nom, per exemple, de l’empresa nord-americana a qui OpenAI va encarregar l’entrenament de ChatGPT a Nairobi. Un contracte a què ha tingut accés Der Spiegel recull que OpenAI pagava 12,50 dòlars l’hora per als llocs de treball com el d’Okinyi. En contrapartida, esperaven que es revisessin 15.000 articles cada mes. Segons informacions coincidents, però, els treballadors de Sama rebien de facto menys de dos dòlars l’hora.

Els moderadors relaten la pressió a què els sotmetien els seus superiors per fer més feina de la que s’havia acordat d’entrada perquè Sama no havia contractat prou gent per enllestir l’encàrrec. Diversos extreballadors coincideixen a explicar que havien de continuar revisant al cap de setmana o als vespres, i se'n queixaven. Segons el contracte, les hores extres fora del torn habitual no haurien suposat un cost addicional a OpenAI. Ni Sama ni OpenAI s’han pronunciat sobre la qüestió en posar-nos-hi en contacte.

Tanmateix, l’explotació del precariat digital no és cosa només del sud global. També té lloc en un país que és famós pels seus reglaments de protecció laboral i les seves lleis de cogestió: Alemanya.

En un discret edifici d’oficines situat a prop del centre d’Essen s’hi entrenen sistemes d’IA. Aquí treballa Omar per a l’empresa CCC Essen, que forma part de Telus International Group, un proveïdor de la companyia nord-americana Meta i els seus productes Facebook i Instagram. Temps enrere, Omar havia anotat dades d’entrenament, però ara fa de moderador de contingut i comprova el que denuncien els usuaris: això inclou vídeos de decapitacions o imatges d’altres actes violents, que Omar classifica en categories. La IA de l’empresa ha d’aprendre a identificar millor aquesta mena de continguts en un futur.

Quan Omar explica com són les condicions que imperen a CCC Essen, diu, “molta gent no es creu que treballi a Alemanya”. Omar parla d’explotació, d’objectius estrictes, de sancions si no es compleixen els objectius i d’estrès constant: “Molts dels meus companys de feina tenen malsons i problemes psicològics, fins i tot depressions. Tard o d’hora això ens passarà a tots”. El seu salari és de 14,40 euros per hora, però és clarament insuficient per a la feina que fa. “M’ocupo que nens i persones d’ànim més feble no hagin de veure el que veig jo”.

El sindicat Ver.di calcula que a Alemanya hi ha pel cap baix 5.000 d’aquests moderadors. El sector tecnològic ha de contractar parlants nadius per avaluar els articles, ja que aquests poden identificar-hi la llengua col·loquial i altres particularitats lingüístiques. A Alemanya, a més d’articles en la llengua del país, algunes empreses també fan classificar continguts en rus o turc a treballadors que dominen l’idioma en qüestió.

En realitat, Omar no es diu així. Der Spiegel coneix el seu nom real, però ell no vol ser identificat perquè per contracte se li prohibeix parlar sobre informació restringida, diu. Abans d’entrar a treballar, ha de tancar el mòbil en una caixa forta perquè, pel que es veu, l’empresa nord-americana té por que transcendeixi el grau d’estrès que suposa la feina.

En tancar l’edició, Meta no havia reaccionat a les nostres preguntes. Telus International va assenyalar que s’ofereix assistència psicològica als treballadors i que en aquest aspecte se segueix “la praxi habitual a escala internacional”. Els programes d’ajuda són “dirigits per una psicòloga experta”, les ofertes “estan a disposició de tots els empleats que supervisen continguts a Alemanya” i inclouen “un accés ininterromput, 24 hores al dia i set dies per setmana, a un equip intern de benestar”.

Omar, per contra, qualifica l’oferta de “ridícula”. No fa gaire va dirigir-se a “l’equip de benestar”. “El treballador no tenia ni idea dels continguts pertorbadors a què ens havíem d’enfrontar”.

Mophat Okinyi explica que els seus superiors a Nairobi van respondre-li només a mitges quan va preguntar per l’atenció psicològica: “No tenim temps per a això, heu de complir els objectius”.

La poca disposició que té el sector de canviar es va posar de manifest a mitjan juny al Parlament alemany. Cengiz Haksöz, també treballador de CCC Essen, havia comparegut davant els diputats de la comissió digital i els havia parlat de les condicions laborals, a parer seu espantoses; tot seguit, li havien concedit unes vacances forçoses. I també se li havia prohibit temporalment entrar a les sales de la mesa electoral per a la següent elecció del comitè d’empresa, al qual pertany. Al final, l’empresa va haver de fer marxa enrere en les restriccions gràcies a les accions als tribunals de Haksöz i Ver.di.

Amb la seva compareixença, si no abans, el tema va arribar al món de la política. “Aquestes persones ens fan un servei a tots mantenint neta la xarxa. No els podem deixar a l’estacada”, diu Tabea Röẞner, experta en assumptes digitals dels Verds.

L’acceleració té el seu preu. I s’entreveu que són els treballadors qui el paga. Fa catorze anys, el món va assabentar-se de fins a quin punt la subcontractació impulsava el desenvolupament de la IA. Aleshores, un equip de recerca de la Universitat de Princeton va publicar la base de dades ImageNet, que tindria un paper decisiu en el desenvolupament dels models que han desfermat l’actual boom de la IA.

Constava inicialment de 3,2 milions de fitxers d’imatges, anotats manualment, amb diversos objectes. 49.000 treballadors per tasques de 167 països van etiquetar les imatges en dos anys i mig. Els estudiants que es preveia d’entrada que se n’ocupessin, a qui s’hauria pagat molt més, probablement haurien necessitat dinou anys, pel cap baix.

ImageNet va ser una fita en l’evolució del reconeixement d’imatges. El rendiment dels treballadors fantasma es va esmentar com una nota al marge.

Per entrenar ImageNet, els investigadors de Princeton també van utilitzar la plataforma, pertanyent a Amazon, Mechanical Turk. Allà, uns usuaris que eren treballadors autònoms de tot el món competien per dur a terme el que se’n deia microtasques. Una tasca d’aquestes pot durar uns quants segons o unes quantes hores, pot reportar uns quants euros o dòlars o tan sols una fracció d’un cèntim. Els turkers, com s’autoanomenen els treballadors per tasques, no estan contractats de manera fixa i per això treballen amb una precarietat encara més gran que la majoria de moderadors de contingut. En canvi, estan sotmesos a molta pressió, hi ha una competició constant per aconseguir les feines més atractives. La rapidesa i l’atenció són decisives per no endur-se tan sols tasques que ja no valen la pena.

La investigadora Milagros Miceli, de la Universitat Tècnica de Berlín, ha fet recerca sobre el terreny a l’Argentina, Veneçuela, Bulgària i fins i tot a Síria. No hi ha quasi ningú que tingui un coneixement tan profund com aquesta sociòloga i informàtica de les condicions de treball dels treballadors per tasques, escampats per tot el planeta. La seva feina, diu Miceli, té “una importància cabdal”. “Sense ells, no existirien els grans models actuals d’IA”. Tanmateix, els clients no s’esforçaran gaire per fer sortir de l’ombra aquestes persones: “Les grans empreses tecnològiques encara parlen de ‘treball fantasma’; no m’empasso les promeses que abordaran el problema”.

Les transformacions, doncs, haurien de venir de baix: “Molts treballadors per tasques no saben com són d’importants. S’ho haurien de dir clarament els uns als altres, haurien de prendre consciència del seu paper en la cadena de subministrament de la IA”, creu Miceli. “Estic convençuda que poden utilitzar això com a mesura de pressió. L’error del sector de la IA és veure aquesta feina com una cosa senzilla i activar els treballadors segons la demanda i per un preu ben baix. Els hem de veure com uns experts, perquè això és justament el que són”.

Hi ha pocs països que intentin crear un marc segur per a aquests treballadors de la IA. Sembla, però, que un pioner de la reglamentació és, precisament, la Xina, el país que utilitza la IA, mitjançant el reconeixement facial automàtic, per reprimir la minoria musulmana dels uigurs.

Ara la Xina vol convertir-se en una potència en IA. La seva recerca ja és de primer nivell mundial, però el sector encara no està tan avançat com el dels Estats Units. Per escurçar distàncies, li calen milions d’experts digitals. L’investigador de la Universitat de Michigan Ben Zefeng Zhang, nascut a la Xina, diu: “L’Estat intenta estandarditzar i regular aquesta feina per fer-la més visible i convertir-la en una possible carrera professional”. Això comença per la denominació de l’ofici: allà de la feina se’n diu entrenador d’IA. La demanda és enorme: al país fan falta milions d’aquests entrenadors d’IA.

I això té una conseqüència: hi ha un pla d’avaluació nacional uniformitzat que recull les “tècniques d’etiquetatge de dades per a la intel·ligència artificial”. El pla l’organitza el Centre de Formació i Avaluació del Ministeri d’Indústria i Tecnologies de la Informació. Amb aquests exàmens, els entrenadors d’IA poden obtenir fins a cinc nivells de qualificació diferents; anotació de dades és la més baixa.

El mateix Zhang està acabant la formació. “Costa uns 450 dòlars i dura –si es fa a banda d’una feina– unes quantes setmanes, i m’he de preparar per a un examen final. Si l’aprovo, em donaran un certificat”. Algunes empreses i start-ups donaran preferència a aquests entrenadors d’IA certificats o potser contractaran exclusivament candidats amb certificat “perquè així no han de dedicar gaires esforços a capacitar-los”. En darrer terme, això dona a les empreses més i millors encàrrecs. La formació estandarditzada, però, no protegeix del fet que la feina estigui mal pagada. Sovint la feina no dona per viure.

La doctoranda Tianling Yang, de l’Institut Weizenbaum i de la Universitat Tècnica de Berlín, ha treballat durant tres mesos, a través d’un projecte de recerca, per a una plataforma de processament de dades xinesa. “La tarifa varia molt”, diu, depèn molt del projecte i de l’empresa per a qui un treballa. “Fer, per exemple, cinc fotos del mateix carrer amb el mòbil i enviar-les a una determinada plataforma xinesa de proveïment participatiu (crowdsourcing), en alguns casos reporta entre un i tres euros, aproximadament. Però també pot passar que s’hagin d’enviar cent o dues-centes fotos i que només et paguin cinc cèntims per cada una. Com més se n’envien, més diners es guanyen en total.

A vegades, diu la investigadora, els treballadors per tasques troben les instruccions “molt poc clares”. Un treballador que va entrevistar li va explicar que una vegada havia de fer fotos del cel a primera hora. Enlloc no li deien què volia dir “a primera hora”. Al final, el noi va estar-se tres hores fent fotos per si de cas: abans, durant i després de la sortida del sol.

Arreu del món, les condicions laborals són dolentes, les ofertes d’assistència són negligibles i les companyies amb prou feines són conscients del problema. I els treballadors ja no creuen que les empreses realment vulguin canviar alguna cosa ni tampoc que els polítics s’hi comprometin en un termini proper.

Mentrestant, els empleats intenten organitzar-se pel seu compte. Hikmat El-Hammouri, del sindicat Ver.di, ja ha parlat amb centenars de moderadors de contingut a Alemanya per donar-los suport i fundar comitès d’empresa. “No podem deixar en mans de les empreses la protecció dels treballadors, hem d’obligar-les a oferir ajuda psicològica de debò”. I a més a més, no pot ser que una feina tan estressant sigui remunerada amb poc més que el salari mínim.

A Kènia també comencen a moure’s les coses. Els treballadors per tasques fan visibles els seus problemes. L’exempleat de Sama Richard Mathenge està creant, juntament amb altres companys de lluita, un sindicat per a moderadors de contingut. A ell el van acomiadar quan es va queixar de la quantitat de continguts pertorbadors, explica.

Sama i OpenAI han posat fi a la seva col·laboració abans del que s’esperava després que apareguessin informacions crítiques a la premsa. OpenAI ha assignat l’encàrrec a una altra empresa, però continua donant feina a moderadors a l’Àfrica. Mathenge i els seus companys temen ara que s’iniciï una mena de competència deslleial entre empreses per oferir preus més baixos. “No hi hauria d’haver cap proveïdor pel mig que s’embutxaqués els guanys i explotés la gent”, declara. L’exmoderador Mophat Okinyi i alguns companys de feina han presentat, doncs, una petició al Parlament kenyà en què reclamen una investigació oficial de les empreses de moderació. Cal, diuen, una llei que protegeixi de les perilloses conseqüències psicològiques del treball digital.

Els traumatitzats exmoderadors critiquen que a ells ningú els havia explicat quin era l’objectiu de la seva feina. Okinyi ni tan sols sabia que estava entrenant un programa anomenat ChatGPT quan va començar a treballar a Sama.

Fins més endavant no va saber quin era aquell programa tan potent que havia entrenat, explica. Aleshores li va picar la curiositat i va preguntar al xatbot si sabia qui el convertia en un producte segur. Això ho fan persones, li va respondre el programa.

“Però saps com es diuen?”, li va preguntar Okinyi.

“No”, va contestar-li l’aplicació.

 

-----------------------------------

Allà on s’origina la IA

El corresponsal a l’Àfrica Heiner Hoffmann coneix bé l’edifici del proveïdor de serveis digitals Sama a Nairobi. Ja va escriure en una altra ocasió sobre l’empresa. En aquell cas es tractava de les males condicions laborals de les persones que havien de revisar publicacions brutals per encàrrec de Facebook. Aquesta vegada, el motiu ha sigut la feina que han de fer els treballadors per a OpenAI. Ara els empleats diuen obertament que volen cridar l’atenció sobre les injustícies. Hoffmann és reporter del projecte Globale Gesellschaft (‘societat global’), en què Der Spiegel informa sobre injustícies vinculades a la globalització. Aquest projecte rep finançament de la Fundació Bill i Melinda Gates, però els continguts no es veuen influïts per la fundació. Els redactors Patrick Beuth i Max Hoppenstedt s’han entrevistat amb afectats i experts a Alemanya.

Traducció d'Arnau Figueras

Subscriu-te a El Temps i tindràs accés il·limitat a tots els continguts.