Entrevista

“Presentem la tecnologia com si fos objectiva, però els algoritmes els fan éssers humans”

La tecnologia configura tot un sistema on ens desenvolupem, ens relacionem i consumim. On determinem, en bona part, qui som. Aquest entorn, però, no és neutre. Respon als algoritmes que el codifiquen i, per tant, a les visions de la societat dels programadors que els escriuen o de les companyies que els paguen. En quina mesura afecten el lliure albir, aquests codis? Hauríem d’entendre’ls? Controlar-los? Jutjar-los? En parlem amb Francesc Torralba, autor de L’ètica algorítmica (Edicions 62, 2022).

Segueix-nos a Facebook per assabentar-te dels nostres darrers reportatges

La tecnologia ja no és un instrument. Ara és un entorn on l’ésser humà pot desenvolupar moltíssimes facetes de la seva vida. A través de sistemes tecnològics, hom es pot relacionar, informar, comunicar; pot comprar, vendre, jugar, buscar parella, feina, sexe, diners… i trobar-hi de tot. Aquests entorns, a diferència del físic, no es regeixen a partir de codis ètics o jurídics. Funcionen amb codis algorítmics.

Què és, però, ben bé, un algoritme? El doctor en Filosofia, Teologia, Pedagogia i Història, i autor de L’ètica algorítmica, Premi Bones Lletres d’Assaig Humanístic, Francesc Torralba, diu que un algoritme és com una recepta, “un conjunt d’instruccions que s’han de seguir de manera seqüencial i et permeten arribar a un resultat”. De la mateixa manera que s’anoten les pautes per fer un bon arròs, segons Torralba, es dissenya la fórmula per trobar una parella compatible, aconseguir un candidat adequat per a un lloc de feina o escollir unes vacances possibles segons pressupost i dates disponibles. Amb més o menys grau de sofisticació, tot és qüestió de trobar els ingredients, l’ordre i els temps de cocció.

“Per a funcionar de la manera acurada, l’algoritme necessita moltes dades. Treballen amb el que en diuen big data”, detalla Torralba. El cercador de parella fa preguntes. Busques homes o dones? Quines són les teves aficions? Fumes? T’agraden els gossos? Ets esportista? Amant del cinema? De la natura? Com més dades tingui més fàcil és que trobi una resposta precisa a l’equació: una parella perfecta.

Francesc Torralba

Les matemàtiques no són objectives

El problema és que el càlcul matemàtic al qual confiem l’elecció de la parella, del nou director de màrqueting o de les vacances d’estiu, no és perfecte. Malgrat que ho sembli. “Presentem la intel·ligència artificial i la tecnologia com si fos objectiva i indiscutible, però no ens podem oblidar que els algoritmes els fan éssers humans”, afirma Torralba. La recepta, en tots els casos, ha estat escrita per algú.

Darrere de cada algoritme —segons el doctor— hi ha enginyers, matemàtics o informàtics amb una visió del món concreta i companyies amb un objectiu determinat. “A la màquina se li ha projectat una sèrie de tòpics, prejudicis, estereotips i criteris que molt sovint són opacs. Els algoritmes no són neutres i, si no ens n’adonem, els estarem delegant cegament decisions que poden ser injustes, reproduir desigualtats o respondre a interessos empresarials.”

En escriure el codi d’un algoritme, els programadors decideixen els valors que dictaminaran veredictes diversos. “Programar vol dir prendre partit”, titula l’autor un dels capítols del seu últim assaig. Es poden posar com a exemple els algoritmes que cada vegada més empreses fan servir per als processos de selecció de personal. “Potser en el codi diu que un director comercial ha de tenir cinquanta anys, haver-se format en les millors universitats, ser blanc, parlar tres llengües…”, diu Torralba. Aquests criteris, que són desconeguts, poden tenir biaixos racistes, sexistes o classistes, i poden excloure persones vàlides per motius discriminatoris.

Transparència i multidisciplinarietat

Per això, segons Torralba, cal transparència, per comprendre, agafar consciència i regular. “Per evitar que els tecnòlegs o les empreses projectin els seus apriorismes en els algoritmes que dissenyen”. Tanmateix, trencar amb l’opacitat no és tan senzill. Per una banda, la complexitat del llenguatge informàtic ho dificulta. I, per l’altra, els interessos i els secrets empresarials ho eviten.

Per a aconseguir una tecnologia més transparent i justa, Torralba proposa que, de la mateixa manera que existeixen comitès d’ètica en l’àmbit de la salut, dels serveis socials o de la investigació clínica, se’n creïn d’intel·ligència artificial. “A l’hora de dissenyar un algoritme que servirà per a decisions tan importants com discriminar persones per un lloc de feina, delimitar sous, determinar si un pres pot sortir de permís, si un estudiant pot obtenir una beca… cal que hi hagi un òrgan interdisciplinari integrat per tecnòlegs i humanistes que defineixi els criteris d’una programació en consonància amb els drets humans, l’ordre constitucional i els principis bàsics”.

El diàleg entre les disciplines, això no obstant, no és sempre accessible. “Els tecnòlegs tenen el seu llenguatge, que és molt críptic, i als humanistes no els interessa o no el coneixen. Són dos mons paral·lels i llavors no hi ha reflexió sobre l’ús de la tecnologia i sobre on ens aboca”, alerta. “No hi ha altre remei que entrenar el diàleg interdisciplinari. Hem de ser honestos i aprendre a explicar allò que fem amb un altre llenguatge que el de la tribu. Si no, viurem en la ignorància i no podem controlar l’abús”.

Aquesta necessitat de reflexió transdisciplinària s’estén a més àrees de la tecnologia que l’algorítmica. Torralba detalla que hi ha cada vegada més robots que fan tasques que abans fèiem els humans. “Valorem-ho, tot això. Si la tecnologia ens allibera o ens empresona, si ens fa avançar o retrocedir, si permet un reconeixement de drets o aparta persones del mercat laboral… Cal pensar a fons els efectes i les conseqüències de la disrupció tecnològica que estem vivint”.

 

Regulació internacional

És possible, però, una tecnologia humanista quan es crea al servei d’interessos comercials i no socials? Torralba és optimista. Considera que a les companyies els interessa cuidar la seva reputació. “L’empresa, si fa bé les coses, és més fiable. Si compta amb un comitè d’ètica, pot corroborar que el producte que emet no discriminarà col·lectius, els criteris seran justos i transparents. I a l’empresa privada li interessa això, perquè és guanyar credibilitat i prestigi”.

És evident que l’autoregulació i la bona voluntat del mercat lliure no és suficient per preservar els drets socials. És per això que, segons Torralba, cal regular la tecnologia i cal fer-ho a través d’una normativa internacional. “Ens cal un dret internacional en molts àmbits: en recerca, en el món laboral, en ecologia i, també, en l’ús de la tecnologia”. Torralba considera que, malgrat els problemes que ha arrossegat al llarg de la història, s’hauria de donar molta més força als organismes internacionals com l’ONU, que haurien de liderar aquesta moderació.

La globalització, a més, ha permès que les empreses s’escapin molt fàcilment de les legislacions nacionals o territorials. “Molts cuiden la seva cabina fins a l’últim detall mentre el vaixell s’enfonsa”, explica el doctor. Ens cal, segons Torralba, passar d’una consciència local a una de global, desenvolupar una regulació internacional dels usos i abusos de la tecnologia. Si no, si només regulem al territori, “ens arribarà tecnologia feta al Japó, a la Xina o a Corea i la incorporarem a les nostres empreses, sense saber quins criteris tindrà”.

“A mi em fascina, la tecnologia i les seves capacitats”, diu Torralba, però afegeix que, a vegades, només descrivim el que és lluminós. “Algú ens ha d’explicar quin cost social i ecològic tenen tots aquests sistemes que hem introduït a la nostra vida quotidiana”. Els ciutadans han de conèixer-los per deixar de ser titelles. Cal fer la tecnologia més transparent per entendre-la, regular-la i poder democratitzar-la, sentencia l’autor.

Subscriu-te a El Temps i tindràs accés il·limitat a tots els continguts.