Entrevista

Sam Altman: “Érem conscients del que fèiem amb ChatGPT”

Parlem amb Sam Altman, responsable d’OpenAI, sobre ChatGPT i els perills que comporta la intel·ligència artificial.

Segueix-nos a Facebook per assabentar-te dels nostres darrers reportatges

Des que va treure el xat intel·ligent ChatGPT al mercat, Altman, de 38 anys, s’ha convertit en un dels empresaris més populars del món. Pocs mesos després del llançament del software, ja compta amb més de 100 milions d’usuaris. Ara, com si d’una estrella del rock es tractés, Altman està fent una gira arreu del món per trobar-se amb desenvolupadors, representants polítics i estudiants. Pocs dies enrere va reunir-se amb el canceller Olaf Sholz i va fer parada a la universitat tècnica de Munich, on Der Spiegel va aprofitar per entrevistar-lo.

La setmana passada va córrer la brama que heu amenaçat de desconnectar ChatGPT a la Unió Europea arran de la directiva europea relativa a la intel·ligència artificial. La gira que esteu fent és, doncs, una gira de comiat?

Espero que sigui la primera de moltes! Els titulars que es van publicar arran de les meves declaracions eren una exageració. La directiva en qüestió encara és molt vague en punts molt importants i encara no s’ha acabat de debatre. Si, un cop estigui acabada, no som capaços de complir certs paràmetres tècnics, el que no farem serà incomplir la legislació.

És a dir, ho desconnectarien.

Volem treballar perquè la legislació avanci en la bona direcció i volem col·laborar amb la UE.

Això és una mica confús. Fa un parell de setmanes vos mateix vau exigir al senat dels Estats Units una normativa més estricta per a la intel·ligència artificial. Heu arribat a comparar la vostra pròpia tecnologia amb una bomba nuclear… i parleu de la necessitat d’un ens internacional que la supervisi.

Efectivament. És fonamental que hi hagi un procés democràtic per determinar els límits d’aquesta tecnologia i que els humans en mantinguem el control. A més a més, com a empreses, cal que puguem treballar en un marc clar i se’ns reguli.

Parlem dels motius pels quals feu tantes crides a la regulació: els riscs que comporta la intel·ligència artificial. Hi ha delinqüents i criminals que se serveixen de l’eina que heu creat per fabricar software nociu de manera automatitzada. Esteu facilitant la feina dels dolents?

Som davant d’unes eines noves i molt potents. Es poden fer servir per fer el bé, però, sí, és clar, també poden servir per fer coses dolentes. Estic segur que, al final, els aspectes positius seran molt superiors als negatius. La gran majoria de persones utilitzaran la intel·ligència artificial de manera productiva, però sempre hi haurà aquells que en faran un mal ús, certament. I és contra aquesta realitat que cal actuar.

Encara no fa pas gaire, una foto generada amb intel·ligència artificial on es podia veure una suposada explosió al Pentàgon va fer caure momentàniament la borsa.

A dia d’avui ja hem hagut d’enfrontar-nos a tot tipus de desinformació. A mi el que em preocupa és el fet que pot haver-hi informació falsa molt convincent, interactiva i feta a mida fabricada mitjançant deep fakes generats amb intel·ligència artificial. Cal que hi hagi uns mecanismes socials de defensa, en els quals ja s’està treballant. Una possibilitat també seria comptar amb sistemes de detecció d’imatges generades artificialment. També es pot establir per llei que les imatges generades amb intel·ligència artificial hagin de dur alguna marca que les identifiqui com a tals, com ara una marca d’aigua digital.

Parlant de fer un mal ús de la intel·ligència artificial, hi ha algun escenari que li causi especial temor?

Tenia l’esperança que després de la pandèmia estiguéssim més ben posicionats per fer front a les amenaces biològiques, però ara per ara no és el cas. Em preocupa molt que es puguin utilitzar sistemes d’intel·ligència artificial per fabricar armes biològiques. És clar que la intel·ligència artificial també ens serviria per trobar vacunes millors.

Si a vos mateix tot plegat us sembla inquietant, per què vau obrir l’accés a ChatGPT? No us fa la sensació que vos i altres pioners del sector esteu fent un experiment amb la humanitat? Un experiment de desenllaç incert…

Això es podria dir de qualsevol nova tecnologia que es faci pública. Érem conscients del que fèiem. El novembre passat no vam publicar la versió més actual del software. Vam pensar que GPT-4 era un salt massa agosarat i per això vam començar amb la versió anterior. Crec que és molt arriscat continuar desenvolupant aquestes tecnologies a porta tancada. Haurien de ser accessibles a tanta gent com sigui possible perquè les puguin provar i entendre millor quines oportunitats i quins riscos comporten… i participar del debat respecte de quin camí ha de prendre tot plegat. Si no haguéssim publicat ChatGPT tan d’hora, tots aquests debats no s’estarien produint a dia d’avui. I és bo i és important que en parlem perquè encara tenim temps.

A OpenAI, quantes persones es dediquen a veure com es pot domar la intel·ligència artificial i com es pot dissenyar perquè sigui més segura?

L’empresa sencera s’hi dedica, com no pot ser d’altra manera. A diferència d’altres tecnologies, en el cas de la intel·ligència artificial no pot haver-hi els desenvolupadors d’una banda i, de l’altra, un grup de gent que s’ocupi de les qüestions de seguretat.

Altres empreses, com ara Meta, han destinat un percentatge notòriament més elevat de la plantilla a la lluita contra el mal ús d’aquestes tecnologies. Parleu de seguretat, sí, però quines mesures concretes heu pres?

També comptem amb personal dedicat a la seguretat i amb persones que investiguen com es poden adaptar els nostres models. La gent que es dedica a entrenar el model és responsable de què compleixi els criteris de seguretat que nosaltres mateixos establim. Hem passat vuit mesos fent proves al model més actual per fer-hi tots els tests possibles i perquè el revisin els equips de control que anomenem “Red Teams”. Si, per exemple, el voleu fer servir per fabricar una bomba, el sistema s’hi negarà. Comptem amb un sistema de supervisió capaç de reconèixer comportaments perillosos. Fins i tot aquells que ens havien criticat més ara han admès que ens hem pres molt seriosament les qüestions de la seguretat.

Quin és l’ús que s’ha fet de ChatGPT fins al moment que l’ha sorprès més positivament?

Crec que els usos que se’n pot fer en el sector de l’educació són especialment interessants. És ben sabut que comptar amb un tutor personalitzat afavoreix l’aprenentatge, més que no pas ser en una classe amb molts altres alumnes. Tot i així, poca gent s’ho pot permetre. Ara, però, hi ha molts docents que, tot i que d’entrada tenien reserves a l’hora d’utilitzar assistents intel·ligents, fan servir ChatGPT com a tutor. Molts docents em diuen, de fet, que aquest model canviarà profundament la manera d’aprendre.

Vos mateix heu advertit que la intel·ligència artificial farà desaparèixer molts llocs de treball, però que en millorarà molts altres.

Aprofito que faig aquest viatge per explicar al jovent que ara mateix és el millor moment per fer carrera al sector de la tecnologia i de la informàtica. Estem essent testimonis d’un dels moments més emocionants des que es va inventar internet. La intel·ligència artificial serà l’eina més pràctica, influent i extraordinària que hagi fabricat mai la humanitat.

Quantes cerques es fan diàriament amb ChatGPT?

Moltíssimes. No ho sé exactament. No parlem de milers de milions, però sí de milions.

Això requereix d’una enorme capacitat de computació i de molta corrent.

Realment no n’hi ha per tant. Tot i així, segur que en un futur aquests sistemes requeriran de molta energia, sí, no vull pas dir cap mentida.

Un consum tan elevat d’energia té conseqüències climàtiques. Els seus ordinadors funcionen amb energia verda?

Utilitzem servidors i centres de dades de Microsoft, i Microsoft s’ha compromès a la neutralitat climàtica.

Actualment sou un dels empresaris més populars. L’any passat, però, el volum de negocis de la vostra empresa va ser de 28 milions de dòlars… però les pèrdues de 540 milions.

Aquestes xifres són força inexactes, però el cert és que estem perdent molts diners, sí.

No sembla pas que us preocupi gaire.

No, gens ni mica.

En el passat ja hi ha hagut moments en què la intel·ligència artificial ha experimentat un hype, moments puntuals de popularitat; i fa dos anys tothom parlava del metavers. Pot passar que aquesta emoció generalitzada per la intel·ligència artificial generativa també es dissipi?

Ara mateix el risc d’un hype sobredimensionat hi és, sí, però no podem dir el mateix de les profundes transformacions que aquesta tecnologia implicarà a llarg termini. Crec, de fet, que aquestes perspectives de futur encara estan generant massa poc rebombori.

Us heu trobat amb Olaf Scholz. El canceller entén bé l’eina que heu posat a les mans de la humanitat?

Amb Scholz vam parlar de què pot fer Alemanya per accelerar el desenvolupament de la intel·ligència artificial. De les cadenes de subministrament digitals de què cal disposar. I, naturalment, també vam parlar del fet que cal disposar d’una regulació tan precisa com sigui possible que protegeixi dels riscos i, al mateix temps, no restringeixi la innovació.

Enmig de la carrera que hi està havent a nivell mundial entorn de la intel·ligència artificial, creu que Alemanya té un paper important?

És clar que sí. Treballem amb molts desenvolupadors d’Alemanya i ChatGPT té molts usuaris en aquest país. De fet, la ruta que segueix el viatge que estem fent està dissenyada en funció dels llocs on hi tenim més socis.

En comparació amb els Estats Units, Alemanya té moltes menys start-ups i s’inverteix molt menys en intel·ligència artificial. Per què?

Ja fa temps que a Alemanya es creen moltes menys start-ups de les que m’hauria pensat. De persones amb bons coneixements de programació no en falten pas. El que probablement sí que hi tingui un paper és la cultura: als Estats Units està socialment acceptat treballar en un projecte extremament ambiciós, fins i tot poc realista. Hem sigut els primers, i probablement també els únics, a dir que volem crear sistemes d’intel·ligència artificial forta, o general.

Voleu dir models d’intel·ligència artificial especialment avançats; programes capaços de fer tot allò que podem fer les persones.

Exacte. A més a més, als Estats Units és més habitual que la gent que treballa en un projecte comú hi dediqui hores i hores extra. L’accés al capital també és un factor important, però no és l’únic.

Vladímir Putin va dir que aquells que liderin el mercat de la intel·ligència artificial seran capaços de dominar el món. Té raó?

No, no en té. Tot i així, sí que seria perillós per a la resta del món si un autòcrata fos capaç de fer un avenç tecnològic significatiu.

Cada dos per tres hi ha casos de softwares que discriminen a les persones negres o a les minories perquè els han programat persones. Què feu per evitar que això passi?

Crec que en un futur els sistemes d’intel·ligència artificial discriminaran molt menys del que discriminem les persones, fins i tot que les persones més conscienciades al respecte. Podem procurar que sigui així prenent les mesures tècniques que calgui.

Tot i així, la discriminació ja és una realitat. Això no ho veu amb tan optimisme?

Aquests problemes potser afectaven tecnologies més antigues, com ara els sistemes automatitzats de concessió de crèdits. Allà sí que hi havia problemes. La qüestió més decisiva serà, però, amb quins valors volem configurar la nostra intel·ligència artificial. I això requerirà de debats intensos.

Subscriu-te a El Temps i tindràs accés il·limitat a tots els continguts.