Enginyera de telecomunicacions i doctora pel MIT Media Lab de l’Institut Tecnològic de Massachusetts, Nuria Oliver dirigeix ara la Fundación ELLIS Alicante des d’on desplega un discurs entusiasta davant les possibilitats socials de la IA.
Estem exagerant excessivament respecte els perills de la IA?
Sí, potser sí, perquè els titulars sensacionalistes, amb un tamís negatiu, apocalíptic, són els que més clics generen. Però dit això, és cert que els sistemes actuals d’IA plantegen una sèrie de reptes que hem d’abordar si volem aconseguir dur a terme l’immens potencial que té per al bé social. Algun d’aquests reptes inclouen la violació de la privacitat, la discriminació i els biaixos algorítmics, la falta de transparència, la manipulació subliminar del comportament humà, la falta de veracitat (la generació de contingut “sintètic” que sembla que es correspon a la realitat però en realitat no ho fa), l’excessiva petjada de carboni, la falta de diversitat, l’asimetria, i finalment les vulnerabilitats d’aquests sistemes, als quals se’l pot enganyar, usant el que se’n diu “intel·ligència artificial adversarial”. Per tant, és important reconèixer i abordar aquests reptes i aquestes limitacions per poder contribuir a l’impacte positiu que sabem que la IA pot tenir.
Establim de forma poc veraç una distinció entre “abans de la IA” i “després de la IA”, com si aquesta hagués nascut ara amb el chatGTP? A partir de quin moment podem dir que neix la IA?
Sí, és una observació interessant perquè la IA en realitat existeix des dels anys cinquanta, des que van començar els primers ordinadors. Abans de la irrupció dels mecanismes d’IA generativa i específicament de chatGTP, si haguéssim preguntat a qualsevol persona del carrer què és la IA ens hauria dit “robots”, perquè fins aquest moment la imatge de la IA era aquesta, quan en realitat des de fa molt temps tots interaccionem en el nostre dia a dia amb sistemes d’IA. Per exemple són algoritmes d’IA els que ens permeten trobar informació a internet, els que ens recomanen tot tipus de continguts… Si fem fotos amb el mòbil i aquest ens marca amb un requadre la cara d’una persona és gràcies a la IA, podem parlar al telèfon gràcies a la IA… Tots aquests usos eren quasi invisibles per a nosaltres i ha estat ara, amb l’arribada de chatGTP, quan s’ha transformat la imatge de la IA i ha democratitzat la seva ja ubiqua presència. Cal entendre que la IA no acaba d’aparèixer i que els sistemes que usem dia a dia són fruit de dècades d’investigació.
I per què ens ha agafat tanta por amb el chatGTP? És perquè ens ha semblat que la màquina s’humanitzava?
Un dels elements més importants és el fet que els algoritmes d’IA no només poden reconèixer patrons, classificar, detectar… sinó que també poden generar, en cert sentit tenen la capacitat de crear. I en el context lingüístic, aquest tipus de capacitat, fins al moment present, només la tenien les persones. És la IA generativa. Generar textos, imatges, músiques… en la definició de l’Homo sapiens hi ha incorporada la capacitat d’usar el llenguatge. I ara, en canvi, no tot el que llegeixis serà generat per un humà. Per això hi ha hagut aquest crit d’atenció col·lectiu, perquè està afectant l’essència d’allò que significa ser humà.
Entén que sí que és necessària una ètica global de la IA?
El que és necessari és una regulació de la IA. En el context de l’ètica, probablement els valors comuns compartits més universalment serien els drets fonamentals reconeguts per l’ONU. Arra en molts països i regions del món es treballa en regular aquests usos de la IA perquè assegurar-se que el seu impacte a la societat no violarà aquests drets fonamentals. La Unió Europea ha estat pionera a l’hora de regular la IA, amb el comunicat IAact de la Comissió Europea del 2021 [i ara amb la nova regulació aprovada fa pocs dies]. Durant tot aquest temps la Xina, els EUA, el Regne Unit… també han treballat la seva regulació. Tot està subjecte a regulació –el menjar, els medicaments…– per assegurar-nos que no tindran un impacte negatiu a la nostra societat i, per tant, no té sentit que una disciplina que està impactant tots els àmbits de la societat no estigui regulada.
Qui ha de coordinar aquests diferents moviments per arribar a un acord global?
Hi ha ara mateix iniciatives nacionals i transnacionals i, per una altra part, un desig global de què hi hagi una coordinació mundial, però això serà molt difícil. Històricament han costat molt, aquest tipus de coses. Només cal veure què passa amb el repte del canvi climàtic. En general, el que sol succeir –va passar amb el reglament europeu de protecció de dades– és que qui legisla el codi més estricte és el que s’acaba imposant com a estàndard. Les empreses que han de complir la legislació europea no fan versions diferents dels seus productes sinó que s’imposa la més estricta. Però, vaja, si hem estat capaços de regular tantes coses, també serem capaços de fer-ho amb això. Ja hi ha usos de la IA que estan prohibits a Europa. Per exemple, el desenvolupament d’un sistema de punts socials, a partir de dades de les persones. També hi ha provisions de transparència, de no discriminació, de respecte a la privacitat… El que està clar és que si usem mecanismes d’IA per jutjar humans, per determinar si t’accepten en una universitat o en una feina, si se’ns aplica una sentència o un tractament mèdic és evident que hem de tenir unes garanties que aquests algoritmes no estan discriminant, mantenen la privacitat, són entenedors… i que la persona tingui mecanismes per apel·lar si no està d’acord amb la decisió.
Quins valors subratllaria vostè pensant en aquesta regulació?
A mi m’agrada sintetitzar-ho amb la fórmula FEITEN. La F és de fairness, és a dir, de justícia, perquè calen garanties de no discriminació. La a és d’autonomia, del principi de l’autonomia, segons el qual els humans hauríem de ser lliures dels nostres pensaments i accions i els algoritmes no haurien de violar aquests principis. La a també és d’accountability, és a dir, de retiment de comptes respecte de les conseqüències d’aquestes tecnologies. I la a també és d’augmentation, d’augment de la intel·ligència en comptes de substitució de la intel·ligència humana. La T és doble, per un costat de trust –hem de desenvolupar tecnologia amb la qual puguem confiar–, que reclama transparència –això dona l’altra t–, que en tot moment els humans sapiguem si estem interactuant amb una màquina. La segona e de FEITEN és del principi de la beneficència, maximitzant l’impacte positiu que pot tenir la IA amb sostenibilitat i veracitat. I la n final és del principi de no maleficència, minimitzant l’impacte negatiu, reclamant sempre reproductibilitat, seguretat, aplicant el principi de prudència i preservant la privacitat. Si complim aquests objectius FEITEN ja haurem avançat moltíssim en alinear els sistemes d’IA amb els valors i principis humans.
Per què ens hauria de preocupar, tenir o no una ètica de la IA?
Perquè la IA és una disciplina transversal i això vol dir que es pot aplicar a qualsevol àrea de coneixement. I pot tenir un impacte brutal. ChatGTP, per exemple, ha estat el servei de la història que s’ha implementat més ràpidament: amb un parell de mesos ha passat a ser usat per centenars de milions de persones. Amb aquest nivell d’impacte, hem de saber bé com funcionen aquests sistemes i quines debilitats tenen i per maximitzar els seus avantatges. Algú podria dir: escolta, i si tants perills té la IA, per què la volem? No ens la podem estalviar? En aquest sentit, és molt important entendre que necessitem IA per sobreviure com a espècie, per abordar els reptes del segle XXI. No podem abordar el canvi climàtic sense IA. Ni un transport eficient i autònom. Ni una medicina de previsió o personalitzada. Tots els grans descobriments científics només es podran dur a terme si podem analitzar una gran quantitat de dades, i per a això necessitem IA.