Antonio Luis Terrones, investigador postdoctoral Margarita Salas a la Universitat de València i membre del Grup d’Ètica Aplicada (GEA) de l’Institut de Filosofia del CSIC reivindica el concepte de ‘seguretat moral’.
Hi ha una exageració respecte dels perills de la intel·ligència artificial (IA)?
Com en tota tecnologia disruptiva, la IA ens situa davant un escenari de llums i ombres. No podem negar que la IA ens aporta importants beneficis. Per exemple, en el camp de la medicina, ens permet la detecció de patrons de determinades malalties. En el camp de l’administració pública, la IA també possibilita una gestió de les dades més eficient. Ara bé, com tota arma poderosa que posem a la mà de l’ésser humà, té efectes ambivalents. És obvi que estem davant d’una tecnologia que pot incrementar el poder de l’ésser humà, però la pregunta és: quin ús fem d’aquest poder? En benefici del propi ésser humà o a favor del capital i del mercat? Dit això, crec que cal agafar distància dels discursos catastrofistes que ens immobilitzen i situar-se en els discursos prudents i responsables.
Vostè reivindica el concepte ‘seguretat moral’, per què?
Quan parlem d’IA, el concepte de seguretat s’emmarca majoritàriament en dues àrees: la tecnològica i la normativa. Respecte de la tècnica, ens preguntem com han de ser de segurs els sistemes davant de determinats atacs. Per altra banda, la IA també ha de ser segura des d’un punt de vista jurídic perquè ha de protegir les dades dels usuaris. Però hi ha una sèrie de conseqüències de la IA que no encaixen en cap dels dos camps. Per exemple, la IA ofereix una sèrie de resultats conseqüència de l’automatització de decisions que molts cops fan mal als usuaris. No mals físics sinó insults, vexacions, falta de respecte, discriminació de minories, etc. I això són errors en la seguretat moral.
Posi un exemple concret d’error moral.
Els algorismes ajuden els jutges a prendre decisions. El sistema més conegut és Compas, que es fa servir als EUA i informa de les probabilitats de reincidència dels presos a l’hora de concedir-los la llibertat condicional i els permisos penitenciaris. Ara, un estudi ha conclòs que aquesta eina discrimina determinades minories, concretament els negres. Per tant, la màquina perjudica moralment la persona. Avui, en l’àmbit mèdic existeix el consentiment informat, però per què en l’àmbit jurídic no s’informa el processat si el jutge estarà condicionat per la IA en el moment de dictar sentència?
Hem de dotar la IA de moralitat?
Això que anomenem IA és un conglomerat de materials, ideologia, institucions, valors… molts elements que generen un ecosistema amb múltiples relacions. Per tant, la pregunta és com construïm les relacions entre l’home, la IA i la societat tecnologitzada? Com traduïm a un llenguatge de programació l’empatia, la solidaritat, etcètera? El problema no és fer un algoritme solidari, sinó generar un entorn tecnològic respectuós, protector… i, en el qual, l’ésser humà controli el procés.
Els errors morals que es detecten en la IA són els problemes morals de la societat?
Sí, és clar. La tecnologia és allò que nosaltres projectem. Els darrers anys ha anat calant la idea del ‘solucionisme tecnològic’, basat en la teoria que la tecnologia és la solució a tots els grans problemes de la humanitat. Una teoria bona si només es fa una anàlisi superficial dels problemes. Per tant, sí, sens dubte, la tecnologia és un reflex de nosaltres, però no sempre ho percebem així. La tecnologia no solucionarà els problemes dels homes; només els homes poden solucionar els problemes dels humans. No podem negar que, si un algoritme que s’usa a la banca per determinar la solvència d’una persona genera un resultat insolidari, és perquè ha estat programat amb aquests valors.
Per tant, és necessària una ètica de la IA? I podria ser universal?
Sí, és necessari anar cultivant elements ètics entorn del desenvolupament de la IA; elements que poden anar orientats a diverses escales: normativa, educació… Ara bé, si bé crec que és necessària una ètica universal de la IA, penso que és bastant complicat aconseguir-la perquè, al final, ens movem en un entorn travessat per les relacions de poder. Encara que la UNESCO ha fet documents en aquest sentit i són bon referents, no podem perdre de vista que les grans tecnològiques no mostren interès en el tema. Per exemple, fa uns mesos els diaris publicaven que OpenAI va recórrer a contractar treballadors kenyans que guanyaven menys de dos dòlars per hora per filtrar contingut traumàtic de ChatGPT.
Fins i tot el G7 també ha aprovat un codi ètic de la IA…
Ara estem davant d’un blanquejament ètic de la IA. Omplim tots els documents amb la paraula ètica, però després no s’aplica. Quan parlem d’ètica sempre ens referim als grans temes canònics: transparència, tractament de dades, desinformació…, però cal ampliar el radar i parlar també de problemes ambientals, de treball… temes dels quals no els hi convé parlar.
Quins serien aquests principals reptes de l’ètica de la IA que avui no s’aborden?
N’hi ha molts, però només te’n comento alguns. El primer, seria l’educació moral dels professionals del sector: els enginyers informàtics han de tenir eines vinculades a la sensibilitat moral. Han de cultivar una habilitat que detecti elements que tinguin rellevància moral. Hi ha elements de la tècnica que escapen a l’afectació instrumental. Un exemple clar d’això és la digitalització de la banca i el moviment “Soy mayor, no idiota” impulsat per la gent gran afectada per la banca 4.0. Com els enginyers no van poder preveure aquestes conseqüències?
Un altre repte?
Cal posar fi a l’asimetria que hi ha entre els que creen, regulen i fan servir la tecnologia. Cal generar entorns participatius, living labs (laboratoris vius), en els quals la gent pugui expressar les seves necessitats i expectatives i així, apartats de les decisions del mercat, promoure una ciència més cívica i menys econòmica i instrumental.
Aquests entorns també serien educatius. Avui molta gent té por de la IA, però en desconeix els usos…
Cert. Fixa’t que fem servir un llenguatge molt curiós quan parlem de tecnologia. Per exemple: el núvol, una expressió que ha fet fortuna. Com si la tecnologia no tingués una base material, fos metafísica. Cal desmuntar el discurs de Silicon Valley i els ciutadans han de ser conscients de les conseqüències de la tecnologia.
Precisament un altre tema pendent són les conseqüències ambientals de la IA.
Encara que no ens ho sembli, la IA necessita energia i materials per mantenir-se. Per aquest motiu, fa dos anys vaig començar a estudiar la IA sostenible. Aleshores, el 99 per cent de les lectures estaven orientades a com la IA podia contribuir a assolir els objectius del desenvolupament sostenible. Tot en positiu. Solucionisme! Però de l’afectació de la IA sobre el medi no s’havia publicat pràcticament res, només Aimee van Wynsberghe, una investigadora d’Alemanya, havia començat a treballar el tema. A Espanya, a part de Jordi Pigem, de tecnologia i filosofia poc se’n parla.
Això vol dir que la IA no és sostenible?
No, no ho és. La IA està construïda sobre materials, que s’extreuen de mines, que comporten conflictes socials i mediambientals. A més, se sustenta sobre mà d’obra barata. Ens diuen que un dels pilars de la transició energètica és la transició digital, però la tecnologia digital també demana alts consums d’energia. De fet, el famós núvol són grans servidors situats en naus industrials que tenen sistemes de refrigeració enormes que gasten grans quantitats d’aigua i energia. Hi ha algunes estimacions sobre el consum de la IA, però no a escala global. Si només volen que enfoquem els discursos en els treballs que es perdran amb la IA, com si arribés un neoludisme, és que hi ha alguna cosa al darrere que no volen que vegem.