Núria Vallès: “Tot algoritme està vinculat a un sistema de valors”

Núria Vallès, sociòloga especialitzada en estudis de la ciència i la tecnologia, defensa que és necessari revisar els principis ètics que regeixen les grans empreses que desenvolupen les eines de la IA. Doctora en Estudis de la Ciència i la Tecnologia i investigadora a l’Intelligent Data Science and Artificial Research Center de la UPC i al Barcelona Science and Technology Studies Group de la UAB, també és investigadora postdoctoral Margarita Salas de la UAB a l’Intelligent Data Science and Artificial Intelligent Research Center (IDEAI) de la UPC i ha estat membre del grup de recerca Barcelona Science and Technology Studies Group (STS-b) de la UAB. És professora del Màster de Filosofia per als Reptes Contemporanis de la Universitat Oberta de Catalunya.

Cal una ètica per a la intel·ligència artificial?
No es pot dir si cal o no cal. És com preguntar si cal una política per a la intel·ligència artificial. Jo parteixo d’una perspectiva que es diu “estudis de la ciència i la tecnologia”. Un dels principis bàsics d’aquesta perspectiva és que costa molt establir una línia divisòria clara entre què és tecnologia, què és política, què és societat, què és cultura o què és ètica. En la nostra vida quotidiana, es fa difícil saber si les coses passen a conseqüència d’un l’algoritme, a causa del sistema de desigualtats, per culpa de les grans tecnològiques, per la regulació existent, pel sistema de valors… Al final el que ens trobem en la vida quotidiana són aquestes diferents naturaleses que estan entrellaçades.

Per tant, ja hi ha una ètica subjacent aplicada a tot el que ens envolta?
Qualsevol sistema tecnològic porta inscrits una sèrie de valors i prescriu d’una determinada manera les nostres accions. En filosofia de la tecnologia, d’això en diem moral materialitzada.

En què consisteix exactament la ‘moral materialitzada’?
Per exemple, quan tu vas a una màquina de cafè i agafes un cafè, et surt el got de plàstic, et veus el cafè… Aquell got està prescrivint una sèrie d’accions. T’està dient: tu m’agafes, em fas servir i em llences. Aquestes accions estan acompanyades de determinats valors de la producció industrial, el desenvolupament del plàstic… Si jo tinc una màquina que em permet fer servir les tasses de ceràmica que porto de casa, si després aquesta tassa la rento i la torno a fer servir l’endemà, aquesta tassa prescriu unes accions diferents que el got de plàstic. Per tant, porta inscrits una sèrie de valors diferents que serien el de la reutilització, el reciclatge… Qualsevol mena de tecnologia porta inscrit un guió de comportament que anomenem script i, per tant, unes accions determinades.

Això també passa en el cas de la intel·ligència artificial?
És més complex identificar quins són aquests valors en el cas de la intel·ligència artificial. Però amb la IA no es pot generalitzar. A mi m’agrada parlar d’aplicacions concretes en àmbits específics. Ara hi ha aquest hype, que crec que és un dels grans problemes de la intel·ligència artificial. No ens fem la pregunta sobre què és la tecnologia, és a dir, què és la intel·ligència artificial o què és l’ètica en la intel·ligència artificial, sinó que ens hem de preguntar com es fa la intel·ligència artificial. Aquí hi entren una sèrie de preguntes en relació amb l’ètica, les formes de regulació, la manera com introduïm algunes aplicacions en determinats àmbits, que no tenen a veure amb els usos específics i prou, sinó que tenen a veure amb la manera com s’han produït aquests sistemes d’intel·ligència artificial. Ara mateix es necessiten recursos naturals, es necessita molta energia, es reprodueixen els patrons de relacions Nord-Sud…

Per tant, no només ens hem de focalitzar en el funcionament de l’algoritme en si, sinó també en tot el cicle de producció de l’eina pròpiament?
Ens cal fer una reflexió per anar cap a un model de desenvolupament responsable en l’àmbit tecnològic. Cal que anem a la part prèvia, a la manera com s’han desenvolupat aquests tipus d’intel·ligència artificial. Per tant, si el meu valor o el meu objectiu és desenvolupar tecnologies per al bé comú, cal que responguin a criteris d’equitat, justícia, igualtat… Hi ha un debat important, que és la democràcia o la democratització de les tecnologies i com a través seu s’estan cancel·lant determinades formes de participació pública o de decisió.

Això està passant?
Qui són els desenvolupadors principals de la intel·ligència artificial? Són les grans empreses tecnològiques que estan definint el relat, que estan introduint les seves aplicacions en àmbits centrals de la nostra vida, en la governança, en l’educació, en la salut, en la justícia, en el control de fronteres… cap àmbit no se’n pot desentendre. Ara mateix, tot el que és la regulació sobre els sistemes d’intel·ligència artificial s’està fent a posteriori d’un sistema de màniga ampla; és un escàndol. Quan diem que, per culpa de la intel·ligència artificial, s’han acomiadat no sé quants treballadors, bé, no és la intel·ligència artificial sola qui ha acomiadat ningú, hi ha una sèrie de relacions laborals i de poder al darrere.

La regulació ètica entorn de la IA hauria de començar, doncs, per la gent i la filosofia que hi ha darrere d’aquestes tecnològiques?
Una tecnologia no la podem entendre només com un conjunt de cables, una carcassa i uns algoritmes. No. Va més enllà. La tecnologia són tots aquests artefactes heterogenis, on estan barrejats tota una sèrie de condicionants de caràcter econòmic, polític, material, relacional, simbòlic… Sense això, no podem entendre la intel·ligència artificial ni cap altra tecnologia. Actualment, no la podem desvincular de tot el que té a veure amb el Big Data i amb la gran capacitat de processament de dades. I això només és possible si ho lideren les grans empreses tecnològiques. Per tant, qualsevol reflexió eticopolítica sobre la intel·ligència artificial ara no pot deixar de banda aquestes relacions econòmiques i polítiques. Però ens cal desmuntar tota aquesta idea que genera el debat entre els tecnofòbics o els tecnoutòpics. Tot està molt polaritzat.

No hi ha matisos?
El problema és que es parla de la intel·ligència artificial d’una manera molt fantasiosa i especulativa. Estem immersos en un debat especulatiu que està liderat per les grans tecnològiques, per una idea molt determinista. Veiem com hi ha com una maquinària molt grossa que ve i sembla que l’únic que podem fer és adaptar-nos-hi o establir un marc regulador molt fort. És a dir, o frenar-ho o sobreviure-hi. Però no pot ser que l’única forma de relacionar-nos possible sigui la prohibició o l’eliminació, o tornar a una època pretecnològica.

“Qui són els desenvolupadors principals de la intel·ligència artificial? Són les grans empreses tecnològiques que estan definint el relat, introduint les seves aplicacions en àmbits centrals de la nostra vida”

Ara s’està parlant precisament de tornar al paper, eliminar les noves tecnologies, sobretot a les aules. Estem posant barreres i traves al desenvolupament?
És clar. Per mi, els dos posicionaments, tant el que és molt utòpic com el que és superdistòpic, parteixen d’una lògica molt determinista de la tecnologia. I, a més, és que hi ha una altra alternativa, que és que la tecnologia no és bona ni dolenta: té efectes. I som els humans, els qui participem tant d’aquests efectes com del procés de producció. Per tant, hem de generar els mecanismes suficients per entendre quines són les tecnologies que volem i quines són les que no volem. Les tecnologies són polítiques.

Això no se’ns escapa una mica de les mans?
Aquest és el problema de la intel·ligència artificial; és a dir, en l’àmbit de la salut, per exemple, ja hi ha estudis empírics, amb aplicacions concretes, que donen uns resultats molt bons. Com a societat hem incorporat això i diem: sí, aquesta línia ens interessa. Endavant! És a dir, tot i els recursos que es necessiten, aquesta línia ens interessa explorar-la. Però també hi ha altres línies com el control de fronteres. Aquí, els riscos de reproducció de biaixos, de vulneració de drets humans, de reforçar formes de discriminació per motius d’ètnia, de classe, etcètera, són tan grans que decidim no continuar investigant i desenvolupant aquesta mena de tecnologies. Per què sembla que siguem tecnofòbics quan diem això?

Per tant, l’ètica hauria d’anar cap amunt, cap al poder i no cap avall, cap a la població?
Cap a tot arreu. La política i l’ètica estan molt vinculades a la democràcia. Hem de poder trencar els discursos del que es dona per descomptat, i introduir altres veus. Per això dic que, en la intel·ligència artificial, parlem poc de les seves vinculacions amb la democràcia.

Té sentit que el G7 desenvolupi un codi ètic per a la intel·ligència artificial?
Avui en dia, això s’ha convertit en un mercat de principis i en un mercat de codis ètics. Moltes d’aquestes iniciatives venen de grans empreses que tenen després les seves fundacions, que posen en marxa els codis ètics. No hi ha dubte que cal una regulació del desenvolupament dels sistemes d’intel·ligència artificial en tot el cicle, des de la producció fins a l’aplicació. Ara bé, aquest mercat de codis ètics, quan sabem que s’estan desenvolupant i aplicant sistemes d’intel·ligència artificial absolutament perversos, és una hipocresia.

Aquests codis ètics ens generen una sensació de falsa seguretat cap al desconegut?
Al costat d’aquesta narrativa dels codis ètics, de la versió utòpica-distòpica, sempre es parla del potencial disruptiu de la intel·ligència artificial. No ho nego, però com que jo faig ètica empírica, necessito una perspectiva històrica per dir que una tecnologia és revolucionària i disruptiva. Em quedo, doncs, amb els efectes actuals i les seves continuïtats.

“Cal identificar les problemàtiques que posa damunt la taula la intel·ligència artificial i fer servir els marges per acompanyar aquesta regulació global necessària”

Haurien de ser més democràtics aquests processos reguladors?
Això és molt difícil. És cert que calen polítiques globals coordinades, però aquí la nostra capacitat ciutadana d’intervenció és limitada. Passa el mateix amb la intervenció ciutadana en les polítiques econòmiques globals. Vivim en un món global que funciona mogut per uns poders inabastables. Tenim una ciutadania i un món cada vegada més polaritzats pel que fa a recursos, però també a la capacitat de construir relat, a l’accés al coneixement, a decidir quin és el futur… Aquest és un problema, no de la intel·ligència artificial, sinó del món on vivim.

Potser no ens caldrà tant marcar una ètica per a la intel·ligència artificial com reforçar els principis ètics que ens hem donat entre tots i totes?
No tot són normes i regulacions. Cal que identifiquem les problemàtiques que posa damunt la taula la intel·ligència artificial i fem servir els marges per acompanyar aquesta regulació global necessària de formes de gestió i d’implementació des de l’àmbit local. I aquí el nostre marge és gran.

Ens cal democratitzar les tecnologies?
Sí, però democratitzar les tecnologies no vol dir que votem un algoritme! Jo no sé ni com s’escriu, ni el sé llegir, ni sé com es programa. Però tots i totes hem de poder decidir sobre el món que volem, encara que no entenguem els algoritmes. Quan anem al metge, no en sabem, de medicina, però sí que necessitem que ens expliquin les coses. Jo haig de poder decidir en funció d’allò que em passi i negociar el tractament amb el metge. Doncs, amb el tema de les tecnologies, em fa l’efecte que també hem de poder discutir-ho. No estem dient que haguem d’aturar les màquines, però tampoc val el que s’està fent actualment de tirar endavant totes les aplicacions. Cal que apliquem unes determinades tecnologies en àmbits petits, controlables i a través d’una forma d’acció més lenta.

Disposem del temps necessari per testar aquestes aplicacions a petita escala?
Ja sabem que el desenvolupament tecnològic desenfrenat provoca seriosos problemes ambientals. Si això ja està demostrat, per què no ho fem a poc a poc? No pot ser que, si els ecologistes als anys seixanta deien que llençar residus al mar podia matar les balenes, ho haguessin de demostrar. Perquè, quan ho puguin demostrar, les balenes ja seran mortes. Són els que llencen residus els que han de demostrar que no passa res si ho fan. Entenc que la lògica hauria de ser la mateixa en el cas de la intel·ligència artificial. Tu has de demostrar que, quan uses un algoritme a les xarxes socials o en una aplicació que faran servir els adolescents, que això no els perjudicarà la salut mental. No totes les tecnologies, aplicades de qualsevol manera, funcionen.

Patim ‘solucionisme tecnològic’?
Creure que amb la tecnologia tot se soluciona, i que arreglarem temes com la pobresa o el medi ambient, doncs no; les tecnologies soles no resolen res. No podem deixar en mans dels tecnòlegs resoldre problemes socials i polítics complexos. Sí, com a part de la ciutadania, però, però no només. I sembla que hi ha moments en què qualsevol problema té solució aplicant un gadget tecnològic. Això passa, per exemple, en la política del Next Generation. Hi ha dues grans línies: la digitalització i la història verda. No creus que tenen un punt contradictori?

Abans parlàvem de la moral materialitzada, però, en la programació d’un algoritme, també hi ha una moral?
És que l’algoritme no va mai sol, sempre està en un entramat de relacions on hi ha un sistema de valors, que és subjectiu. En política científica, per exemple, aquesta idea seria la de la RRI, la recerca i la innovació responsables. És a dir, més que parlar de desenvolupar una sèrie de principis ètics per a la intel·ligència artificial, l’objectiu seria desenvolupar una intel·ligència artificial responsable. Cal decidir què és el que volem, és a dir, la intel·ligència artificial per a què la volem fer servir? Doncs per a una bona vida, i això –sembla clar– es defineix en funció de qui ho diu o de quines necessitats té.

La intel·ligència artificial ens aïlla i fa que ens relacionem menys?
Sí i no; és a dir, poso d’entrada en dubte que més intel·ligència artificial impliqui menys relacions humanes. Hi ha relació humana? Sí, però és diferent. Però de relació n’hi ha. No hi ha manera d’entendre la vida, és així perquè les relacions són allò que ens fa humans justament. Ara bé, és cert, que la intel·ligència artificial canvia com són aquestes relacions. Igual que ho canvia el mòbil, igual que ho canvia l’electricitat, és a dir, qualsevol artefacte tecnològic és un element que intervé en la relació que nosaltres tenim amb el món.

La intel·ligència artificial pot acabar alterant el nostre sistema de valors?
Com qualsevol altra tecnologia o canvi històric que hi hagi hagut en el passat. Però de quin sistema de valors parlem, exactament? Cadascú té el seu. L’aplicació de la intel·ligència artificial està vinculada a grans tecnològiques a les quals no els importa la justícia social, o la nostra salut. No sé si comparteixo el mateix sistema de valors que Elon Musk, jo. Ho hem de poder posar en dubte. I això no és posar en dubte la intel·ligència artificial.

Deixa un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *