Les darreres setmanes l’aparició del programa ChatGTP, que permet generar continguts amb una versemblança quasi humana, ha causat una autèntica commoció a la societat occidental, per aquella por atàvica que les màquines ens acabin dominant i que cada cop semblin més intel·ligents i humanes. N’hi ha per a tant, Josep Lluís Micó?
JOSEP LLUÍS MICÓ — No sé si la pregunta s’hauria de respondre amb un sí o un no. En aquest cas, m’inclino més pel no que pel sí. En primer lloc: hi ha hagut una alarma a causa de la lleugeresa amb què molta gent ha opinat sobre aquest tema des de la ignorància. En segon lloc, potser s’ha fet una lectura tremendista, i en clau negativa o d’amenaça, que ha impedit fer-ne una anàlisi més freda i sistemàtica. No crec que la intel·ligència artificial comporti l’apocalipsi que ens arriba a través de molts mitjans, la qual és una lectura simplista i, com deies, sense entendre tot el que té o el que pot tenir de positiu per alliberar-nos de determinades tasques monòtones, repetitives, etcètera. Sobre el ChatGTP en si: sense una formació adequada no és més que una eina divertida per jugar i aprendre certes coses, o per guanyar-te un suspens entregant un treball que és un resum infame a partir d’una pregunta mal formulada.
VIRGINIA Espinosa — El nou ChatGTP ha posat de manifest el nivell que ha adquirit la intel·ligència artificial en l’actualitat. Ja fa molt temps que la intel·ligència artificial està implementada i forma part del nostre dia a dia, però no s’ha percebut d’una manera tan clara i manifesta com ha estat arran de la irrupció del ChatGTP. La gent relaciona directament el ChatGTP amb el concepte pròpiament d’intel·ligència artificial, però no és menys cert que, quan agafem el mòbil i ens diu que estàs a quinze minuts de la feina, hi ha tot una sèrie d’algoritmes que estan basats en intel·ligència artificial que estan fent aquesta feina.
El que vull dir amb això és que la intel·ligència artificial ja era una realitat abans de l’aparició del chatGPT ja formava part del nostre dia a dia. El que passa és que el model ChatGPT, que respon a una evolució dins de la Intel·ligència Artificial denominada Intel·ligència Artificial Generativa (IAG), possibilita la creació de contingut original, nou i únic, posant de manifest l’elevat potencial d’aquesta tecnologia. En aquest sentit, entenem perfectament que la disrupció d’aquesta tecnologia hagi pogut descol·locar a la ciutadania, justament per visibilitzar el seu potencial de generació de contingut i de coneixement.
Malgrat la seva primera intervenció, comparteix Josep Lluís Micó aquesta idea que el ChatGTP suposa un cert salt d’escala i que això explicaria l’alarma que ha generat?
J.L.M. — Sí, perquè des del moment en què apareix una eina o el desenvolupament de versions anteriors d’un instrument que ofereix resultats i té potencial –substancialment diferent de les anteriors– és obvi que hi ha una evolució. Una altra cosa és que aquesta eina permeti fer a gran escala i per a qualsevol tipus d’usuari tot allò que se suposa o que es diu que pot fer. Opino modestament que, per aconseguir uns resultats mitjanament satisfactoris, no n’hi ha prou amb formular peticions o demanar interaccions molt bàsiques. És a dir, s’ha de saber fer servir per arribar més enllà de l’obvietat.
Com ho veu Virginia Espinosa això que comenta Josep Lluís Micó?
V. E. — Bé, crec que caldria matisar dos aspectes. D’una banda, la intel·ligència artificial pròpiament dita i de l’altra, aquesta aplicació en concret. Sí que és veritat que pel que fa referència a aquesta aplicació, per poder-li extreure tot el potencial, has de tenir un cert coneixement, una certa formació, sobre la mateixa. Però això no posa en qüestió el potencial de l’eina en si, que jo poso molt en valor, com ja he dit a la primera intervenció.
”En pocs anys ens estem jugant el futur de la nostra societat i de la nostra espècie”. Així de contundent es mostra el professor de matemàtiques de la Universitat Rovira i Virgili i expert en intel·ligència artificial Manel Sanromà, un dels milers de veus autoritzades sobre la qüestió. Està massa poc regulada la intel·ligència artificial?
J. L. M. — No soc jurista i, per tant, no tinc la visió de conjunt, panoràmica, ni el coneixement específic i profund per opinar sobre això. De tota manera, si us fixeu en l’estona de conversa que portem, probablement el concepte que ha aparegut més vegades és “potencial”. És a dir, òbviament, la situació actual evidencia una activitat, una efervescència enorme que obre múltiples possibilitats en quasi totes les esferes de la vida i totes les indústries i sectors, però tampoc penso que s’estiguin materialitzant moltes de les amenaces apocalíptiques que ens obliguin a replantejar la regulació específica de sectors o, fins i tot, la legislació general de l’àmbit laboral, penal…
No sé si caldria, com ja s’ha comentat molts cops, reformular el codi penal per infraccions que poden cometre sistemes d’intel·ligència artificial, perquè ignoro fins a quin punt es pot imputar una responsabilitat mereixedora de sancions concretes. Les màquines que assumeixen una part de la feina que abans feien els humans, tindrien dret a gaudir de vacances, pagues extraordinàries o a sortir d’excursions de team building per reforçar la comunitat de sistemes d’intel·ligència artificial al servei d’una empresa o institució?
Ho estic portant al terreny de la paròdia, però ho faig amb la intenció de demostrar que, en efecte, els canvis s’han accelerat, que estem davant de reptes que òbviament en el passat ni tan sols ens podíem plantejar. Però, d’aquí a interpretar que els fonaments de la societat estan en crisi, i que de manera imminent es produirà una mena de revolució de les màquines que no estarem preparats per afrontar, hi ha un abisme… Ostres! Tot plegat em sembla una mica exagerat. Amb matisos i alguns ajustos, ara mateix, es poden resoldre moltes de les situacions aparentment angoixants.
Líders empresarials com Elon Musk, CEO de Tesla i Twitter, i Steve Wozniak, fundador d’Apple, o historiadors com Yuval Noah-Harari, han demanat en un manifest que s’endarrereixi el desenvolupament d’aquesta intel·ligència artificial durant sis mesos. És sorprenent que per primera vegada aquells líders que promouen la tecnologia reclamin aturar les màquines… suposo que per poder-les ajustar al seu gust. Què n’opinen?
V.E. — La intel·ligència artificial planteja una sèrie de reptes. Posa sobre la taula una capacitat de desenvolupar i resoldre problemes complexos. Però, el que falta i el que crec que d’alguna manera suscita aquest tipus de manifestos és l’avaluació de les conseqüències. I penso que aquest és el tema que realment ha suscitat aquesta problemàtica i que ha demanat posar un peu al fre per poder avaluar possibles conseqüències.
Parlàveu de la qüestió de la regulació. El que falta és més coneixement, per mi. Perquè amb aquest coneixement podrem saber si realment les conseqüències que es puguin derivar de l’ús d’aquest tipus de tecnologies necessiten una regulació i un control més estricte. Per exemple, en el cas de la intel·ligència artificial, hi ha una qüestió central pel que fa a la implementació que és el disseny de la fase d’entrenament. La manera en la que la xarxa neural artificial aprèn a partir dels algoritmes de machine learning (aprenentatge automàtic), és en base amb la quantitat ingent de dades que necessita processar i analitzar durant aquesta fase d’entrenament. I el que passa amb les dades és que col·lisiona amb el concepte propi de la protecció de les dades.
Per exemple, hi ha un tipus d’intel·ligència artificial que ja està desenvolupant música, però aquesta música nova es basa en l’entrenament de música existent, que té una autoria i uns royalties associats. Per tant, s’ha de vetllar per preservar la propietat intel·lectual. I ja no només amb la qüestió concreta de les dades, que és una mica una qüestió tangible, sinó també amb una altra qüestió que és la d’avaluar les conseqüències pròpies del potencial de la intel·ligència artificial perquè no estan gens clares; és quasi impossible avançar en legislar sobre quelcom que no saps on pot arribar.
J.L.M. — Sobre el manifest, crida l’atenció que una sèrie de personatges procedents, no ja del mainstream, sinó hipermegamultimilionaris, que han aixecat imperis precisament gràcies a aquest tipus de tecnologia, en el moment en què es produeix una novetat que des del meu punt de vista té més ressò social que efectes immediats, aquests clamin: “Aturem-nos, si us plau!”. La gent no sap massa bé com interpretar-ho, la qual cosa ens fa pensar que potser, als firmants del manifest, els fa por la idea de quedar-se fora de joc. La resposta que em surt és que, en cas que això passés, s’haurien d’aguantar.
Estic molt d’acord amb la Virginia: és imprescindible tenir un coneixement profund i la capacitat d’analitzar què passa en cada àmbit, perquè una cosa és utilitzar sistemes que permeten crear automàticament música per a videojocs o anuncis, que primordialment és pel que es fa servir aquesta tecnologia sense que, fins on jo sé, la Beyoncé, la Shakira o la Rosalia se sentin amenaçades per cap sistema d’intel·ligència artificial; i una altra és que ara, a partir de creuar grans volums de dades sobre on viuen milers de ciutadans s’apliquin automàticament quotes diferents per tenir una assegurança de vida o una assegurança de la llar. O en funció de si ets home o dona, de si ets d’un ètnia o d’una altra. Com sabeu, aquesta és una altra aplicació de la intel·ligència artificial. I em sembla impossible d’equiparar la suposada regulació que caldria aplicar sobre el primer supòsit i la que caldria aplicar sobre el segon. Una cosa són les recomanacions personalitzades que et pugui fer Spotify o Netflix, i una altra és com regular des del punt de vista de la seguretat vial el funcionament dels cotxes autònoms. Per tant, aquesta denominació tan àmplia que, com dèiem al principi, afecta totes i cadascuna de les esferes de la nostra vida –de les aplicacions de cites i contactes fins a la indústria armamentista i de la guerra– és impossible d’abordar de manera conjunta amb una visió macro.
Virginia Espinosa abans apuntava a l’element troncal de les conseqüències ètiques que pot tenir l’ús d’aquestes diferents intel·ligències artificials o aquest ús en diversos àmbits de la intel·ligència artificial. Tenim prou clares aquestes conseqüències ètiques?
V.E. — No, no tenim prou clares aquestes conseqüències ètiques, bàsicament per la dimensió, la proporció del que estem parlant. En el moment en què tractem una tecnologia amb una capacitat d’immersió dins de l’era de la globalització, on qualsevol implementació se salta l’espai-temps i es pot implementar d’una forma molt més ràpida en un altre lloc, queda clar que la dimensió ètica és essencial, sobretot en intentar incorporar una reflexió sobre aquestes qüestions.
Per altra banda, la intel·ligència artificial viu en un món que és el món de la network society (societat en xarxa), on qualsevol implementació relacionada amb el nivell d’intel·ligència artificial es pot replicar en un altre lloc amb una altra cultura i una altra forma de procedir i de manera molt més ràpida. Per tant, és més difícil que aquest component ètic pugui respondre de la mateixa manera, per exemple, en un món occidental que amb un món oriental. I aquesta idea se’ns escapa. És a dir, per molt que vulguem incorporar l’ètica en la intel·ligència artificial a un món globalitzat on tot salta, fins a quin punt aquest manifest és un manifest que potser està signat per algú a qui sembla que se li han que avançat en aquesta carrera de la intel·ligència artificial?
Independentment d’això, és una realitat que en el moment en què es posa en codi obert un programa com aquest (i reitero el seu potencial) el que està fent és posar a l’abast de tothom una eina que necessita anar acompanyada –el qual no vol dir que estigui resolt– per una dimensió ètica. Per altra banda, aquesta dimensió ètica és molt difícil que respongui a un món globalitzat, de manera que aquí hi ha una altra qüestió que també dificulta encara més aquesta implementació neutral del que seria la intel·ligència artificial.
J.L.M. — La intel·ligència artificial, al final, és un conjunt d’algoritmes i sistemes que són capaços de reproduir allò que fins ara era només propi de les persones manera automàtica. Que és capaç de pensar per si sola i en les diferents fases o plans d’evolució de l’aprenentatge automàtic o profund on s’utilitza l’experiència acumulada de les dades recopilades, la capacitat de relacionar-les, de posar-les en context…per anar progressant i oferir solucions més afinades, precises i concretes a problemes que cada vegada són més complexos.
En el camp dels valors, podríem pensar que es pot alimentar qualsevol sistema amb aquelles característiques o sistemes de valors, principis, normes de comportament… de “les millors persones del món”. D’aquesta manera, les decisions que caldria prendre en moments molt compromesos –un atac amb drons en una guerra o un xoc múltiple impossible d’evitar en el qual intervé un vehicle autònom– se seguiria aquella base i essència del comportament de les millors persones del món. El que passa és que, en alguns casos, allò que en una època determinada era indiscutible, tres anys després, ja no ho és; o allò que està molt consolidat a Catalunya, a l’Àfrica subsahariana o al sud-est asiàtic no es veu exactament així.
De moment, no s’estan considerant dos factors molt importants. El primer és que la intel·ligència artificial actua en pràcticament tots els sectors i àmbits o esferes de la nostra vida, però de manera separada: Netflix no m’ajuda a fer la compra, ni Spotify m’ajuda a corregir els treballs dels meus alumnes. El segon factor és que, de moment, aquesta tecnologia és més artificial que intel·ligent. És a dir, soluciona problemes a partir de limitacions humanes: la gestió d’informació que cinc mil persones supereficients mai podrien arribar a fer com ho fa un d’aquests sistemes en un segon. Segueixo sense estar segur que, d’això, en puguem dir intel·ligència.
Aquest és un apunt crucial, si de totes aquestes eines en podem dir “intel·ligència” o no…
J. L. M. — Perquè la intel·ligència té múltiples dimensions, i una d’elles és l’emocional. Aquesta és una solució que ultrapassa les capacitats i competències dels millors humans en cadascuna de les seves disciplines, però que no cobreix en tota la seva amplitud el que significa la intel·ligència. Ni tan sols en aquells casos més inquietants en què hi ha algoritmes i sistemes capaços de crear un llenguatge propi que no entenen els humans que els han creat. Això no vol dir que siguin més intel·ligents, sinó que parlen un altre idioma. Sense intenció de menystenir ningú, aquesta qüestió no és una amenaça, sinó una oportunitat formidable.
Josep Lluís Micó (La Font de la Figuera, València, 1974). Catedràtic de la Universitat Ramon Llull i degà de la Facultat de Comunicació i Relacions Internacionals Blanquerna. És autor d’una quinzena de llibres sobre comunicació i tecnologia, com L’absolut digital, Maquinètica, Humanities for robots i Beatus technological. Ha participat en projectes de recerca amb Facebook, Google o Twitter i ha guanyat diversos premis de periodisme i investigació.
Virgínia Espinosa (Vic, 1969). Doctora en Enginyeria per la Universitat Politècnica de Catalunya, aquesta enginyera electrònica és qui actualment coordina el grup de recerca FI4.0 (Fabricació intel·ligent i Innovació industrial) del parc tecnològic Tecnocampus (UPF), que té la intel·ligència artificial entre les seves les línies de recerca. També és membre del Comitè d’Ètica de la institució, on també imparteix classe.