Molts sistemes d’intel·ligència artificial (IA) s’estan convertint en la tecnologia predeterminada per resoldre problemes tècnics de la vida quotidiana tal com ho demostren els sistemes de processament de llenguatge natural, d’anàlisi de sistemes dinàmics, d’aprenentatge i ensenyament o de suport per a la presa de decisions. Però l’acceleració tecnològica al voltant de la IA està adquirint una centralitat sense precedents històrics i ningú pot prendre la mesura d’aquest temps sense tenir en compte l’impacte social, cultural, econòmic i polític de la tecnologia. Però això no és fàcil quan el context tecnològic està immers en una atmosfera febril que presenta qualsevol producte tecnològic relacionat amb la IA i les seves capacitats com a extraordinàries, increïbles i al·lucinants. En aquest sentit, ens cal molta menys inevitabilitat i molta més comprensió o, si voleu, la saviesa pràctica que Aristòtil definia com a frònesi, per saber què és bo o dolent, què es pot i què s’ha de fer i també com fer-ho. Sabem que això es diferencia tant del coneixement filosòfic o científic (epistêmé) com del coneixement tècnic o el saber fer (téchne). Primer, perquè se centra en la pràctica –no es tracta només del que és cert–, sinó també del que seria bo fer en determinades circumstàncies.
“Hi ha el temor que les organitzacions públiques i privades es puguin amagar de la seva responsabilitat en una presa de decisions cada vegada més mediada per l’ús generalitzat de sistemes d’IA”
És per aquest motiu que una perspectiva crítica és crucial per una millor IA present i futura. En aquest context, tal com escriví l’historiador, sociòleg i teòleg laic francès Jacques Ellul en els seus llibres La Technique ou l’enjeu du siècle (1954), Le Système technicien (1977), el terme “tècnica” o IA s’ha d’entendre en el seu significat més ampli possible. Així doncs, no tan sols ens referim a les màquines i altres dispositius tècnics per definir-la, sinó a tot el complex de mètodes ordenats racionalment per fer més eficient qualsevol activitat humana i que afecten pràcticament totes les àrees de la nostra vida, incloent-hi la política i les relacions humanes. Això significa que la tècnica ja no és un element intermediari entre les persones i el medi natural, sinó un teixit propi que tendeix a substituir la naturalesa obeint a una racionalitat específica on el progrés tècnic són l’autoaugment, l’automatització, l’absència de límits, la tendència a l’acceleració, la disparitat i l’ambivalència.
Però cal tenir en compte, com ens recorda Ellul, que la tècnica manca d’una de les característiques essencials de qualsevol conjunt organitzat: la reacció. Encara no és capaç de controlar els seus errors i disfuncions, si bé ara podem estar en presència de l’elaboració progressiva d’aquesta capacitat reactiva. D’aquí la importància de plantejar un canvi global dels nostres hàbits o valors, i d’entomar el progrés no en relació amb una IA concreta o una altra, sinó en relació amb aquest sistema. És per això que, a mesura que la IA impregna les nostres societats, el seu poder transformador s’ha de posar al servei de totes les persones, sense agreujar la desigualtat, el canvi climàtic, la concentració del mercat i/o la bretxa digital. Malgrat que cap disciplina, actor o país no té les respostes als reptes que planteja la IA en la societat, la interdisciplinarietat, la cooperació i les respostes de múltiples parts interessades són cabdals per guiar el desenvolupament i l’ús de la IA per al bé general.
Subratllant les paraules de Martha Nussbaum
El problema és que “ens trobem enmig d’una crisi de proporcions massives i de gran importància mundial. No, no em refereixo a la crisi econòmica mundial… Em refereixo a una crisi que passa en gran part desapercebuda, com un càncer; una crisi que és probable que, a la llarga, sigui molt més perjudicial per al futur de l’autogovern democràtic: una crisi mundial de l’educació”. Aquesta frase de l’autora i filòsofa americana Martha Nussbaum en les primeres pàgines del seu llibre Not for Profit: Why Democracy Needs the Humanities (Princeton University Press, 2010, 158 pàg.), resumeix una situació cada vegada més crítica, no tan sols respecte a la filosofia sinó a la resta d’humanitats i ciències socials en general, que són el conreu de les nostres relacions i una part fonamental per concebre i desenvolupar el nostre benestar humà. Mentre la bretxa d’habilitats i competències en les anomenades STEM està ben documentada, encara no hem entès completament l’escala del repte que suposa la negligència envers altres disciplines d’humanitats i ciències socials, inclosa la filosofia.
Com la mateixa filòsofa escriu en el seu llibre, si aquesta tendència continua, les nacions de tot el món aviat produiran generacions de màquines útils, més que ciutadans complets que puguin pensar per si mateixos. Sense filosofia, la tendència és veure la gent de l’altra banda com un problema o com a forces demoníaques que cal derrotar, i és evident que la nostra cultura d’Internet ho fomenta. Però si tenim més competències en humanitats i ciències socials, no tan sols ens adonem que cada persona té raons sinó que s’aprèn a escoltar aquestes raons. Les implicacions culturals i socials a gran escala de la intel·ligència artificial i les qüestions ètiques que planteja suposen un seriós repte a mesura que avancem en un futur on totes les solucions es preveuen tecnològiques.
La normalització d’aquesta situació és problemàtica, especialment en sistemes democràtics on la IA té un paper cada cop més important en la presa de decisions. Això planteja qüestions rellevants sobre la responsabilitat, el retiment de comptes o la transparència i, és clar, sobre la qualitat de les decisions i el seu impacte individual i col·lectiu. De fet, presenta una pregunta clau: ens treu el poder de decisió la IA o bé aquesta representa una nova manera d’aprofitar el nostre poder de decisió? Sabem que els algorismes de la IA són una recepta digital, amb una llista de regles per aconseguir un resultat que ens pot augmentar capacitats, però també ens pot fer perdre autonomia en la presa de decisions. Com a conseqüència, l’avaluació i supervisió dels sistemes d’IA és fonamental no tan sols per resoldre problemes sociotècnics sinó per garantir que les decisions públiques i privades basades en IA respecten uns principis ètics fermament arrelats i alineats amb les expectatives de les societats democràtiques.
L’ètica de la IA ja és una necessitat
La bona notícia és que, durant els últims anys, les consideracions ètiques de la IA han passat de ser una qüestió filosòfica d’alt nivell a convertir-se en una necessitat d’aplicació tangible per minimitzar-ne els riscos. La proliferació dels smartphones i les aplicacions d’IA que fem servir diàriament, l’impacte de la tecnologia en tots els sectors (incloent-hi la indústria, la cura de la salut, la justícia, el transport, finances o l’entreteniment), l’augment de la capacitat de processament de dades, ha fet sorgir un intens i necessari debat sobre l’ús ètic de la IA que ha estat relacionat, en primera instància, amb la transparència a través dels biaixos de les dades i de les anomenades caixes negres de la IA. Per què? Doncs perquè hi ha el temor que les organitzacions públiques i privades es puguin amagar de la seva responsabilitat en una presa de decisions cada vegada més mediada per l’ús generalitzat de sistemes d’IA.
Però la responsabilitat no tan sols fa referència al retiment de comptes en relació amb les dades, els processos i els resultats d’un sistema d’IA en qualsevol etapa del seu cicle de vida, sinó també a la responsabilitat social en el seu disseny i desplegament. Per tant, la responsabilitat social associada als sistemes d’IA assenyalaria la necessitat de models de desenvolupament que permetin establir eines de comunicació i control entre els sistemes d’IA, els desenvolupadors i la societat.
Amb l’objectiu general de demostrar que és possible avançar en aquesta direcció, l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC) ha presentat una aplicació web i un informe sobre principis, indicadors i observables que tracta sobre l’ús i avaluació ètica de dades i sistemes d’IA, dissenyat i desenvolupat pel mateix OEIAC.
Albert Sabater és doctor en Estadística Social per la Universitat de Manchester i director de l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya