Intel·ligència artificial i la garantia drets fonamentals

En els darrers mesos el debat sobre els límits de la Intel·ligència Artificial (IA) s’ha incrementat de manera exponencial. La irrupció d’eines basades en models generatius com Chat GPT d’OpenAI, o altres sistemes com BERT de Google, ha intensificat la polèmica sobre els efectes negatius que es poden derivar del seu ús. Paral·lelament, al Parlament de la Unió Europea es troba en la seva fase final l’aprovació d’un Reglament que regularà l’ús dels sistemes d’intel·ligència artificial (l’anomenada “Llei d’Intel·ligència artificial”). Aquesta nova normativa vol garantir que aquests sistemes estiguin supervisats per persones, que siguin segurs i transparents, que es puguin traçar, que no tinguin biaixos discriminatoris i que respectin al medi ambient. L’enfocament ètic en el seu disseny és altra de les seves prioritats.

El Llibre blanc sobre la intel·ligència artificial de la Comissió Europea, de 19 de febrer de 2020, ja havia assenyalat com el ràpid desenvolupament de la IA suposava un canvi de les nostres vides, ja que milloraria l’atenció sanitària, augmentaria el rendiment de l’agricultura, contribuiria a la mitigació del canvi climàtic, milloraria l’eficiència dels sistemes de producció, augmentaria la seguretat dels europeus, i aportaria molts altres beneficis que en aquell moment només es podien intuir. Tanmateix, la IA comporta un gran nombre de riscos potencials, com l’opacitat en la pressa decisions, les discriminacions per raça, gènere, edat, orientació sexual, etc., la intromissió en les nostres vides privades, l’ús amb finalitats delictives, i un llarg etc.

L’impacte en els drets fonamentals és, en efecte, molt elevat i transversal. A més del dret a no ser discriminats/des o el dret a la intimitat i a la protecció de dades al·legats habitualment, es produeixen altres greus afectacions. Es poden destacar les vulneracions i ingerències a la llibertat personal (IA predictiva de  sistemes de justícia i policia), a la llibertat d’expressió (IA de xarxes socials, comercials, etc.) , a les llibertats de reunió i d’associació, a la llibertat sindical o al dret a la vaga (IA de control empresarial), al dret a accedir als serveis públics (IA dels serveis socials per atorgar ajuts i subvencions), al dret a intervenir en processos participatius de caràcter polític (IA per eleccions, referèndums, iniciatives populars), a les llibertats de l’àmbit ideològic (IA de mineria de dades i microtargeting polític), etc.

Al projecte de Reglament d’IA es pot veure clarament la confrontació entre els valors de la UE, d’una banda, i els dels Estats Units i la Xina, d’altra. La UE vol prohibir taxativament aquells sistemes d’IA que poden implicar la manipulació de les persones, com va succeir al cas de Cambridge Analytica, o la qualificació social basada en IA a l’estil del crèdit social xinès. Igualment, es vol limitar molt l’ús de sistemes d’identificació biomètrica que poden comportar una gran ingerència en diversos drets fonamentals. Altrament, l’aplicació del Reglament Europeu de Protecció de Dades (RGPD) obliga a l’ús de fonts lícites pel funcionament dels chatbots més coneguts, que són propietat d’empreses de Silicon Valley, la qual cosa actualment és qüestionada per moltes autoritats de controls dins del territori de la UE.

Aquesta nova normativa de la UE també regula els sistemes d’IA que poden comportar un alt risc per a la salut, per la seguretat o pels drets fonamentals. En aquests casos no serà suficient una auditoria abstracta de les seves funcions, sinó que caldrà una anàlisi qualitativa dels diversos casos d’aplicació.

En conclusió, aquesta conformitat amb els valors i principis rectors de la UE s’haurà de determinar de manera sistemàtica i contextual, tenint en compte l’impacte social que pot generar en els diversos àmbits d’aplicació. Això comporta un repte molt important per la UE, que haurà de tornar a liderar, tal com va fer amb la protecció de dades personals, la garantia i defensa dels drets fonamentals davant l’imparable avenç de la IA.

Deixa un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *