Pot la Intel·ligència Artificial resoldre dilemes ètics?

La millora imparable de les noves tecnologies és una realitat dels nostres dies. Les eines de software capaces d’emmagatzemar i analitzar quantitat i tipologia de dades fins ara impossible han portat la possibilitat d’un ús que va més enllà de la revisió descriptiva. El Big Data i els algoritmes de darrera generació han configurat la Intel·ligència Artificial (IA), un software especialitzat en la predicció, les tendències i la presa de decisions amb una fiabilitat considerada impressionant. Moltes gestions i tràmits administratius es comencen a automatitzar fins al punt que la intervenció humana es resumeix en la programació del codi de l’algoritme que prendrà la decisió. Els resultats queden modulats per la informació prèvia que s’ha introduït. 

A Espanya, un exemple és l’aplicació BOSCO, un codi que decideix quines persones usuàries de companyies elèctriques tenen dret als descomptes per raons socials. A un nivell encara més global hi ha l’Agència Tributària, que va explicitar en el seu pla estratègic 2020-2023 el seu interès per les macrodades, l’estudi de les potencialitats de la seva explotació i la posada en marxa d’equips d’analistes especialitzats. Ho va fer emparant-se en la Directiva 2019/1024 del Parlament Europeu, que autoritza l’accés lliure a dades massives si es pot justificar un benefici per a la societat. El mateix pla especificava que les noves tecnologies d’Intel·ligència Artificial també es podrien arribar a utilitzar en la lluita contra el frau. Dos exemples que posen sobre la taula els possibles conflictes ètics implícits: l’accés a dades sensibles, la seva gestió per fer prediccions i quin ús es farà de les decisions o situacions que proposi la Intel·ligència Artificial.

Però quan encara no s’han resolt tots els aspectes ètics i legals d’aquesta tecnologia es publica l’existència d’un codi creat per resoldre dilemes ètics. Un software enfocat cap el deep learning, un algoritme que pot anar “aprenent” en funció de les dades que va rebent, capaç d’analitzar una situació plantejada com a dilema ètic o moral. L’algoritme, anomenat Delphi, revisa un conflicte i dona la seva opinió categoritzant en bé, acceptable o dolent. Quan va ser provat valorant el genocidi va concloure que “estava bé” sempre que fes feliç “a tothom”, una sorpresa pels seus creadors.

Malgrat algunes actualitzacions en el programa, semblaria que segueixen apareixent biaixos de gènere o fins i tot resultats diferents segons com es planteja el dilema. La reflexió apunta a les possibles conseqüències d’aquests processos: pot una màquina resoldre conflictes ètics? Els programadors aboquen de manera inconscient les seves pròpies mirades del món? És el Delphi un exemple del biaix dels programadors o és un reflex del món real? Es poden consultar aquests codis per assegurar que estan ben fets? Són lliures d’influències? Cal una persona per assegurar imparcialitat o tenim els mateixos obstacles que podria presentar una IA?  

És clar que com a societat podem anar cap a un model on els programes informàtics ens permetin prendre les decisions més complexes o ens podem posicionar en un escenari bucòlic on cap màquina s’apropiï de la raó i del seny. Però també es podria plantejar un espai intermedi on aquests algoritmes siguin una eina de suport per a l’aprenentatge i per a desenvolupar mètodes sense deixar de banda la dissertació, el diàleg i la mirada amb matisos que potser només les persones poden aportar.

En un món tecnològic és essencial l’acompanyament amb perspectiva ètica que permeti avaluar on anem i quines conseqüències ens trobarem pel camí.

Deixa un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *