Les ‘fake news’ i la postmentida

Els algorismes ignoren què és l’ètica. I l’equitat. Han estat dissenyats amb altres objectius. I en aquests encàrrecs sí que acostumen a ser eficients. Però les reflexions de caràcter moral els resulten alienes. Aquesta idea de la professora de la Universitat de Califòrnia a Berkeley (Estats Units) Deirdre Mulligan culmina amb una frase demolidora: “Les dades no són justes”. Cal preguntar-se si algun dia ho podrien arribar a ser. Molts col·legues seus estan convençuts que sí.

Per als programadors, el deep learning, que resulta més complex que els algorismes que l’han predit, dificulta el repte. El blindatge de la informació per evitar intromissions en la privacitat de les persones impedeix que vigilants externs sàpiguen on incidir perquè el big data no acabi sent discriminatori sense saber-ho. La professora de la Universitat de Nova York Kate Crawford afirma que aquests sistemes “influiran en les nostres principals institucions socials”.

Les fake news a Facebook durant la campanya presidencial nord-americana el 2016 constitueixen el paradigma de què pot passar. Els algorismes de la xarxa social no van ser pensats per distingir la veritat de la mentida. Feien circular més aquelles peces que satisfeien el gust de l’usuari i, com que el més popular en aquell moment no estava necessàriament contrastat, va gaudir d’una difusió extra per part d’un suport tan poderós com aquest. La intel·ligència artificial va ser tòxica sense buscar-ho en cap moment.

Una altra investigadora, Timnit Gebru, vinculada a la Universitat d’Stanford, hi afegeix que la discriminació que poden introduir aquestes eines és greu, per exemple, a l’hora de rebutjar possibles assegurats si pertanyen a un determinat col·lectiu que surt malparat en una anàlisi massiva de dades.

La mentida és tan antiga com la pròpia humanitat i l’origen de les denominades fake news probablement es remunti al naixement del periodisme. Es pot pensar que, des del moment en què hi va haver interessos vinculats a la informació d’actualitat, es van donar casos de manipulació. El concepte —fake news—s’ha estès de manera massiva molt recentment, en sintonia amb un altre terme que també està sent molt utilitzat: post-veritat. Són paraules que funcionen com a armes llancívoles que els contrincants polítics, els adversaris econòmics i els enemics culturals fan servir amb la voluntat de restar credibilitat al que diu la part a la qual s’oposen.

La tecnologia ocupa una posició central. Les plataformes i les eines digitals —internet, xarxes socials, dispositius mòbils…— ajuden a produir i difondre mentides a gran escala com en cap altre moment.Els analistes avisen del perill de caure en el risc oposat, és a dir, ignorar aquells continguts que ens arribin a través d’aquests mecanismes. En poc temps, nombrosos agents han passat d’un extrem a l’altre, de manera que, ara, no volen saber res de cap material que hagi estat creat virtualment o que hagi viatjat pel ciberespai.

La investigadora Yin Yin Lu, de l’Oxford Internet Institute (Regne Unit), alerta de l’amenaça de restringir la llibertat d’expressió amb el pretext de combatre les denominades fake news: “No informar sobre alguna cosa és tan perillós com explicar una mentida”, diu. Aquesta classe de legislació “frenaria els professionals dels mitjans a l’hora de publicar la veritat” si aquestes històries fossin “escàndols” incòmodes pels qui exerceixen el poder.

Sobre qui recau la responsabilitat? Per a Yin Yin Lu, les xarxes, amb la col·laboració dels seus usuaris, haurien d’“implementar una solució” per explicitar la “qualitat” de les “fonts” del material que es comparteix al web. Des que el president nord-americà Donald Trump va popularitzar aquesta expressió durant les eleccions del 2016, els analistes parlen de post-veritat i els votants de tot signe i condició recelen més i més dels polítics i els periodistes, especialment, si no els són afins.

La combinació adequada d’intel·ligència artificial i realitat augmentada pot acabar amb la mentida. És la hipòtesi de treball de diversos equips de científics, empreses i institucions que s’han entestat a combatre els enganys mitjançant la tecnologia per garantir la seguretat dels ciutadans de tot el món. La discussió ètica que genera aquesta innovació és tan complexa com els mecanismes que cal aplicar per aconseguir aquest objectiu.

S’estan fent els primers passos en aquesta direcció a través de dispositius pràctics i assequibles, com els smartphones i les ulleres intel·ligents. Les tradicionals màquines de la veritat, és a dir, els polígrafs, estudien la respiració, la pressió sanguínia i altres indicadors fisiològics per descobrir nivells d’estrès als qui s’estan sotmetent als interrogatoris. Com que resulten molt controvertits i no són precisos al 100 per cent, els resultats que ofereixen –sempre controlats per un expert en l’ús d’uns equips que són bastant costosos– no són admesos com a proves irrefutables per la justícia de nombrosos països.

L’alternativa digital es basa en gestos, moviments oculars, entonacions de veu, etc. Si hi ha sistemes d’intel·ligència artificial capaços d’esbrinar com se senten les persones que són gravades per una càmera, per què no podrien desemmascarar els mentiders? Human és una companyia britànica que es dedica a aquesta activitat amb els mòbils. El seu negoci s’orienta a la localització de fraus, l’anàlisi de la satisfacció dels clients i la contractació de treballadors. Una altra firma similar, la nord-americana Converus, comercialitza un article anomenat EyeDetect, que observa la dilatació de les pupil·les per saber quan algú està mentint.

Milions d’usuaris viuen amb la il·lusió que han encetat una relació de confiança amb altres internautes amb qui no coincidiran mai físicament. Proliferen els perfils els titulars dels quals no ens miren als ulls perquè són robots. Comparteixen notícies, se’ns uneixen fugaçment en campanyes solidàries i, a continuació, ens expliquen acudits. En temps de postveritat i fake news, la mentida, l’engany i la impostura també es projecten a Facebook i els xats entre suposats amics.

Quan es funciona així, gairebé no hi ha incentius per sincerar-se i ser honest. Però, fins i tot en clau econòmica, està comprovat que els mercats anònims no són òptims, segons han subratllat als seus articles els professors Wojtek Przepiorka, Andreas Diekmann, Ben Jann i Stefan Wehrli, adscrits a universitats com les d’Oxford (Gran Bretanya), Zuric o Berna (ambdues a Suïssa).

Perquè una societat sigui sana, els seus membres s’han de donar a conèixer, sense màscares. És igualment imprescindible que puguin conservar una esfera privada que resulti inexpugnable per a delinqüents, usurpadors i tafaners. Lorrie Faith Cranor, directora d’un laboratori centrat en aquesta disciplina a la universitat nord-americana de Carnegie Mellon, destaca que es tracta d’un exercici difícil que preocupa un percentatge elevat de navegants i ocupa sectors sencers, com la seguretat informàtica o la ciberètica.

Tothom s’hauria de poder recollir sense haver de refugiar-se en secret, sigui on sigui: al pla offline, a la dimensió en línia o a l’entorn mixt que es configura al nostre voltant. Allò normal no es pot veure com una cosa clandestina. Ens hem de capacitar per moure’ns amb les màximes garanties per una geografia virtual que no podrem explorar mai completament perquè no deixarà d’expandir-se. Podrem mantenir així una resistència constant, simultàniament sòlida i assenyada. Altrament, haurem d’arribar a l’extrem de reconquerir una parcel·la que només pertany a cadascú de nosaltres o viure en la postmentida.

La investigadora Yin Yin Lu alerta de l’amenaça de restringir la llibertat d’expressió amb el pretext de les ‘fake news’: no informar és tan perillós com dir una mentida

Deixa un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *