Pot la IA detectar víctimes de maltractament?

La Junta d’Andalusia vol detectar situacions de violència de gènere analitzant la veu de dones a través de les noves tecnologies. És ètic? Què passa després amb la víctima i el maltractador?

La Intel·ligència Artificial (IA) s’està fent servir de maneres innovadores per identificar i ajudar les dones víctimes de maltractament, i ofereix una dimensió nova a aquesta qüestió tan complexa. Tot i que les aplicacions de la IA en aquest context prometen ser una ajuda significativa, també plantegen interrogants ètics crucials que cal abordar amb prudència i responsabilitat.

A Espanya ha estat la Junta d’Andalusia qui ha fet un pas avantguardista en recórrer a la intel·ligència artificial amb l’objectiu de detectar possibles víctimes de maltractament. Aquesta iniciativa, impulsada per professionals de la salut i investigadors, busca un nou enfocament per identificar situacions de violència de gènere que podrien passar desapercebudes. Mitjançant l’anàlisi del to de veu i altres indicadors acústics, s’ha desenvolupat un programari específic per ajudar a reconèixer potencials casos de maltractament, fins i tot quan les dones no poden o no volen expressar-ho obertament.

La tecnologia, anomenada Certeza de Voz, es posarà en marxa al telèfon 061 del servei de salut de la comunitat. L’evidència científica demostra que hi ha símptomes, tant físics com emocionals, relacionats amb l’angoixa i la por per maltractament, i també hi ha constància de les dificultats de les dones per posar paraules al que estan vivint, acceptar-ho i fins i tot denunciar-ho. Tenint en compte aquests fets, les trucades a emergències relacionades amb ansietat, dolor toràcic o dificultat per respirar, entre d’altres, s’analitzaran amb la IA per poder, en el futur, distingir una possible etiologia per maltractament.

Els conflictes ètics no es fan esperar i són els que acompanyen l’ús de la IA: sabran les usuàries que els analitzen la veu?, es respectarà la intimitat i la confidencialitat?, quina fiabilitat té aquesta nova tecnologia? Si es mira amb més profunditat, apareix un conflicte important relacionat amb l’ús posterior de les dades: si les dones no volen denunciar, però hi ha constància que són maltractades, només per la veu es posarà en marxa un procés judicial contra el presumpte maltractador? Com que això no tindria sentit, caldran recursos socials, policials i judicials per investigar i posteriorment acompanyar les possibles víctimes en la denúncia. Hi ha pressupost per a aquest fi? Si la societat encara nega la violència masclista, les dones no se senten segures per parlar i denunciar, no s’està començant la casa per la teulada? O pel contrari, el fet de poder identificar les víctimes pot donar peu a actuacions d’ofici per protegir-les a elles i a la societat en conjunt tot visibilitzant la incidència real de la violència masclista? 

Ara per ara, el projecte tira endavant amb l’objectiu que funcioni a ple rendiment el 2024. Això suposa que la tecnologia treballarà amb les dades recollides durant el 2023 i no tindria en compte els aspectes contextuals socials, econòmics i polítics, com tampoc hi ha un full de ruta de com s’abordaran els casos identificats. Una primera opció seria l’actuació d’ofici i la intervenció amb el presumpte maltractador, però això generaria dificultats legals i ètiques. Una altra opció interessant podria ser desplegar de manera paral·lela un programa de sensibilització per a professionals i comunitat i/o un circuit concret per poder donar opcions reals de suport a les dones dels casos on la IA identifiqui maltractament. Potser una alternativa prudent seria l’anàlisi ètica i crítica de la proposta tot entenent la importància de proves pilot abans de fer passos sense les idees clares en un món tecnològic on encara hi ha molt per comprendre. 

Deixa un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *