La IA, el gran canvi per la societat Respon

Laia Márquez Muñoz. Investigadora al Grup d’Administració Digital i Electrònica de la UOC i doctoranda a la Universitat de Girona.

Les administracions públiques han anat canviant al llarg del temps per adaptar-se a la societat en cada moment i a cada territori. La present dècada del segle XXI, sense cap mena de dubte, és l’era de la Intel·ligència Artificial (IA).

Com ens afecta i ens afectarà l’ús de la IA en les administracions públiques com a ciutadans i ciutadanes?

D’una banda, la intel·ligència artificial ens afecta i ens afectarà de manera positiva en el dia a dia de la ciutadania. Les noves tecnologies permeten prestar uns serveis públics de manera més eficaç, eficient i personalitzat. Per exemple la IA, a través de xats com GPT, podrà recomanar-te que t’has de prendre quan et trobes malament. La resposta serà gairebé immediata, amb una despesa de pocs recursos i tindrà en compte el teu historial mèdic. Avui dia els xats, a través de l’anàlisi de dades i patrons de comportament, ja comencen a preveure quin medicament t’hauries de prendre, tot i que encara estan en un moment inicial.

La fortalesa de la digitalització està també en la millora de  la transparència, el rendiment de comptes i el reforçament de la democràcia dels ens públics amb l’objectiu d’aconseguir una alta satisfacció de la ciutadania amb les administracions. Conèixer el què, el com i el per què de les decisions públiques i poder participar com a ciutadania és clau per assegurar que aquestes es prenen de manera justa.

Per Arias[i] (2021), la utilització de la intel·ligència artificial permet crear dades massives i algoritmes matemàtics que ajuden a prevenir i a millorar l’eficiència de les administracions públiques. Un exemple és el “Sistema d’Alertes Tempranes” (SAT)[ii] de la Comunitat Valenciana. La Conselleria de Transparència de la Generalitat Valenciana utilitza des del 2018 una aplicació informàtica que alerta, de manera automàtica, sobre procediments irregulars en l’Administració Pública i també sobre les condicions que poden portar a futurs casos de corrupció, tot i que finalment potser no ho seran.

D’altra banda la IA té unes debilitats que com a ciutadans ens afecten o ens afectaran de manera directa o indirecta i que cal tenir en compte per a poder minimitzar-les. 

En primer lloc, l’ús excessiu de la IA ens pot portar a una dependència de la tecnologia. Si totes les decisions públiques les prenen les màquines, no tindrà sentit tenir democràcies i acabaríem vivint en la dictadura de les noves tecnologies. I, el que és més trist: qui s’hauria de fer càrrec dels danys que pugui causar la IA? La resposta és ben clara: per ara ningú. Les màquines no tenen els drets i els deures de la ciutadania (en la meva opinió hauria de continuar així) i, conseqüentment, no poden ser jutjades i enviades a presó.

En segon lloc, les noves tecnologies vulneren els drets fonamentals, com el dret a la privacitat, i crea biaixos en les pròpies dades. La IA utilitza diàriament dades personals de tots i totes nosaltres per aconseguir una finalitat, encara que moltes vegades no som conscients. Per exemple, des de les administracions es pot fer servir un càlcul algorítmic per determinar a quines persones s’atorga una determina ajuda i a quines no. Ara bé, realment no es coneix on arribaran aquestes dades i per a quins fins s’empraran.

Possiblement, el cas més mediàtic sobre el control de les dades va ser l’escàndol de Cambridge Analítica amb les eleccions americanes del 2016. El partit republicà, llavors liderat per Donald Trump, va contractar a l’empresa Cambridge Analítica perquè manipulés informació a través de Facebook amb la finalitat que la seva formació guanyés les eleccions (que és el que va acabar passant). Segons Pablo de Llano[iii] (2018), Cambridge Analítica va manipular dades de 50 milions d’usuaris, una dada que mostra la poca seguretat que hi ha a les xarxes.

A la vegada, com que la IA es basa en l’entrenament, les màquines poden tenir biaixos. L’estudi de Grother, Nghan i Hanaoka[iv] (2019), publicat a l’Institut Nacional Estàndards i Tecnologia (NIDT) del govern dels Estats Units, assenyala que els algoritmes de reconeixement facial (com poden ser les màquines que hi ha en l’Aeroport de Londres) tenen dificultats per reconèixer persones asiàtiques i afroamericanes creant biaixos en les pròpies màquines.

Què hem de fer doncs com a societat per a potenciar les fortaleses de la IA i disminuir les seves amenaces?

  1. Elaborar unes normes bàsiques internacionals i un codi ètic sobre l’ús de la IA basades en uns principis compartits per tots els estats. Vivim en un món globalitzat, el que passa en un lloc acaba repercutint en tot el món, la pandèmia de la covid-19 va ser un exemple de com estan de connectats tots els països. Si un estat permet un desenvolupament de la IA sense control i un altre estat és molt restrictiu no té cap sentit, ha de ser una aposta internacional. Per a aconseguir-ho proposo crear una mena d’ONU de les noves tecnologies.
  2. Formar a la ciutadania i als treballadors públics. Tothom ha de conèixer els pros i els contres de les noves tecnologies i s’ha de prendre consciència del que estem vivint avui dia.
  3. Crear òrgans superiors que vigilin l’ús de la IA. Tant les administracions públiques com les empreses privades fan ús dels algoritmes i, per això, és important que hi hagi ens que controlin el bon ús de la IA.
  4. Treballar amb equips transversals. La governança de les dades no és solament un tema d’informàtics, és una qüestió de la humanitat. Per aquest motiu és imprescindible que tots els col·lectius de la societat treballin conjuntament per arribar a acords compartits.
  5. Potenciar la recerca en les universitats i els centres de recerca. Avaluar les polítiques de la IA és clau per a identificar quins són els impactes reals que està tenint en el dia a dia de la ciutadania.

En conclusió, la IA sense cap mena de dubte ha vingut per quedar-se, ja no és ciència-ficció, és la realitat. Com a societat hem de ser conscients dels aspectes negatius i positius, ressaltant aquests darrers i potenciant polítiques que disminueixin les amenaces de les noves tecnologies contra la humanitat, amb la finalitat de crear una col·laboració humanitat-IA en comptes de veure la IA com una amenaça.


Fonts documentals

[i] Arias, H. (2021). La tecnología como herramienta para atacar la corrupción. La República. https://www.larepublica.net/noticia/la-tecnologia-como-herramienta-para-atacar-la-corrupcion

[ii] Blesa, T. L. (2017). Una aplicació informàtica detectarà possibles casos de corrupció en la Generalitat Valenciana. València Extra. https://www.valenciaextra.com/tecnologia/una-aplicacio-informatica-detectara-possibles-casos-de-corrupcio-en-la-generalitat-valenciana_28595_102.html

[iii] Grother P, Nghan M, Hanaoka K (2019) Face Recognition Vendor Test (FRVT) Part 3: Demographic Effects. National Institute of Standards and Technology https://nvlpubs.nist.gov/nistpubs/ir/2019/NIST.IR.8280.pdf

[iv] Llano, P. (2018). Una consultora que trabajó para Trump manipuló datos de 50 millones de usuarios de Facebook. EL PAÍS https://elpais.com/internacional/2018/03/17/estados_unidos/1521308795_755101.html

Deixa un comentari