Apunts | La Intel·ligència Artificial a debat: amiga o enemiga?

APUNTE_KARINA GIBERT_CATALA
Data de publicació: 10/2024
Autor:
Karina Gibert, catedràtica i directora del centre de recerca en Ciència Intel·ligent de Dades i Intel·ligència Artificial de la Universitat Politècnica de Catalunya (IDEAI-UPC); degana del Col·legi Oficial d’Enginyeria Informàtica de Catalunya
Descarregar PDF

Vivim un moment de canvi d’era social, anunciat el 2018 per l’Organització de les Nacions Unides com la fi de l’era post revolució industrial i el trànsit cap a la societat digital. La importància d’aquest procés queda reflectida en els vertiginosos avenços tecnològics de les darreres dècades en matèria digital, i que comprenen la Internet de les coses, la proliferació de tot tipus de dispositius mòbils, les telecomunicacions d’última generació (5G, 6G), la computació d’altes prestacions o els avenços en ciberseguretat (cadenes de blocs o blockchain), que estableixen les bases per a un canvi d’ordre i estructura social i econòmica que ja ha començat. Entre totes elles, destaca la Intel·ligència Artificial (IA) com a peça clau per extraure valor estratègic de les múltiples i variades dades que avui generem i consumim.

Per tal de posar ordre en aquest mar de dades, les institucions europees van decidir llançar la seva estratègia de protecció de dades l’any 2016, la més estricta del món i que, amb els anys ha evolucionat cap a la proposta de Llei d’Intel·ligència Artificial de la UE (EU Artificial Intelligence Act), d’abril de 2021, el famós projecte legislatiu europeu que busca regular el desenvolupament de la Intel·ligència Artificial a Europa i que va derivar en la Regulació Europea d’Intel·ligència Artificial, aprovada el passat juliol i en vigor des del passat 1 d’agost. 

L’ambició de la humanitat per fer-se grans preguntes ve d’antic. L’estat de la tecnologia permet ara recollir moltes més dades més ràpidament i processar en temps real demandes molt més complexes que obren la possibilitat de gestionar la complexitat des d’una nova perspectiva. L’escenari tecnològic actual ens permet concebre acrobàcies analítiques com la tarificació dinàmica (o dinamic pricing), que determina en temps real com apujar o abaixar el preu dels productes d’un negoci al llarg del dia per maximitzar-ne les vendes, o, en el camp de la salut, les immenses possibilitats que s’obren en el diagnòstic per la imatge, on tenim, per exemple,  algorismes de visió per computador capaços de detectar tumors on cap ull humà veu res encara i on els sistemes intel·ligents en general poden multiplicar exponencialment la potència de reconeixement de malalties. Estem, doncs, davant d’uns avenços ambivalents: tothom mira amb desconfiança les utilitats que van en la direcció del primer exemple i diposita la seva esperança en els usos del segon; en aquestes línies es mouen els debats actuals, entre el desafiament i la promesa.

És per això que el repte avui és esbrinar el destí i els usos que es donen a les nostres dades, i determinar els que hi voldrem donar. La UE ha encarat el repte amb la AI Act, que ha seguit un procés legislatiu lent i complex, degut a totes les garanties que ha de complir i ha derivat en la Regulació Europea de la IA, en vigor des de l’1 d’agost i que el 2026 ha d’estar totalment implementada. En aquests moments els debats sobre els usos de la IA es multipliquen. 

El primer d’aquests debats gira a l’entorn de si cal que la IA treballi sempre sobre bases de les dades massives (o big data). La resposta és clara: no només hi ha situacions en què no calen les dades massives, sinó que a vegades no és possible obtenir-les (com en el cas dels assajos clínics on es treballa amb un mínim de participants per qüestions òbvies de bioètica). Cal que ens preguntem si és necessari que el nostre rellotge intel·ligent registri la nostra temperatura corporal cada cinc segons quan els episodis de febre ocupen molt poques mesures al cap de l’any. Registrar i emmagatzemar per defecte totes les mesures de temperatura normal, en realitat no ens aporta cap informació, però  consumeix temps de computació, espai al núvol i una energia que no ens podem permetre. Necessitarem aviat replantejar polítiques d’economia de les dades encaminades a trobar noves maneres de representar-les, obviant les no informatives sense perdre la capacitat de modelar. 

Un segon debat en curs versa sobre la protecció de les dades personals, i com queden garantits el dret a la intimitat, a la privacitat i a l’oblit. Cal ser conscients que en l’expansió inicial d’aquest sector, i en absència de regulacions, pràcticament tot valia i es recollien indiscriminadament dades personals que s’empraven per fer models i dirigir campanyes de màrqueting personalitzat, molt al límit de la manipulació. I això s’aplica també a dades sensibles de l’entorn empresarial. En l’àmbit estatal, la Llei orgànica 3/2018, de 5 de desembre (LOPDGDD) ‒que desenvolupa la Regulació Europea de Protecció de Dades (o RGPD) europeu‒ ja prohibeix el reconeixement facial sense consentiment, l’ús de dades personals i sensibles sense consentiment (encara que siguin públiques) i els scrappings, i reconeix el dret a l’oblit, dret que encara és d’implementació. Tampoc no queda ben definida encara la garantia de preservació del secret estadístic o la reidentificació, que  perilla quan  les dades es creuen amb informacions complementàries ‒com, per exemple, dades de salut amb dades d’habitatge‒ i s’acaben revelant les identitats protegides o ocultes.

Un altre debat rellevant versa sobre els biaixos de la IA i els seus efectes. En realitat, són conseqüència d’una mala praxi generalitzada del sector, que és la de no fer un disseny mostral ni un disseny d’experiments per configurar la composició i la distribució de les dades que han d’alimentar una IA, i on és habitual arreplegar el primer joc de dades que es té a l’abast per entrenar-la. En aquest cas, per exemple, si l’empresa que desenvolupa una aplicació només compta amb treballadors homes blancs, el resultat disfuncionarà per altres col·lectius com el de les dones grans i negres, per exemple. La manca d’inversió en les etapes de validació i testeig dels models d’Intel·ligència Artificial un cop entrenats i abans d’entrar en producció tampoc ajuda. És convenient desenvolupar certificacions que garanteixin la composició de les dades d’entrenament d’una IA i n’informin ‒a l’estil dels ingredients dels aliments processats o la composició dels medicaments‒. Aquest certificat ajudaria a saber si les dades utilitzades són representatives de la població sobre la qual opera la IA i si la IA pot funcionar amb un mínim de garanties. També les proves de validació del sistema requereixen un disseny adequat i suficient dedicació per garantir que davant de situacions inesperades, el sistema es manté robust, i ajudaria a reduir desigualtats ‒i en particular l’escletxa de gènere‒  en lloc de cronificar i amplificar les que potser ja existeixen.

Un altre debat apel·la a si la introducció  d’IA en l’Administració pública pot generar desigualtat social i com evitar-la. Avui, la ciutadania està molt intranquil·la davant d’algunes pràctiques ja en exercici com el sistema de crèdit social vigent a la Xina, o el mercadeig legalitzat de perfils psicològics extrets de la nostra petjada digital, i que el sector privat estatunidenc pot vendre a altres empreses, com per exemple a la nostra companyia d’assegurances de vida. Afortunadament, Europa lidera accions per impedir aquestes pràctiques. Tenim constància també que l’Administració catalana està compromesa a treballar millor i més eficientment, per exemple, en la gestió de serveis i prestacions socials.  Però a banda de la qüestió tecnològica, cal abans canviar la percepció que la ciutadania té del govern i establir noves formes de gestió pública basades en les relacions de confiança entre l’Administració i la ciutadania, fent més visible el paper de l’Administració com a garant del benestar de les persones i no tant la seva funció fiscalitzadora.

Un altre debat analitza si desenvolupar sistemes intel·ligents que segueixin les recomanacions ètiques de la UE priva la nostra indústria de suficient  avantatge competitiu  en un mercat globalitzat com és el de la IA. Aquest és, de fet, un dels grans reptes que necessitem resoldre per mantenir el nostre lideratge internacional i la solvència de les companyies europees. Calen, doncs, fórmules noves que minimitzin l’impacte de la regulació i de les recomanacions ètiques sobre la competitivitat de les empreses, especialment les petites, que són les que pateixen més les despeses derivades de la implementació d’aquestes directrius. Aquestes mesures incrementen els costos de desenvolupament, retarden la sortida al mercat i, probablement, si només s’han pogut entrenar amb dades consentides, les aplicacions esdevenen menys precises i els processos d’innovació queden molt limitats.

Finalment, el darrer debat versa sobre l’impacte de la IA sobre el mercat de treball. Veurem com la IA passa a desenvolupar feines que fins ara duien a terme les persones? No hauria de ser així. Tots els moments disruptius del passat i de transició cap a un nou ordre social com el que estem vivint van fer emergir tot un seguit de tasques noves, que abans no existien i que han creat la necessitat de formar nou talent per gestionar-les. L’objectiu hauria de ser  que algunes tasques feixugues que a partir d’ara podrà fer la IA descarreguin a la persona treballadora. És l’organització que ha de dissenyar polítiques on aquest temps guanyat per a les persones treballadores reverteixi en condicions de treball menys estressants i no en acomiadaments massius, que posarien en perill la dimensió social positiva de la transformació digital. Caldrà, doncs, no només requalificar i acompanyar els treballadors menys preparats pel canvi, sinó que, quan faci falta, s’hauran de preservar espais de col·laboració entre la IA i la persona, d’acord amb el primer eix del model europeu d’ètica de la IA, que demana que la IA no tingui agència i que generem assistents intel·ligents, més que no pas sistemes intel·ligents totalment autònoms. Tindrem un desenllaç o un altre, depenent de si optem per substituir les persones per les màquines o, per contra, aprofitem el temps lliure que les màquines ens concediran per enriquir la nostra vida social, millorar el tracte amb els clients o validar millor les eines intel·ligents futures per tal de prevenir disfuncions. 

L’espai que concedim a la IA dependrà de nosaltres, i encara s’ha de determinar.