El costat fosc de la intel·ligència artificial urbana: abordar l’impacte mediambiental i social dels algorismes

CIDOB Briefing 55
Data de publicació: 01/2024
Autor:
Marta Galceran-Vercher i Adrià Rodríguez-Perez
Descarregar PDF

Aquest CIDOB Briefing resumeix les principals conclusions del seminari internacional «El costat fosc de la intel·ligència artificial urbana: abordar l’impacte mediambiental i social dels algorismes», celebrat el 19 de juny de 2023 a CIDOB i organitzat pel Programa de Ciutats Globals del CIDOB amb el suport de l’Ajuntament de Barcelona. Acadèmics, experts i professionals es van reunir per deliberar i oferir recomanacions per a la governança eficient i l’ús d’eines algorísmiques en entorns urbans, amb la finalitat de mitigar els reptes ambientals, socials i polítics associats a la intel·ligència artificial.

Logos Briefing 55

Avui dia estem experimentant un augment dels esforços mundials per establir marcs de governança per a la intel·ligència artificial (IA): des del Decret executiu dels Estats Units sobre el desenvolupament i l’ús segurs, protegits i fiables de la IA (octubre del 2023), fins a la Cimera sobre seguretat de la IA al Regne Unit (novembre del 2023), passant per un projecte refós de Convenció del Consell d’Europa sobre IA, drets humans, democràcia i estat de dret (juliol del 2023), i sense oblidar l’acord polític aconseguit el desembre del 2023 (que es ratificarà el 2024) entre els negociadors del Parlament Europeu i el Consell per adoptar la Llei d’intel·ligència artificial (AI Act) de la Unió Europea (UE). El Compendi d’iniciatives sobre la IA del Consell d’Europa mostra que, en l’actualitat, hi ha més de 600 iniciatives en curs destinades a regular aquesta matèria. 

Tanmateix, què cal regular en matèria d’algorismes? Segons un article publicat recentment a The Economist, qualsevol regulació de la IA hauria de respondre, en primer lloc, tres preguntes clau: De què s’ha de preocupar el món? Quin ha de ser l’objectiu de les normes? Com s’han d’aplicar? Possiblement cap de les iniciatives en curs per regular la IA aconsegueixi resoldre el problema de l’impacte d’aquesta tecnologia en el medi ambient i la societat. I, de fet, la qüestió es torna encara més espinosa si tenim en compte el nombre elevat d’actors involucrats en la governança de la IA: no solament hi estan implicats els governs, nacionals o locals, ni les organitzacions intergovernamentals. Els agents privats —i especialment les empreses— també exerceixen un paper cada vegada més important, si no el principal, en algunes d’aquestes iniciatives. 

En aquest CIDOB Briefing es recullen les conclusions del seminari internacional «El costat fosc de la intel·ligència artificial urbana: abordar l’impacte mediambiental i social dels algorismes», celebrat el 19 de juny de 2023. En aquest informe aprofundim en dos aspectes crucials de la intel·ligència artificial i la governança algorísmica: en primer lloc, les conseqüències mediambientals de la intel·ligència artificial i, tot seguit, les implicacions socials i polítiques de caràcter més general derivades de l’ús dels algorismes. L’informe conclou oferint idees i recomanacions per a la governança eficaç de la intel·ligència artificial en contextos urbans. 

1. L’impacte mediambiental dels algorismes: «intel·ligència artificial per a la sostenibilitat» i «intel·ligència artificial sostenible» 

Existeixen dues perspectives interconnectades pel que fa a la relació entre la intel·ligència artificial i la sostenibilitat mediambiental, a les quals podríem referir-nos com a «intel·ligència artificial per a la sostenibilitat» i «intel·ligència artificial sostenible» (Van Wynsberghe, 2021)1. La primera implica l’ús d’eines algorísmiques en àrees que contribueixen a objectius ecològicament desitjables, com ara la protecció del clima. Alguns exemples d’aplicacions de la IA en aquest camp són el recompte d’arbres, l’estimació precisa de la biodiversitat en diferents zones, el seguiment en temps real dels patrons meteorològics, la previsió del consum d’energia, la qualitat de l’aire i les emissions de CO₂, així com la millora de l’eficiència en l’assignació de recursos. Aquests exemples il·lustren com la IA és una eina sòlida per prendre decisions ràpides i ben fonamentades, facilitant l’avenç cap a ciutats més sostenibles. En aquest context, la «intel·ligència artificial per a la sostenibilitat» explica l’adopció entusiasta de solucions basades en la IA per part de moltes ciutats. El projecte AI4Cities és un bon exemple d’aquesta tendència, ja que representa una de les iniciatives més significatives que mostra com les ciutats busquen activament solucions basades en la IA en els àmbits de l’energia i la mobilitat per donar suport a la seva transició cap a la neutralitat de carboni. 

Tanmateix, a mesura que es dediquen més recursos al desenvolupament i l’ús de solucions urbanes d’IA, cada vegada es fa més important tenir en compte l’impacte mediambiental d’aquestes tecnologies. En efecte, dissenyar, produir i utilitzar tecnologies d’aquest tipus requereix una infraestructura física que exigeix grans quantitats de recursos materials, com ara aigua, metalls, energia i treball humà. En conseqüència, no és solament el seu poder computacional el que planteja importants qüestions ètiques des del punt de vista de la sostenibilitat, sinó també la seva pròpia existència material. Al cap i a la fi, i com apunten Falk i Van Wynsberghe (2023, p. 7), «quina utilitat pot tenir un sistema d’IA per aconseguir objectius de sostenibilitat si el seu desenvolupament i ús frustren el propòsit inicial de la seva existència?» 

En aquest context, el terme «intel·ligència artificial per a la sostenibilitat» s’ha de distingir d’«intel·ligència artificial sostenible». Aquest darrer té a veure amb «el desenvolupament, l’aplicació i l’ús de la IA de manera que es redueixin al mínim les repercussions adverses de caràcter social, ecològic i econòmic dels algorismes aplicats» (Rohde et al., 2021, p. 1). Tanmateix, l’impacte mediambiental no és fàcil d’analitzar, i menys encara d’estimar. En aquest sentit, resulta fonamental disposar de dades objectives per abordar el debat sobre la relació entre els beneficis dels sistemes d’intel·ligència artificial i el seu cost mediambiental. En l’actualitat, però, els desenvolupadors i els operadors d’aquests sistemes no faciliten les dades necessàries, la qual cosa dificulta la formulació i l’aplicació de polítiques eficaces. Les últimes versions de la Llei d’intel·ligència artificial de la UE representen un avenç potencial, ja que poden obligar les empreses, per primera vegada, a mesurar i divulgar informació sobre l’impacte ambiental de sistemes algorísmics específics d’alt risc. Això podria implicar la incorporació de mètodes de recopilació de dades en aquests sistemes, inspirant-se en enfocaments ja consolidats per al seguiment del consum d’energia, les emissions equivalents de CO₂, el consum d’aigua, l’ús de minerals per a la fabricació d’equips informàtics i la generació de residus electrònics. Aquesta mesura, doncs, agilitzaria l’avaluació de la sostenibilitat dels sistemes d’IA (Mollen i Vieth-Ditlmann, 2023). 

Tanmateix, tenint en compte que l’avaluació de la sostenibilitat de la IA continua sent un àmbit incipient i en desenvolupament, l’índex SustainAI es pot considerar un altre avenç notable en aquesta direcció. Es tracta d’un instrument que ofereix un model molt complet per avaluar i millorar la sostenibilitat dels sistemes d’intel·ligència artificial. Aquest índex proposa avaluar la sostenibilitat mediambiental dels algorismes a través d’un procés compost per diferents etapes (a saber: planificació i disseny, dades, desenvolupament i aplicació) basant-se en quatre criteris2: consum d’energia, emissions de gasos d’efecte d’hivernacle, sostenibilitat en l’ús, i consum indirecte de recursos. Entre aquests criteris, l’alt consum d’energia (estretament vinculat a les emissions de gasos d’efecte d’hivernacle) se sol considerar la principal font de preocupació. No hi ha dubte que totes les activitats relacionades amb internet depenen en gran manera d’una quantitat considerable d’electricitat, procedent principalment de combustibles fòssils. Tanmateix, en comparació amb altres tecnologies, la IA —i en particular aplicacions com ChatGPT— destaca pel seu consum d’energia especialment elevat

Per començar, l’entrenament d’un model lingüístic de gran dimensió o altres models d’intel·ligència artificial requereixen grans quantitats d’energia. A més, aquests models lingüístics figuren entre els més extensos en l’àmbit de l’aprenentatge automàtic, ja que incorporen fins a centenars de milers de milions de paràmetres. El procés d’entrenament requereix diverses setmanes d’hores de GPU, cosa que contribueix a les emissions de carboni. A tall d’exemple, la quantitat d’energia necessària per entrenar BLOOM, un model lingüístic multilingüe d’accés lliure, equival al consum d’electricitat d’una llar estatunidenca mitjana durant 41 anys (Falk i Van Wynsberghe, 2023, p. 5). A més, els chatbots o qualsevol altre producte final necessiten electricitat cada vegada que s’utilitzen. Recentment, per abordar aquesta preocupació han sorgit algunes propostes, entre les quals la idea de col·locar als algorismes una etiqueta que reveli la quantitat d’emissions de CO₂ i l’energia informàtica utilitzada en la seva creació (Bender et al., 2021). Per a una administració municipal, donar prioritat a l’adquisició d’aquesta mena d’algorismes pot ser una bona manera de millorar la sostenibilitat ecològica de les seves iniciatives digitals, ja que la majoria de les tecnologies urbanes no són desenvolupades internament pel propi govern municipal. De la mateixa manera, les ciutats podrien donar prioritat a l’ús d’algorismes entrenats amb conjunts de dades petites i curades escrupolosament. Encara que aquest enfocament pot portar més temps, no solament contribueix a la sostenibilitat, sinó que també millora l’equitat i la precisió, contribuint així a la reducció de la «contaminació per dades». 

En segon lloc, és crucial tenir en compte la infraestructura més àmplia que suporta i vincula els equips informàtics, que comprèn el consum d’energia dels sistemes de xarxes, el manteniment dels centres de dades i els sistemes de refrigeració (Falk i Van Wynsberghe, 2023, p. 5). Això inclou la producció de xips informàtics i l’establiment de centres de dades en els quals opera la IA. Afortunadament, existeixen iniciatives encaminades a fer que els centres de dades siguin més ecològics, com els parcs de dades d’Estocolm (vegeu el quadre 1) o un projecte desenvolupat a París que utilitza l’energia dels servidors per escalfar l’aigua de les piscines. Tanmateix, és urgent ampliar els esforços a escala urbana, ja que aquestes mesures continuen sent més anecdòtiques que la pràctica habitual. 

Quadre 1_Briefing 55

2.  L’impactesocial dels algorismes 

De manera similar al que ocorre amb l’impacte mediambiental de la IA, existeixen dos punts de vista principals pel que fa a les dimensions polítiques dels algorismes, que podrien etiquetar-se com: «intel·ligència artificial per a la democràcia» i «intel·ligència artificial democràtica» (vegeu el quadre 2). Anàlogament, i encara que les repercussions polítiques i socials de la IA portin més temps investigant-se (per exemple, pel que fa a la desinformació i la informació errònia o a la discriminació algorísmica), les seves implicacions reals per a la política i les societats encara disten molt de ser clares. En aquest sentit, la majoria de les preocupacions semblen centrar-se en la possibilitat de la singularitat, és a dir, quan i/o si la IA superarà la intel·ligència humana. Tanmateix, i com va apuntar Shazade Jameson durant el seminari, «la veritable revolució de la IA serà mundana». De fet, probablement l’aspecte més problemàtic de la IA (generativa) és que el seu impacte no resulta evident a simple vista. 

Quadre 2_Briefing 55

Els algorismes ja estan integrats en moltes de les nostres pràctiques quotidianes, des de la cerca d’adreces en mapes o aplicacions mòbils de navegació fins a l’assistent de veu. Sense oblidar que la majoria dels serveis en línia es basen en la intel·ligència artificial: en general, el que veiem a la xarxa és el resultat d’algorismes de classificació i associació (com els motors de cerca o la publicitat en línia), i podem ser filtrats per un algorisme sense que ni tan sols ho sapiguem (en sol·licitar una ocupació, una hipoteca o inscriure’ns en programes mèdics i d’assegurances). 

Les administracions públiques també utilitzen àmpliament els algorismes, per exemple, per al diagnòstic mèdic, la vigilància policial, per trobar persones amb dret a rebre subvencions públiques o per decidir sobre la conveniència d’oferir protecció policial a les persones supervivents de violència de gènere. A escala local, molts municipis estan utilitzant models generatius d’IA per obtenir informació a partir de dades no estructurades, millorant la comprensió del que està succeint a la ciutat, així com eines algorísmiques per permetre que la prestació de serveis públics sigui més accessible i eficient (normalment en forma de chatbots)3. 

En tots aquests casos, se solen assenyalar diverses deficiències, i totes elles s’acostumen a reduir a qüestions de discriminació, transparència, precisió i fiabilitat. Els exemples abunden. El 2013, es va descobrir que les cerques a Google amb noms que «sonaven a persones de color» tenien més probabilitats de mostrar anuncis de serveis com ara la comprovació d’antecedents penals; l’any 2015, Amazon es va adonar que el seu nou sistema no qualificava els candidats per a llocs de desenvolupador de programari i altres llocs tècnics de manera neutral en relació amb el gènere; el 2018, es va descobrir que si a Google es configurava el gènere d’un usuari com a femení, se li mostraven menys anuncis d’ocupacions ben remunerades. 

Tanmateix, les empreses privades no són les úniques que utilitzen algorismes discriminatoris per raó de sexe i/o raça. També hi ha diversos casos en els quals s’ha descobert que els algorismes policials discriminen les persones en funció del seu lloc de residència, com a Chicago i Durham. Més recentment, la Fundación Eticas i la Fundación Ana Bella – Red de Mujeres Supervivientes han descobert que l’algorisme utilitzat pel Ministeri d’Interior espanyol per avaluar els riscos de les persones supervivents de violència de gènere, el sistema VioGén, no compleix el que promet: el 80% de les persones supervivents entrevistades van plantejar problemes amb l’ús de l’algorisme. Així mateix, a la ciutat de Rotterdam, es va descobrir que un algorisme que classifica les persones en funció del seu risc de frau entre els beneficiaris de prestacions socials discrimina les mares solteres

Aquestes deficiències es magnifiquen perquè els algorismes solen estar en mans d’un grapat d’empreses privades, en allò que Aviv Ovadya ha denominat concentració autocràtica. Aquests agents privats amb ànim de lucre no poden abordar per si sols els costos i els inconvenients de la IA. En molts casos, ni tan sols els investigadors que treballen en aquest camp comprenen del tot les recomanacions que fan els algorismes.

Quadre 3_Briefing 55

3. Lliçons apreses i reptes futurs per als governs locals 

a) La regulació i la governança comporten els seus propis reptes 

És un fet àmpliament reconegut que abordar els reptes que planteja la IA implica sovint buscar solucions a través de mesures reguladores. Tanmateix, la regulació de la IA comporta les seves pròpies dificultats, entre elles bregar amb el ràpid ritme dels avenços d’aquesta tecnologia, analitzar els elements que cal regular, i decidir qui regula i de quina manera. A escala mundial, les condicions geopolítiques actuals afegeixen un grau extra de complexitat a la tasca de regulació. 

Des del punt de vista europeu, el continent s’enfronta a les conseqüències d’una regulació excessiva, que provoca llacunes en la inversió en recerca i desenvolupament, així com en la creació de capacitat. De la mateixa manera, els participants en el seminari van expressar la seva preocupació pel fet que els requisits de regulació de la IA imposats per Europa puguin plantejar importants reptes per a les petites empreses i els projectes de codi obert. Per tant, sense deixar de reconèixer els aspectes positius de la Llei d’intel·ligència artificial de la UE —com el seu enfocament basat en els drets humans—, és essencial reconèixer les possibles repercussions negatives a llarg termini de la llei i abordar-les. 

Encara que molts països ja han publicat directrius nacionals sobre la IA, la majoria dels governs locals segueixen endarrerits en el desenvolupament de marcs reguladors a causa de la insuficient capacitat tècnica i política que posseeixen en aquesta matèria. Encara que no hi ha dubte que la governança és una tasca feixuga, del seminari es van extreure quatre lliçons essencials per orientar el progrés: 

 

  1. Centrar-se en els processos: si bé la majoria de les iniciatives de governança aborden els resultats de la IA, és fonamental reconèixer que l’aprenentatge (automàtic) és un procés continu, i les polítiques haurien d’intervenir com a part d’aquests processos.
  2. Governar la incertesa és una pràctica contínua: governar eficaçment la incertesa requereix esforços continus, amb mecanismes de retroalimentació i una cultura de suport que exerceixin papers vitals per permetre que les organitzacions, incloent-hi els governs locals, s’hi puguin anar adaptant amb el temps.
  3. Caldria establir la responsabilitat de les decisions en matèria d’algorismes.
  4. Pensar en gran, però començant pel més petit: la governança òptima es construeix a través de projectes, exemplificats per iniciatives com la denominada Data Governance Clinics. Aquest plantejament innovador alinea la governança de dades amb l’interès públic de les ciutats, i subratlla la importància d’adoptar un enfocament ambiciós però gradual per aconseguir objectius més amplis. 

 

b) Recursos humans: creació de capacitat i atracció de talent 

Els responsables de la presa de decisions han d’avaluar els recursos humans disponibles capaços de dissenyar, aplicar, implementar i supervisar els sistemes urbans d’IA. Per aprofitar plenament els beneficis de la transformació digital, els dirigents del sector públic han d’adquirir noves competències que els equipin per afrontar els complexos reptes de l’era digital. La IA no és una excepció, i l’adopció i la regulació efectives d’eines algorísmiques requereixen l’alfabetització digital dels funcionaris. Aquestes competències abasten la capacitat de crear marcs propicis, preveure tendències tecnològiques, aplicar mesures per abordar riscos ètics i en matèria de drets humans, comprendre el desenvolupament de plataformes digitals i col·laborar eficaçment amb tercers, incloent-hi els proveïdors. Sense cap dubte, el talent i les competències digitals són indispensables, la qual cosa subratlla la importància de millorar la capacitat digital del govern com a requisit previ per a la realització de projectes ambiciosos locals d’IA. En el context d’una estratègia urbana d’IA, la creació de capacitat es refereix al procés de conrear i reforçar les competències, els instints, les habilitats, els processos i els recursos que una comunitat local necessita per planificar, dissenyar i implementar aplicacions d’aquesta tecnologia. 

Curiosament, la majoria dels governs locals perceben la capacitat limitada com un obstacle significatiu tant per a l’adopció com per a la regulació de les aplicacions d’IA. Més concretament, les ciutats se solen trobar amb dos tipus de limitacions: la disponibilitat de mà d’obra local amb els coneixements necessaris per construir i gestionar els sistemes algorísmics (capacitat humana), i la competència d’aquesta mà d’obra per interactuar amb els sistemes algorísmics i supervisar-los (alfabetització en IA). Aquestes limitacions estan vinculades a l’escassetat de competències disponibles en el món local i a la manca d’experts en aquest àmbit a escala mundial. A més, cal assenyalar que en la competició internacional pel talent informàtic i les habilitats específiques en aquest camp el sector privat ha superat, tradicionalment, els governs en la seva capacitat per atreure recursos humans especialitzats. En conseqüència, moltes ciutats no disposen de recursos financers per desenvolupar tecnologies urbanes pròpies, la qual cosa les porta a recórrer a l’externalització i la contractació per accedir als coneixements tècnics essencials per al desenvolupament i la governança de la IA. 

El dèficit de competències no és irrellevant. En primer lloc, els escassos coneixements dels responsables de finançar les solucions d’IA i dels encarregats d’aplicar la tecnologia dificulta enormement la supervisió dels sistemes algorísmics. Des del punt de vista geogràfic, la competició mundial pel talent intensifica el desequilibri entre ciutats petites i grans. Cal assenyalar que, a les ciutats secundàries, la falta de capacitat no sol ser únicament tècnica, sinó també jurídica, ja que els poden mancar les competències necessàries per desenvolupar la tecnologia. Això augmenta el risc de crear disparitats entre ciutats de primera i de segona categoria. Tanmateix, encara que la bretxa digital mundial i la situació socioeconòmica d’una ciutat poden agreujar l’escassetat de competències en matèria d’IA a les administracions públiques, aquest és un problema que tant preocupa les ciutats pròsperes com les que tenen dificultats econòmiques. 

Per fer front a aquestes limitacions, les ciutats poden aplicar un seguit de mesures. La més important i necessària és de fer de la creació de capacitat un component central de qualsevol estratègia local eficaç d’intel·ligència artificial. Això implica invertir en el desenvolupament de capacitats tant tècniques (com pot ser l’alfabetització digital) com interdisciplinàries (com ara la regulació i la legislació, l’ètica, i el desenvolupament empresarial en matèria d’intel·ligència artificial). En última instància, els governs locals han de garantir que el personal directament involucrat en la implementació d’un sistema d’IA en un sector urbà estigui preparat i informat de manera adequada sobre el sistema específic que estigui utilitzant. Això significa que els treballadors municipals han de tenir una comprensió global de com la IA pot afectar les seves responsabilitats i ser capaços d’interpretar els resultats del sistema per identificar possibles errors. A més, qualsevol estratègia de creació de capacitat ha d’incloure també esforços específics per educar el públic sobre la IA, els seus efectes transformadors en les pràctiques actuals, i les oportunitats, els reptes i els riscos que comporta. No obstant això, les iniciatives de creació de capacitat per si soles poden resultar insuficients, i obliguen els governs locals a formular estratègies per atreure i retenir el talent. A curt termini, poden abordar l’escassetat de pressupost i competències amb l’establiment de col·laboracions intersectorials amb diferents actors locals per suplir la manca de capacitats públiques. 

c) La contractació pública és clau 

Tal com s’ha assenyalat, la majoria de les ciutats no disposen de la capacitat interna per desenvolupar solucions d’IA pròpies, la qual cosa les porta a adquirir aquesta tecnologia principalment a través dels canals de contractació pública. De fet, la contractació pública d’aplicacions d’aquesta tecnologia és una poderosa eina de governança que es pot aprofitar per abordar alguns dels efectes nocius que l’ús de la IA pot tenir en els ciutadans, especialment en les comunitats més vulnerables. Tanmateix, al llarg del procés de contractació, les ciutats han de tenir la capacitat d’avaluar les solucions d’IA que els siguin presentades. Un mètode eficaç per garantir que els proveïdors privats compleixin les normes de la ciutat en matèria de drets digitals i principis ètics és incorporar clàusules de contractació. 

Per exemple, l’any 2021, la ciutat d’Amsterdam va formular un seguit de condicions contractuals en les quals esbossava la informació específica exigida als proveïdors. Els governs municipals poden mantenir el control sobre la tecnologia que adopten demanant tres tipus d’informació: transparència tècnica (és a dir, el codi), transparència de procediment (és a dir, el propòsit de l’algorisme i com arriba als resultats) i explicabilitat (és a dir, les regles que s’apliquen si un algorisme afecta algú personalment). El valor d’aquests termes contractuals resideix en la seva capacitat per ajudar els governs locals a fer operatives les normes, crear obligacions i definir responsabilitats per a un desenvolupament i una adquisició de tecnologies d’IA fiables, transparents i responsables. No ha d’estranyar, doncs, que altres governs locals, com el de Barcelona, estiguin emulant l’enfocament d’Amsterdam mitjançant l’elaboració de les seves pròpies clàusules de contractació en matèria d’IA. 

d) Participació ciutadana i cocreació per promoure la diversitat 

Un quart element decisiu per abordar els efectes adversos de la IA és implicar la societat civil tant en el desenvolupament com en l’ús de les eines algorísmiques. Les preocupacions a l’entorn de la IA van més enllà del principi de «diners públics, propietat pública», i abasten la intel·ligència pública i les dades dels ciutadans. En aquest sentit, els participants en el seminari van coincidir en el fet que implicar la societat civil en les iniciatives d’IA és essencial per evitar biaixos i garantir que les normatives sobre aquesta tecnologia siguin comprensibles per al públic en general. 

D’altra banda, es va posar l’accent en el fet que, quan les entitats públiques utilitzen algorismes, s’han de tenir en compte la governança i els marcs institucionals, reconeixent que l’estat actual de la governança de dades en l’administració pública dista molt de ser òptim. De la mateixa manera, alguns participants van subratllar la importància de la recerca transparent i dels repositoris públics, i van advocar per l’aplicació de mecanismes que responsabilitzin les administracions davant els seus ciutadans quan utilitzin sistemes de decisió automatitzats.  

Referències 

Falk, Sophia y van Wynsberghe, Aimee (2023) “Challenging AI for Sustainability: what ought it mean?”. AI Ethics. 

Mollen, Anne y Vieth-Ditlmann, Kilian (2023) “Just Measure It: The Environmental Impact of AI”. SustainAI Magazine, número 3, tardor 2023. 

Rohde, Friederike; Gossen, Maike; Wagner, Josephin y Santarius, Tilman (2021) “Sustainability challenges of Artificial Intelligence and Policy Implications”. Ökologisches

Writschaften, 36. 

van Wynsberghe, Aimee (2021) “Sustainable AI: AI for sustainability and the sustainability of AI”. AI Ethics, 1, pp. 213-218. 

Notes:

  1. La noció de sostenibilitat és complexa. Sovint es considera que abasta tres dimensions diferents: una mediambiental, una altra social i una altra d’econòmica. En aquest apartat, limitem l’anàlisi a la dimensió mediambiental de la sostenibilitat.
  2. Per a una exposició més detallada dels diferents criteris, vegeu: https://sustain.algorithmwatch.org/en/step-by-step-towards-sustainable-ai/.
  3. Per a més exemples sobre l’ús d’algorismes a les ciutats, consulteu l’Atles de la Intel·ligència Artificial Urbana, elaborat per l’Observatori Global de la Intel·ligència Artificial Urbana (dirigit pel Programa de Ciutats Globals de CIDOB).