El lado oscuro de la inteligencia artificial urbana: abordar el impacto medioambiental y social de los algoritmos

CIDOB Briefing 55
Fecha de publicación: 01/2024
Autor:
Marta Galceran-Vercher y Adrià Rodríguez-Perez
Descargar PDF

Este CIDOB Briefing resume las principales conclusiones del seminario internacional “El lado oscuro de la inteligencia artificial urbana: abordar el impacto medioambiental y social de los algoritmos”, celebrado el 19 de junio de 2023 en CIDOB y organizado por el Programa de Ciudades Globales de CIDOB con el apoyo del Ayuntamiento de Barcelona. Académicos, expertos y profesionales se reunieron para deliberar y ofrecer recomendaciones para la gobernanza eficiente y el uso de herramientas algorítmicas en entornos urbanos, con la finalidad de mitigar los retos ambientales, sociales y políticos asociados a la inteligencia artificial.

Logos Briefing 55

Estamos experimentando un aumento de los esfuerzos mundiales para establecer marcos de gobernanza para la inteligencia artificial (IA): desde el Decreto ejecutivo de Estados Unidos sobre el desarrollo y uso seguros, protegidos y fiables de la IA (octubre de 2023), hasta la Cumbre sobre seguridad de la IA en el Reino Unido (noviembre de 2023); pasando por un proyecto refundido de Convención del Consejo de Europa sobre IA, derechos humanos, democracia y Estado de derecho (julio de 2023); sin olvidar el acuerdo político alcanzado en diciembre de 2023 (que se ratificará en 2024) entre los negociadores del Parlamento Europeo y el Consejo para adoptar la Ley de Inteligencia Artificial (AI Act) de la Unión Europea (UE). Según el Compendio de iniciativas sobre la IA del Consejo de Europa, en la actualidad hay más de 600 iniciativas en curso destinadas a regular esta materia. 

Sin embargo, ¿qué hay que regular en materia de algoritmos? Según un artículo publicado recientemente en The Economist, cualquier regulación de la IA debería responder en primer lugar a tres preguntas clave: ¿De qué debe preocuparse el mundo? ¿Cuál debe ser el objetivo de las normas? ¿Cómo deben aplicarse? No es seguro que ninguna de las iniciativas en curso para regular la IA logre resolver el problema del impacto de esta tecnología en el medio ambiente y la sociedad. La cuestión se vuelve aún más espinosa si tenemos en cuenta los muchos actores involucrados en la gobernanza de la IA: no sólo están implicados los gobiernos, nacionales o locales, ni las organizaciones intergubernamentales. Los agentes privados —y especialmente las empresas— también desempeñan un papel cada vez más importante, si no el principal, en algunas de estas iniciativas. 

En este CIDOB Briefing se recogen las conclusiones del seminario internacional El lado oscuro de la inteligencia artificial urbana: abordar el impacto medioambiental y social de los algoritmos”, celebrado el 19 de junio de 2023. En este informe profundizamos en dos aspectos cruciales de la inteligencia artificial y la gobernanza algorítmica: en primer lugar, las consecuencias medioambientales de la inteligencia artificial y, en segundo lugar, las implicaciones sociales y políticas de carácter más general derivadas del uso de los algoritmos. El informe concluye ofreciendo ideas y recomendaciones para la gobernanza eficaz de la inteligencia artificial en contextos urbanos. 

1. El impacto medioambiental de los algoritmos: “inteligencia artificial para la sostenibilidad” e “inteligencia artificial sostenible” 

Existen dos perspectivas interconectadas en cuanto a la relación entre la inteligencia artificial y la sostenibilidad medioambiental, a las que podríamos referirnos como “inteligencia artificial para la sostenibilidad” e “inteligencia artificial sostenible” (van Wynsberghe, 2021)1. La primera implica el uso de herramientas algorítmicas en áreas que contribuyen a objetivos ecológicamente deseables, tales como la protección del clima. Algunos ejemplos de aplicaciones de la IA en este campo son el recuento de árboles, la estimación precisa de la biodiversidad en varias zonas, el seguimiento en tiempo real de los patrones meteorológicos, la previsión del consumo de energía, la calidad del aire y las emisiones de CO2, así como la mejora de la eficiencia en la asignación de recursos. Estos ejemplos ilustran cómo la IA es una herramienta sólida para tomar decisiones rápidas y bien fundamentadas, facilitando el avance hacia ciudades más sostenibles. En este contexto, la “inteligencia artificial para la sostenibilidad” explica la adopción entusiasta de soluciones basadas en la IA por parte de muchas ciudades. El proyecto AI4Cities es un buen ejemplo de esta tendencia, ya que representa una de las iniciativas más significativas que muestra cómo las ciudades buscan activamente soluciones basadas en la IA en los ámbitos de la energía y la movilidad para apoyar su transición hacia la neutralidad de carbono. 

Sin embargo, a medida que se dedican más recursos al desarrollo y uso de soluciones urbanas de IA, resulta cada vez más importante tener en cuenta el impacto medioambiental de estas tecnologías. En efecto, diseñar, producir y utilizar tecnologías de IA requiere una infraestructura física que exige grandes cantidades de recursos materiales, tales como agua, metales, energía y trabajo humano. En consecuencia, no sólo su poder computacional sino su propia existencia material plantean importantes cuestiones éticas desde el punto de vista de la sostenibilidad. Al fin y al cabo, y como apuntan Falk y van Wynsberghe (2023, p. 7), “¿qué utilidad puede tener un sistema de IA para lograr objetivos de sostenibilidad si su desarrollo y uso frustran el propósito inicial de su existencia?”. 

En este contexto, el término “inteligencia artificial para la sostenibilidad” debe distinguirse de “inteligencia artificial sostenible”. Este último tiene que ver con “el desarrollo, la aplicación y el uso de la IA de forma que se reduzcan al mínimo las repercusiones adversas de carácter social, ecológico y económico de los algoritmos aplicados” (Rohde et al., 2021, p. 1). Sin embargo, el impacto medioambiental no es fácil de analizar, y menos aún de estimar. En este sentido, resulta fundamental disponer de datos objetivos para abordar el debate sobre la relación entre los beneficios de los sistemas de inteligencia artificial y su coste medioambiental. Sin embargo, en la actualidad, los desarrolladores y operadores de estos sistemas no facilitan los datos necesarios, lo que dificulta la formulación y aplicación de políticas eficaces. Las últimas versiones de la Ley de Inteligencia Artificial de la UE representan un avance potencial, ya que pueden obligar a las empresas, por primera vez, a medir y divulgar información sobre el impacto ambiental de sistemas algorítmicos específicos de alto riesgo. Esto podría implicar la incorporación de métodos de recopilación de datos en estos sistemas, inspirándose en enfoques ya consolidados para el seguimiento del consumo de energía, las emisiones equivalentes de CO₂, el consumo de agua, el uso de minerales para la fabricación de equipos informáticos y la generación de residuos electrónicos. Esta medida agilizaría la evaluación de la sostenibilidad de los sistemas de IA (Mollen y Vieth-Ditlmann, 2023). 

Sin embargo, teniendo en cuenta que la evaluación de la sostenibilidad de la IA sigue siendo un ámbito incipiente y en desarrollo, el índice SustainAI puede considerarse otro avance notable en esta dirección. Este instrumento ofrece un modelo muy completo para evaluar y mejorar la sostenibilidad de los sistemas de inteligencia artificial. Este índice propone evaluar la sostenibilidad medioambiental de los algoritmos a lo largo de diferentes etapas (a saber: planificación y diseño, datos, desarrollo y aplicación) basándose en cuatro criterios2: consumo de energía, emisiones de gases de efecto invernadero, sostenibilidad en el uso, y consumo indirecto de recursos. Entre ellos, el alto consumo de energía (estrechamente vinculado a las emisiones de gases de efecto invernadero) suele considerarse la principal fuente de preocupación. No cabe duda de que todas las actividades relacionadas con internet dependen en gran medida de una cantidad considerable de electricidad, procedente principalmente de combustibles fósiles. Sin embargo, en comparación con otras tecnologías, la IA —y en particular aplicaciones como ChatGPT— destaca por su consumo de energía especialmente elevado. 

Para empezar, el entrenamiento de un modelo lingüístico de gran tamaño u otros modelos de inteligencia artificial requiere grandes cantidades de energía. Además, estos modelos lingüísticos figuran entre los más extensos en el ámbito del aprendizaje automático, ya que incorporan hasta cientos de miles de millones de parámetros. El proceso de entrenamiento requiere varias semanas de horas de GPU, lo que contribuye a las emisiones de carbono. A modo de ejemplo, la cantidad de energía necesaria para entrenar BLOOM, un modelo lingüístico multilingüe de libre acceso, equivale al consumo de electricidad de un hogar estadounidense medio durante 41 años (Falk y van Wynsberghe, 2023, p. 5). Además, los chatbots o cualquier otro producto final necesita electricidad cada vez que se utiliza. Recientemente, han surgido algunas propuestas para abordar esta preocupación, entre ellas la idea de colocar una etiqueta a los algoritmos que revele la cantidad de emisiones de CO2 y la energía informática utilizada en su creación (Bender et al., 2021). Para una administración municipal, dar prioridad a la adquisición de este tipo de algoritmos puede ser una buena forma de mejorar la sostenibilidad ecológica de sus iniciativas digitales, ya que la mayoría de las tecnologías urbanas no son desarrolladas internamente por el propio gobierno municipal. Del mismo modo, las ciudades podrían dar prioridad al empleo de algoritmos entrenados con conjuntos de datos pequeños y curados escrupulosamente. Aunque este enfoque puede llevar más tiempo, no sólo contribuye a la sostenibilidad, sino que también mejora la equidad y la precisión, contribuyendo así a la reducción de la “contaminación por datos”. 

En segundo lugar, es crucial tener en cuenta la infraestructura más amplia que soporta y vincula los equipos informáticos, que comprende el consumo de energía de los sistemas de redes, el mantenimiento de los centros de datos y los sistemas de refrigeración (Falk y van Wynsberghe, 2023, p. 5). Esto incluye la producción de chips informáticos y el establecimiento de centros de datos en los que opera la IA. Afortunadamente, existen iniciativas encaminadas a hacer que los centros de datos sean más ecológicos, como los parques de datos de Estocolmo (véase el cuadro 1) o un proyecto desarrollado en París que utiliza la energía de los servidores para calentar el agua de las piscinas. Sin embargo, urge ampliar los esfuerzos a nivel urbano, ya que estas medidas siguen siendo más anecdóticas que la práctica habitual.

Briefing _55_Cuadro 1

2. El impacto social de los algoritmos 

De forma similar a lo que ocurre con el impacto medioambiental de la IA, existen dos puntos de vista principales en lo que respecta a las dimensiones políticas de los algoritmos, que podrían etiquetarse como: “inteligencia artificial para la democracia” e “inteligencia artificial democrática” (véase el cuadro 2). Análogamente, y aunque las repercusiones políticas y sociales de la IA lleven más tiempo investigándose (por ejemplo, en lo que respecta a la desinformación y la información errónea o a la discriminación algorítmica), sus implicaciones reales para la política y las sociedades aún distan mucho de estar claras. En este sentido, la mayoría de las preocupaciones parecen centrarse en la posibilidad de la singularidad, es decir, cuándo y/o si la IA superará a la inteligencia humana. Sin embargo, y como apuntó Shazade Jameson durante el seminario, “la verdadera revolución de la IA será mundana”. De hecho, probablemente el aspecto más problemático de la IA (generativa) es que su impacto se esconde a plena vista

Briefing _55_Cuadro 2

Los algoritmos ya están integrados en muchas de nuestras prácticas cotidianas, desde la búsqueda de direcciones en mapas o aplicaciones móviles de navegación hasta el asistente de voz. Sin olvidar que la mayoría de los servicios en línea se basan en la inteligencia artificial: por lo general, lo que vemos en línea es el resultado de algoritmos de clasificación y asociación (como los motores de búsqueda o la publicidad en línea), y podemos ser filtrados por un algoritmo sin que siquiera lo sepamos (al solicitar un empleo, una hipoteca o inscribirnos en programas médicos y de seguros). 

Las administraciones públicas también utilizan ampliamente los algoritmos, por ejemplo, para el diagnóstico médico, la vigilancia policial, para encontrar a personas con derecho a recibir subvenciones públicas o para decidir sobre la conveniencia de ofrecer protección policial a las personas supervivientes de la violencia de género. A nivel local, muchos municipios están utilizando modelos generativos de IA para obtener información a partir de datos no estructurados, mejorando la comprensión de lo que está sucediendo en la ciudad, así como el uso de herramientas algorítmicas para permitir que la prestación de servicios públicos sea más accesible y eficiente (normalmente en forma de chatbots)3

En todos estos casos, suelen señalarse varias deficiencias. Todas ellas suelen reducirse a cuestiones de discriminación, transparencia, precisión y fiabilidad. Los ejemplos abundan. En 2013, se descubrió que las búsquedas en Google con nombres que “sonaban a personas de color” tenían más probabilidades de mostrar anuncios de servicios como la comprobación de antecedentes penales; en 2015, Amazon se dio cuenta de que su nuevo sistema no calificaba a los candidatos para puestos de desarrollador de software y otros puestos técnicos de forma neutral en cuanto al género; en 2018, se descubrió que si en Google se configuraba el género de un usuario como femenino, se le mostraban menos anuncios de empleos bien remunerados. 

Sin embargo, las empresas privadas no son las únicas que utilizan algoritmos discriminatorios por razón de sexo y/o raza. También hay varios casos en los que se ha descubierto que los algoritmos policiales discriminan a las personas en función de su lugar de residencia, como en Chicago y Durham. Más recientemente, la Fundación Eticas y la Fundación Ana Bella-Red de Mujeres Supervivientes han descubierto que el algoritmo utilizado por el Ministerio del Interior español para evaluar los riesgos de las personas supervivientes de la violencia de género, el sistema VioGén, no cumple lo que promete: el 80% de las personas supervivientes entrevistadas plantearon problemas con el uso del algoritmo. En la ciudad de Rotterdam, se descubrió que un algoritmo que clasifica a las personas en función de su riesgo de fraude entre los beneficiarios de prestaciones sociales discrimina a las madres solteras

Estas deficiencias se magnifican porque los algoritmos suelen estar en manos de un puñado de empresas privadas, en lo que Aviv Ovadya ha denominado concentración autocrática. Estos agentes privados con ánimo de lucro no pueden abordar por sí solos los costes e inconvenientes de la IA. En muchos casos, ni siquiera los investigadores que trabajan en este campo comprenden del todo las recomendaciones que hacen los algoritmos.

Briefing _55_Cuadro 3

3. Lecciones aprendidas y retos futuros para los gobiernos locales 

a) La regulación y la gobernanza conllevan sus propios retos 

Es un hecho ampliamente reconocido que abordar los retos que plantea la IA implica a menudo buscar soluciones a través de medidas reguladoras. Sin embargo, la regulación de la IA conlleva sus propias dificultades, entre ellas lidiar con el rápido ritmo de los avances de esta tecnología, analizar los elementos que deben regularse y decidir quién regula y de qué forma. A nivel mundial, las actuales condiciones geopolíticas añaden un grado extra de complejidad a la tarea de regulación. 

Desde el punto de vista europeo, el continente se enfrenta a las consecuencias de una regulación excesiva, que provoca lagunas en la inversión en investigación y desarrollo, así como en la creación de capacidad. Del mismo modo, los participantes en el seminario expresaron su preocupación por el hecho de que los requisitos de la IA impuestos por Europa puedan plantear importantes retos para las pequeñas empresas y los proyectos de código abierto. Por tanto, sin dejar de reconocer los aspectos positivos de la Ley de Inteligencia Artificial de la UE —como su enfoque basado en los derechos humanos—, es esencial reconocer las posibles repercusiones negativas a largo plazo de la Ley y abordarlas. 

Aunque muchos países ya han publicado directrices nacionales sobre la IA, la mayoría de los gobiernos locales siguen rezagados en el desarrollo de marcos reguladores, debido a la insuficiente capacidad técnica y política que poseen en esta materia. Aunque no cabe duda de que la gobernanza es una tarea ardua, del seminario se extrajeron cuatro lecciones esenciales para orientar el progreso: 

  1. Centrarse en los procesos: si bien la mayoría de las iniciativas de gobernanza abordan los resultados de la IA, es fundamental reconocer que el aprendizaje (automático) es un proceso continuo, y las políticas deberían intervenir como parte de estos procesos.
  2. Gobernar la incertidumbre es una práctica continua: gobernar eficazmente la incertidumbre requiere esfuerzos continuos, con mecanismos de retroalimentación y una cultura de apoyo que desempeñen papeles vitales para permitir que las organizaciones, incluidos los gobiernos locales, puedan ir adaptándose con el tiempo.
  3. Debería establecerse la responsabilidad de las decisiones en materia de algoritmos.
  4. Pensar en grande, pero empezar por lo más pequeño: la gobernanza óptima se construye a través de proyectos, ejemplificados por iniciativas como la denominada Data Governance Clinics. Este planteamiento innovador alinea la gobernanza de datos con el interés público de las ciudades, y subraya la importancia de adoptar un enfoque ambicioso pero gradual para alcanzar objetivos más amplios. 

b) Recursos humanos: creación de capacidad y atracción de talento 

Los responsables de la toma de decisiones deben evaluar los recursos humanos disponibles capaces de diseñar, aplicar, implementar y supervisar los sistemas urbanos de IA. Para aprovechar plenamente los beneficios de la transformación digital, los dirigentes del sector público deben adquirir nuevas competencias que los equipen para afrontar los complejos retos de la era digital. La IA no es una excepción, y la adopción y regulación efectivas de herramientas algorítmicas requieren la alfabetización digital de los funcionarios. Estas competencias abarcan la capacidad de crear marcos propicios, prever tendencias tecnológicas, aplicar medidas para abordar riesgos éticos y en materia de derechos humanos, comprender el desarrollo de plataformas digitales y colaborar eficazmente con terceros, incluidos los proveedores. Sin lugar a dudas, el talento y las competencias digitales son indispensables, lo que subraya la importancia de mejorar la capacidad digital del gobierno como requisito previo para la realización de ambiciosos proyectos locales de IA. En el contexto de una estrategia urbana de IA, la creación de capacidad se refiere al proceso de cultivar y reforzar las competencias, los instintos, las habilidades, los procesos y los recursos que una comunidad local necesita para planificar, diseñar e implementar aplicaciones de esta tecnología. 

Curiosamente, la mayoría de los gobiernos locales perciben la capacidad limitada como un obstáculo significativo tanto para la adopción como para la regulación de las aplicaciones de IA. Más concretamente, las ciudades suelen encontrarse con dos tipos de limitaciones: la disponibilidad de mano de obra local con los conocimientos necesarios para construir y gestionar los sistemas algorítmicos (capacidad humana), y la competencia de esta mano de obra para interactuar con los sistemas algorítmicos y supervisarlos (alfabetización en IA). Estas limitaciones están vinculadas a la escasez de competencias disponibles a nivel local y a la carencia de expertos en este ámbito a nivel mundial. Además, cabe señalar que en la competición mundial por el talento informático y las habilidades específicas en este campo, el sector privado ha superado tradicionalmente a los gobiernos en su capacidad para atraer recursos humanos especializados. En consecuencia, muchas ciudades carecen de recursos financieros para desarrollar tecnologías urbanas propias, lo que las lleva a recurrir a la externalización y la contratación para acceder a los conocimientos técnicos esenciales para el desarrollo y la gobernanza de la IA. 

El déficit de competencias no es irrelevante. En primer lugar, el escaso conocimiento entre los responsables de financiar las soluciones de IA y los encargados de aplicar la tecnología dificulta enormemente la supervisión de los sistemas algorítmicos. Desde el punto de vista geográfico, la competición mundial por el talento intensifica el desequilibrio entre ciudades pequeñas y grandes. Cabe señalar que, en las ciudades secundarias, la falta de capacidad no suele ser únicamente técnica, sino también jurídica, ya que pueden carecer de las competencias necesarias para desarrollar la tecnología. Esto aumenta el riesgo de crear disparidades entre ciudades de primera y de segunda categoría. Sin embargo, aunque la brecha digital mundial y la situación socioeconómica de una ciudad pueden agravar la escasez de competencias en materia de IA en las administraciones públicas, este problema preocupa tanto a las ciudades prósperas como a las que tienen dificultades económicas. 

Para hacer frente a estas limitaciones, las ciudades pueden aplicar una serie de medidas. La más importante es la necesidad de hacer de la creación de capacidad un componente central de cualquier estrategia local eficaz de inteligencia artificial. Esto implica invertir en el desarrollo de capacidades tanto técnicas (como la alfabetización digital) como interdisciplinarias (como la regulación y la legislación, la ética, y el desarrollo empresarial en materia de inteligencia artificial). En última instancia, los gobiernos locales deben garantizar que el personal directamente involucrado en la implementación de un sistema de IA en un sector urbano esté adecuadamente preparado e informado sobre el sistema específico que esté utilizando. Esto significa que deben tener una comprensión global de cómo la IA puede afectar a sus responsabilidades y ser capaces de interpretar los resultados del sistema para identificar posibles fallos. Además, cualquier estrategia de creación de capacidad debe incluir también esfuerzos específicos para educar al público sobre la IA, sus efectos transformadores en las prácticas actuales y las oportunidades, retos y riesgos que conlleva. No obstante, las iniciativas de creación de capacidad por sí solas pueden resultar insuficientes, obligando a los gobiernos locales a formular estrategias para atraer y retener el talento. A corto plazo, pueden abordar la escasez de presupuesto y competencias estableciendo colaboraciones intersectoriales con diferentes actores locales para suplir la escasez de capacidades públicas. 

c) La contratación pública es clave 

Como se ha señalado, la mayoría de las ciudades carecen de la capacidad interna para desarrollar soluciones de IA propias, lo que las lleva a adquirir esta tecnología principalmente a través de los canales de contratación pública. De hecho, la contratación pública de aplicaciones de esta tecnología es una poderosa herramienta de gobernanza que puede aprovecharse para abordar algunos de los efectos nocivos que el uso de la IA puede tener en los ciudadanos, especialmente en las comunidades más vulnerables. Sin embargo, a lo largo del proceso de contratación, las ciudades deben tener la capacidad de evaluar las soluciones de IA que se les presenten. Un método eficaz para garantizar que los proveedores privados cumplan las normas de la ciudad en materia de derechos digitales y principios éticos es incorporar cláusulas de contratación. 

Por ejemplo, en 2021, la ciudad de Ámsterdam formuló una serie de condiciones contractuales en las que se esbozaba la información específica exigida a los proveedores. Los gobiernos municipales pueden mantener el control sobre la tecnología que adoptan pidiendo tres tipos de información: transparencia técnica (es decir, el código), transparencia de procedimiento (es decir, el propósito del algoritmo y cómo llega a sus resultados) y explicabilidad (es decir, las reglas que se aplican si un algoritmo afecta a alguien personalmente). El valor de estos términos contractuales reside en su capacidad para ayudar a los gobiernos locales a hacer operativas las normas, crear obligaciones y definir responsabilidades para un desarrollo y una adquisición de tecnologías de IA fiables, transparentes y responsables. No es de extrañar que otros gobiernos locales, como el de Barcelona, estén emulando el enfoque de Ámsterdam mediante la elaboración de sus propias cláusulas de contratación en materia de IA. 

d) Participación ciudadana y cocreación para promover la diversidad 

Un cuarto elemento decisivo para abordar los efectos adversos de la IA es implicar a la sociedad civil tanto en el desarrollo como en el uso de las herramientas algorítmicas. Las preocupaciones en torno a la IA van más allá del principio de “dinero público, propiedad pública”, abarcando la inteligencia pública y los datos de los ciudadanos. En este sentido, los participantes en el seminario coincidieron en que implicar a la sociedad civil en las iniciativas de IA es esencial para evitar sesgos y garantizar que las normativas sobre esta tecnología sean comprensibles para el público en general. 

Además, se hizo hincapié en que cuando las entidades públicas utilizan algoritmos, deben tenerse en cuenta la gobernanza y los marcos institucionales, reconociendo que el estado actual de la gobernanza de datos en la administración pública dista mucho de ser óptimo. Del mismo modo, algunos participantes subrayaron la importancia de la investigación transparente y de los repositorios públicos, abogando por la aplicación de mecanismos que responsabilicen a las administraciones ante sus ciudadanos cuando utilicen sistemas de decisión automatizados. 

Referencias 

Rohde, Friederike; Gossen, Maike; Wagner, Josephin y Santarius, Tilman (2021) “Sustainability challenges of Artificial Intelligence and Policy Implications”. Ökologisches Writschaften, 36. 

van Wynsberghe, Aimee (2021) “Sustainable AI: AI for sustainability and the sustainability of AI”. AI Ethics, 1, pp. 213-218. 

Falk, Sophia y van Wynsberghe, Aimee (2023) “Challenging AI for Sustainability: what ought it mean?”. AI Ethics. 

Mollen, Anne y Vieth-Ditlmann, Kilian (2023) “Just Measure It: The Environmental Impact of AI”. SustainAI Magazine, número 3, otoño 2023.

Notas:

  1. La noción de sostenibilidad es compleja. A menudo se considera que abarca tres dimensiones distintas: una medioambiental, una social y una económica. En este apartado, limitamos el análisis a la dimensión medioambiental de la sostenibilidad.
  2. Para una exposición más detallada de los distintos criterios, véase: https://sustain.algorithmwatch.org/en/step-by-step-towards-sustainable-ai/
  3. Para más ejemplos sobre el uso de algoritmos en las ciudades, consulte el Atlas de la Inteligencia Artificial Urbana elaborado por el Observatorio Global de la Inteligencia Artificial Urbana (dirigido por el Programa de Ciudades Globales de CIDOB).