Ética, inteligencia artificial y resurrección digital
En una de sus publicaciones más recientes, Nick Srnicek, profesor de economía digital del King’s College en Londres, define el capitalismo de plataforma como aquel sustentado en plataformas digitales globales que funcionan como infraestructuras de extracción de datos. Dichas plataformas usan la información como recurso, y obtienen sus beneficios de las redes, la monitorización de la comunicación y la monetización de los datos. En sus orígenes, las plataformas sociales estaban dedicadas a estimular la socialización y a la compartición de contenidos que nos resultaban estimulantes o divertidos. Sin embargo, el fenómeno ha mutado hacia lo que Alex Rosenblat describe en su libro Uberlandia (2018) como la economía del intercambio (sharing economy), un “artefacto de populismo económico”. Actualmente, estas plataformas se presentan como proporcionadoras de servicios; un ejemplo es la red social Blued, orientada a la comunidad gay china, que comprende un amplio catálogo de servicios monetizados como el streaming, feeds de noticias, juegos, compras en línea o una asesoría sobre la gestación subrogada en el extranjero. Los streamers son considerados “activos corporativos”, herramientas de extracción de flujos de datos, ya que funcionan a partir de algoritmos, es decir, de instrucciones para procesar los datos generados. La asimetría entre las empresas y los sujetos de los datos (data subjects) es enorme, hasta el punto que la ONU publicó en mayo de 2020 un informe con un título revelador: Propiedades económicas de los datos y tendencias monopolísticas de la economía de los datos: políticas para limitar una posibilidad Orwelliana 1.
Estos espacios virtuales nos fascinan porque remiten a una suerte de Edén primordial, actualizan una especie de “mito de la abundancia” que vende la idea de que en su interior está todo y que, si no participas, te quedas fuera del mundo. Sin embargo, lejos del aparente libre albedrío, el margen de decisión del usuario queda acotado por un grupúsculo de best choices, en cuyo primer filtrado el usuario ha delegado al sistema de recomendaciones algorítmicas de los aplicativos. Este sistema cada vez es más sofisticado; por ejemplo, la aplicación de contactos Tinder emplea ya Rekognition, un software de Inteligencia Artificial (IA) desarrollado por Amazon para clasificar fotos, y con ello establecer relaciones entre personas a partir de elementos comunes, más allá de sus preferencias expresadas en los perfiles. Las plataformas también se encargan de recordar por nosotros; desde el 2016, el tiempo algorítmico de las redes modula kairológicamente nuestros momentos más relevantes, eximiéndonos de la necesidad de ponderarlos por nosotros mismos. Todas estas plataformas recolectan datos, puntúan y cuantifican a partir de likes, shares, views... lo que está dando lugar a una “sociedad puntuable” (scored society), una suerte de casting sin fin; también aíslan y segmentan a los usuarios a partir de filtros burbuja, que polarizan las opiniones y crean las circunstancias: a la red social puedes decirle lo que quieres y no quieres ver; el resultado, sin embargo, escapa a nuestras instrucciones y es en último término el algoritmo el que elige lo que desfila ante nosotros, condicionando así nuestras opiniones y nuestras acciones. Desde hace unos años, además, las aplicaciones aprenden, gracias a complejos programas de procesamiento del lenguaje natural y, a partir de este aprendizaje, conversan con nosotros (chatbot, asistentes de voz, etc.), predicen y crean.
Ya en los años ochenta, Shoshana Zuboff nos alertó de que la computación no solo permite automatizar tareas (como ya hizo Ford con el sistema de producción en cadena), sino que en cada proceso de automatización se genera información y estos datos son usados para predecir los comportamientos de los usuarios y alterarlos en uno u otro sentido. El resultado es un producto predictivo –que ella denomina behavioural data– que se nutre de los modelos de comportamiento. Lo que se comercializa es el futuro, es decir, todo lo que introduces en estas fábricas del comportamiento es todo lo que vas a perder. Desde el 2012 se han hecho muchos estudios sobre la capacidad de predicción de estas herramientas a partir de un análisis exhaustivo de los likes (véanse, por ejemplo, los experimentos tecno-académicos de Michel Kosinski). Sin embargo, es a partir de 2015 que muchas empresas orientan sus estrategias hacia la Inteligencia Artificial predictiva; toma relevancia así el machine learning o la maquinaria de aprendizaje automático basado en redes neuronales, como el Google Deep Mind. Este tipo de algoritmos –más allá del encandilamiento que puedan provocar– crean formas inclusivas y exclusivas de orden social. Estudios como los de la citada Shoshana Zuboff, o los de Cathy O'Neil, Virginia Eubanks o Kate Crawford reclaman nuestra atención sobre la capacidad de penetración de las tecnologías basadas en Inteligencia Artificial y sobre cómo, debido a su programación sesgada, acaban reproduciendo los mismos prejuicios y violencias que persisten en nuestra sociedad: el racismo, el clasismo, la misoginia... Toda la información que entregamos vuelve a nosotros y nos modula, es decir, da forma a nuestra visión del mundo, así como a nuestra relación ética y moral con los demás, ya que incide en lo que Darwin llamaba el “poder sensorial”, es decir, el conjunto de facultades asociadas al cerebro. En un artículo reciente para el Centro de Cultura Contemporánea de Barcelona (CCCB), Karma Peiró y Ricardo Baeza-Yates afirmaban que una solución parcial a los sesgos de la IA sería crear un asistente virtual que actuase de voz de la conciencia, y nos pusiera en alerta frente los prejuicios –de actuación o de juicio– y las posibles manipulaciones sesgadas de los sistemas inteligentes. Sin embargo, al delegar nuestra autoconsciencia a las máquinas, ¿no estaríamos dando un paso hacia la lógica de vigilar y castigar?; ¿hacia una menor comprensión el mundo?; ¿hacia una total ineptitud en la gestión de los conflictos personales y colectivos?
A finales de enero de 2021 se materializó la posibilidad de que estas inteligencias artificiales hicieran lo que el humano es incapaz de hacer: resucitar los muertos, es decir, simular conciencias a partir de un “poder sensorial” sintético aplicado a nuestro rastro digital. Microsoft presentó una patente de IA para desarrollar un chatbot que permitiría interactuar con recreaciones digitales de seres queridos fallecidos o simular un diálogo con uno mismo a una edad específica. El sistema armaría un pastiche de respuestas predefinidas a partir de imágenes, datos de voz, publicaciones en redes sociales y mensajes electrónicos de la persona fallecida. Hemos asistido ya a los primeros testeos, como el esbozado en el documental surcoreano Meeting you (2016), en el que mediante un holograma se recreaba una niña muerta a partir de la información suministrada a los programadores, o cuando Kanye West le regaló a Kim Kardashian un holograma de su padre muerto en el que pronunciaba un breve y emotivo discurso –que nunca tuvo lugar pero que recomponía retazos de expresiones, de datos reales. En ninguno de los dos casos existía la posibilidad de interactuar; pero sí se da esta posibilidad en el proyecto piloto Eterni.me (2015), una aplicación que tiene como objetivo permitir la interacción del usuario con avatares de personas fallecidas. De hecho, la patente de Microsoft se orienta específicamente a eso, y es un avatar (similar a un tamagochi) el que actúa como biógrafo del futuro difunto; en poco tiempo, 46.000 personas se apuntaron al experimento. Lo que se dibuja aquí es la figura del transhumano, el prometeico sueño de magnates como Raymond Kurzweil, promotor de la singularidad tecnológica; es decir, abandonar el cascarón humano –el cuerpo– y pasar a ser información, tal como ansía la protagonista de la serie televisiva Years and Years (2019, BBC). Si la muerte no es el eje a través del cual dotamos de sentido de nuestras vidas, entonces, ¿cuáles serán las experiencias determinantes que configurarán nuestra subjetividad y nuestros rituales sociales? Y si todo lo que hacemos en esta vida se almacena en nuestra hiper-vida, ¿no será eso un condicionante demasiado poderoso? ¿No llevará a la autocensura, a la fiscalización de nuestras acciones y nuestra moral tal como ha ocurrido con la aplicación integrista de la religión? Y dado que el ser humano se dota de sentido a partir de la experiencia (duración) y evoluciona con ella, ¿cómo evolucionará esta conciencia? Seguramente, eliminar la muerte de nuestras vidas puede implicar una pérdida de la dimensión ética del vivir. El ser humano lleva siglos trabajando la relación entre el conocimiento, el cuidado de uno mismo, la relación entre la conciencia y la culpa, y el aprender a morir. A esto hay que añadir lo que decía Montaigne: “el que aprende a morir, aprende a no servir. El saber morir nos libera de toda atadura y coacción”. La posibilidad de revivir o ser recreado en un cuerpo artificial reduce la vida a una serie de versiones, una suerte de hipótesis identitarias. Lo que somos entonces sería tan solo una versión beta, provisional, material en bruto (raw material)del que se compondría la versión aumentada (digital) una vez el cuerpo muriese. Ello nos convertiría en sirvientes de nuestro yo futuro, “seres disciplinados para mirar como máquinas”, como dice Kate Crawford, que viven una vida en distintos actos. Esta pluralidad de versiones no tiene nada que ver con la libertad, sino con la seguridad: cada uno se sentiría seguro en su propia futura versión de los hechos.
A todas estas preguntas sobre nuestra relación con la hiper-vida podríamos añadir las consideraciones sobre la naturaleza de la máquina: ¿comprenderá ésta el mundo que recrea de forma sintáctica? Ese prototipo identitario, ¿podrá ser considerado una conciencia? ¿Podrá evolucionar como lo hacemos los humanos? ¿Estará capacitado para tomar decisiones éticas? –ya que de momento solo toman decisiones económicas, médicas o legales. Y si no está capacitado para nada de lo anterior, ¿en qué se diferenciará mi yo futuro de una máquina?
Notas:
- Véase Wai, H. y Cheng, J. “Economic properties of data and the monopolistic tendencies of data economy: policies to limit an Orwellian possibility”. Documentos de Trabajo de Naciones Unidas, DESA Working Paper n. 164, 17 de mayo de 2020. Accesible en línea: https://www.un.org/esa/desa/papers/2020/wp164_2020.pdf