Opinión

IA (de)generativa: imágenes, sesgos y aprendizajes

Claudia Frontino Agència Talaia

28 de junio de 2024

Si algo he aprendido en años de escuchar a colectivos y entidades como Sos Racisme, AlgoRace, Irídia, Amnistía Internacional, Lafede.cat, Afroféminas, Algorights o Novact, entre otros, es que la inteligencia artificial no es inteligente. Ni tampoco artificial. Y mucho menos neutral. Escuchar a Marta Peirano, Paula Guerra Cáceres, Judith Membrives i Llorens o Ana Valdivia alertar sobre los usos que tiene la IA en nuestro día a día me ha hecho mirar con recelo las máquinas en las que se pone la cara en los controles aeroportuarios o las cámaras de vigilancia que hay en la calle, por ejemplo. 

Sin embargo, la inteligencia artificial convive con nosotras de otra manera: desde la cotidianidad. Cuando cito a estas personas referentes que insisten en que la inteligencia artificial no es neutral, lo hago pensando más allá de las vulneraciones de derechos que se producen de manera directa y tangible. Lo hago pensando en algo que ya forma parte de nuestro día a día: la IA generativa; es decir, en las imágenes creadas de forma automatizada. La IA generativa es un sistema que crea contenidos que en el fondo están programados y sesgados— por humanos. En el caso de las imágenes, se trata de representaciones ficticias de personas, animales o conceptos creadas para complacer nuestra curiosidad. Quiero ver un cocodrilo luchando contra un mapache. Clic. Me gustaría ver una persona refugiada. Clic.

El funcionamiento e hipotético aprendizaje de estos sistemas se cimienta en la gran cantidad de contenido gráfico que ya circula por internet y del cual se nutren. Con todas las fotografías, obras de arte e imágenes que hay en la red, la IA generativa crea nuevo contenido. Por ejemplo, si buscamos imágenes de alguien jugando a fútbol o limpiando una casa, los sistemas de IA generativa nos devolverán imágenes que no existen en la vida real pero en las que se muestran hombres jugando al balón y mujeres felices dándole al plumero o la fregona. Esto podría llevar a preguntarnos si estamos ante una inteligencia artificial machista. Sí y no. No lo es por sí sola, pero lo es en tanto que ha sido programada por humanos machistas y con poca perspectiva de género. Y así con todas las desigualdades que vemos y vivimos en el mundo. Un mundo que, ya sea online u offline, es racista, capitalista, machista y capacitista. Un mundo gobernado y proyectado por personas llenas de prejuicios y que los reproducen en la programación algorítmica que satisfará nuestras peticiones a golpe de clic. Un mundo en el que, como siempre, las minorías o las personas en situación de vulnerabilidad saldrán perdiendo por muy inteligente que nos quieran hacer creer que es la IA. 

El problema de la IA generativa de imágenes radica en que si los contenidos originales ya estaban sesgados y llenos de estereotipos, la IA no es tan inteligente —ya lo advertía al inicio— como para dejarlos de lado y mostrarnos imágenes antirracistas, diversas o inclusivas. Por tanto, podemos afirmar que, hoy por hoy,  la IA generativa amplifica los prejuicios sociales a través de todos esos datos de los cuales se alimenta y con los cuales nos nutrimos después como sociedad. Sin embargo, como han alertado las expertas antes citadas en varias ocasiones, el problema principal de la injusticia algorítmica debe centrarse también en reconocer y combatir la violencia estructural ya existente antes del nacimiento de la inteligencia artificial. Porque lo que hace la IA es reproducir y —en algunos casos magnificar— algo que es palpable y real fuera de las pantallas. 

Por tanto, no solo resulta problemático el uso de estos sistemas generativos por las imágenes que crean, sino por las realidades e imaginarios colectivos que perpetúan. De alguna manera, amenazan el avance hacia una mayor igualdad en la representación de la población: promueven imágenes de personas con tono de piel clara en cargos altos de empresas mientras que las de piel más oscura ejercen trabajos precarios o temporales, por ejemplo. El hecho de verse —o no verse— en según qué imágenes puede contribuir a que personas ya marginalizadas o expulsadas de los relatos dominantes de la sociedad crean que realmente no pertenecen a ésta. Y eso, a su vez, consolida los privilegios y la falta de perspectiva crítica de quienes sí aparecen representados. 

Una vez, en unas jornadas sobre inteligencia artificial y justicia social escuché decir que la IA no es el futuro sino el presente. Y se dijo a modo de toque de atención para que dejáramos de pensar en escenarios de ciencia ficción y nos centrásemos en un problema que es ya una realidad. Y para combatirlo hay que usar el pensamiento crítico y ponernos manos a la obra. La participación de personas diversas, como reflejo de la sociedad en la que vivimos, con diferentes experiencias y trayectorias vitales y profesionales, resulta necesaria para que la IA no amplifique todavía más vulneraciones por razón de origen o género, entre otras. Las organizaciones de la sociedad civil, a su vez, deben —y ya están en ello— formar parte de los debates en torno a la inteligencia artificial. Su participación activa en los procesos de creación y decisión tecnológicos es clave para aportar un enfoque de derechos humanos y así contribuir a evitar más discriminaciones. Entre todas, con herramientas para alfabetizarnos, escucharnos, aprendernos y empujando desde abajo quizás sea posible conseguir una IA más regulada y que promueva imágenes menos discriminatorias y sesgadas.  ◼