Opinión

¿Merece la pena?

Virginia P. AlonsoDirectora de ‘Público’

28 de junio de 2024

Les voy a dar una buena noticia y una mala. La buena es que la inteligencia artificial generativa no es capaz de pensar, solo de simular pensamiento; no tiene sentido común. La mala es que la inteligencia artificial generativa no es capaz de pensar, solo de simular pensamiento; no tiene sentido común.

No es un error, es exactamente lo que quería decir. ¿Qué tiene de bueno que la inteligencia artificial no tenga sentido común? Que los humanos deberíamos seguir siendo necesarios para un sinfín de tareas, entre ellas la supervisión, dirección, regulación y manejo de la propia inteligencia artificial. ¿Qué tiene de negativo? Que se deje esta tecnología en manos de cabezas humanas empeñadas en hacer el mal. O, como atisba la científica Melanie Mitchell en su libro Inteligencia Artificial, guía para seres pensantes (Capitán Swing), “que le demos demasiada autonomía [a esa inteligencia artificial] sin ser totalmente conscientes de sus limitaciones y vulnerabilidades".

ChatGPT, la aplicación de chatbot de inteligencia artificial desarrollada en 2022 por OpenAI, es la tecnología más rápida de la historia de la humanidad hasta el momento. Aprende de manera tan veloz que, como dirían los chavales, se ha pasado ya el internet entero escrito en inglés. Como no hay más textos en inglés en internet de los que pueda aprender, OpenAI ha encargado a sus ingenieros un software para coger audios y vídeos de la web, convertirlos en texto y utilizarlos como si fueran textos para seguir alimentando ChatGPT.

Más allá de cuestiones como dónde queda el copyright de esos vídeos y audios, lo que está claro es que los modelos de inteligencia artificial generativa, además de aprender muy deprisa, son capaces de transmitir lo aprendido, por ingente que sea, a todo el sistema y de manera inmediata. Pero eso no significa que lo aprendido (y transmitido) sea correcto, verdadero o pertinente; ni siquiera apropiado.

Kate Crawford, una de las investigadoras más respetadas en la industria de la IA y autora de Atlas de la Inteligencia Artificial (Nuevos Emprendimientos Editoriales), argumentaba así en una entrevista para El País: “La visión dominante concibe la inteligencia como autónoma en lugar de social y relacional. Es una perspectiva improductiva y peligrosa [...]. Tiende a concentrar el poder, los recursos y la toma de decisiones en una pequeña élite del sector tecnológico. Nosotros planteamos una visión alternativa basada en la cooperación social y la equidad. Wikipedia podría ser un ejemplo”.

Sin embargo, si algo nos dicen la historia y la memoria es que la tendencia siempre es a la concentración del poder en una élite que lo controla, y que los intentos de redistribuir entre el común ese poder, incluso cuando este aún es mero conocimiento, no han sido precisamente exitosos.

No hay más que mirar la internet que conocemos hoy, en manos de unas pocas multinacionales que se reparten la atención y, sobre todo, los ingresos. Apenas nada queda de aquella red abierta, neutral y descentralizada por la que algunas peleamos en aquellos primeros años del siglo XXI.

Con el agravante de que hoy, a diferencia de entonces, los cimientos democráticos están en serio riesgo de demolición y la forma en la que se está abrazando la inteligencia artificial generativa anima a reflexionar, como mínimo, en el impacto que puede tener su uso masivo en la gobernanza democrática y en los propios derechos humanos. Sobre todo, porque los intentos de regulación que se están llevando a cabo (ya sea en la UE —el mejor modelo hasta la fecha—, en EE UU o en el Reino Unido) no tienen en cuenta el desequilibrio global de poder que implican estas tecnologías ni su impacto en las comunidades minoritarias o marginadas. Y esto va mucho más allá de los sesgos de los algoritmos.

Es esencial que la regulación de la inteligencia artificial certifique que los beneficios que generen estos desarrollos se obtienen sin que los derechos humanos paguen ningún tipo de peaje.

Recuerden que, aunque para el común de los mortales la vigilancia en tiempo real mediante inteligencia artificial todavía es ciencia ficción, para los y las refugiadas de los campos de Samos y Leros (Grecia) ya es una realidad cotidiana, como relata Hibai Arbide Aza dentro de unas páginas. En los Centros de Acceso Controlado Cerrado (CCAC por sus siglas en inglés, que es como se denomina ahora a estos campos de refugiados), las personas viven bajo constante vigilancia y están sujetas al escaneo de iris y huellas dactilares de manera diaria, lo que genera una extensa base de datos biométricos para todos los países del área Schengen.

Sin embargo, pocos derechos humanos quedarán a salvo si el avance de la IA pasa por la inmolación del planeta a base de la extracción de minerales para la fabricación de hardware, de la contaminación que producen los centros de datos de IA, del inmenso consumo de energía de sus servidores, del coste ambiental de deshacerse de los residuos que produce y de las condiciones laborales que generan en países no desarrollados actividades derivadas de su desarrollo; por ejemplo, dos euros por hora cobran personas en algunos países de África por moderar contenidos de manera manual y eliminar frases violentas, sexuales y discursos de odio.

Llegados a este punto, y conscientes de los enormes avances que pone ante nosotros la inteligencia artificial, tal vez la gran cuestión sea: ¿De verdad merece la pena? ◼