Hay una vieja frase que versa: «Los problemas de la Libertad se resuelven con más Libertad»
Es cierto que en muchos casos, la ampliación de la libertad puede contribuir a resolver problemas relacionados con la libertad. Al promover un entorno en el que las personas tengan más autonomía y capacidad para tomar decisiones, se pueden abordar diversas restricciones y limitaciones.
Sin embargo, es importante destacar que la relación entre la libertad y sus problemas no siempre es tan simple y directa. Algunos desafíos relacionados con la libertad pueden requerir enfoques más complejos y equilibrados para encontrar soluciones efectivas.
En el contexto que nos ocupa, a inteligencia artificial, tiene más elementos de análisis.
Simplemente aumentar la libertad individual puede no ser suficiente para abordar problemas como los sesgos algorítmicos o la discriminación. Pueden ser necesarias medidas adicionales, como la regulación y la supervisión, para garantizar que los sistemas de IA sean justos e imparciales.
Además, en algunos casos, la ampliación indiscriminada de la libertad individual puede generar conflictos y tensiones entre diferentes actores o grupos de la sociedad. Es necesario considerar cómo se equilibran los derechos y libertades de diferentes personas y grupos, y cómo se resuelven los conflictos entre ellos.
La relación entre la libertad y la inteligencia artificial es multidimensional y compleja.
Es fundamental abordar aspectos como la diversidad de opciones, los sesgos y la discriminación, la responsabilidad, la privacidad y la transformación del trabajo. Al hacerlo, podemos aprovechar los beneficios de la IA para mejorar la libertad individual y colectiva, al tiempo que mitigamos los riesgos y desafíos asociados con su implementación.
ASPECTOS A CONSIDERAR:
Libertad de elección y autonomía: La inteligencia artificial puede influir en la libertad de elección y la autonomía individual de diferentes maneras. Por un lado, la IA puede ayudar a las personas a tomar decisiones informadas al proporcionarles información precisa y personalizada. Sin embargo, existe el riesgo de que la IA limite la diversidad de opciones y genere burbujas de filtro, donde las personas solo se expongan a ideas y perspectivas similares a las suyas. Esto podría restringir su libertad de explorar diferentes puntos de vista y tomar decisiones basadas en una amplia gama de información.
Sesgos y discriminación: La inteligencia artificial puede heredar y amplificar sesgos existentes en los datos utilizados para entrenar los sistemas. Esto puede resultar en decisiones discriminatorias y limitar la libertad de ciertos grupos. Por ejemplo, si los sistemas de IA utilizados en la contratación laboral están sesgados hacia ciertos perfiles, podría perpetuar la discriminación sistemática y restringir la libertad de las personas para acceder a oportunidades laborales justas.
Responsabilidad y rendición de cuentas: A medida que la IA se vuelve más autónoma e independiente, surge la cuestión de quién es responsable de las decisiones y acciones de los sistemas de IA. Esto es relevante para preservar la libertad individual y la justicia. Es necesario establecer mecanismos de rendición de cuentas y responsabilidad claros para garantizar que las decisiones tomadas por la IA sean transparentes, comprensibles y sujetas a revisión y apelación.
Privacidad y libertad de expresión: La recopilación masiva de datos y la vigilancia basada en IA plantean desafíos significativos para la privacidad y la libertad de expresión. Si las personas se sienten constantemente vigiladas y temen represalias o discriminación por sus opiniones, su libertad de expresión puede verse restringida. Es fundamental establecer salvaguardias sólidas para proteger la privacidad y garantizar que el uso de la IA respete los derechos fundamentales de las personas.
Transformación del trabajo y el mercado laboral: La adopción generalizada de la IA y la automatización tiene el potencial de transformar significativamente el mercado laboral. Si bien la IA puede liberar a las personas de tareas repetitivas y peligrosas, también puede desplazar a los trabajadores en ciertos sectores. Esto plantea desafíos para la libertad económica y la capacidad de las personas para tomar decisiones sobre su carrera y su forma de vida.
POSVERDAD e IA
El concepto de posverdad se refiere a la situación en la que los hechos objetivos tienen menos influencia en la formación de la opinión pública que las emociones y las creencias personales. En otras palabras, en la era de la posverdad, la verdad objetiva tiende a ser eclipsada por la información que se ajusta a las opiniones y prejuicios individuales.
La inteligencia artificial (IA) puede desempeñar un papel en el fenómeno de la posverdad de diversas formas. Por un lado, la IA puede ser utilizada para crear y difundir contenido falso o engañoso de manera más sofisticada. Por ejemplo, se han desarrollado algoritmos de generación de texto capaces de producir noticias falsas que pueden ser difíciles de distinguir de los artículos reales escritos por humanos.
Además, la IA puede influir en la propagación y amplificación de la posverdad a través de las redes sociales y otras plataformas en línea. Los algoritmos de recomendación utilizados por estas plataformas a menudo están diseñados para mostrar contenido que se ajuste a las preferencias y creencias del usuario, lo que puede generar burbujas de filtro y reforzar las opiniones sesgadas o falsas. Esto puede crear un entorno en el que las personas solo están expuestas a información que confirma sus propias ideas preconcebidas, lo que alimenta el fenómeno de la posverdad.
Sin embargo, también es importante tener en cuenta que la inteligencia artificial puede desempeñar un papel positivo en la lucha contra la posverdad. Por ejemplo, se están desarrollando herramientas basadas en IA para detectar y combatir la desinformación en línea. Estas herramientas utilizan técnicas de procesamiento de lenguaje natural y aprendizaje automático para analizar grandes cantidades de información y identificar patrones de desinformación o noticias falsas.
TRANSCRIBIMOS artículo de Eva Moya «Libertad de pensamiento e inteligencia artificial publicado en la edición de julio de la REVISTA TELOS de Telefónica Española.
Libertad de pensamiento e inteligencia artificial
POR EVA MOYA
ILUSTRADOR SEAN MACKAOUI
Los nuevos avances en inteligencia artificial han sorprendido por su capacidad de generar contenido que hasta ahora era propio de la creatividad humana. Entramos en una nueva era que obliga a una profunda reflexión sobre si los algoritmos de la IA pueden ayudarnos a avanzar como sociedad. Hay que analizar la posibilidad de que puedan ser utilizados de forma perversa para así favorecer las tácticas de manipulación social. Es el momento de revisar qué acciones deben ser contempladas para evitarlo.
Vivimos una época histórica compleja, donde la interacción entre los descubrimientos tecnológicos y los nuevos comportamientos sociales nunca han sido tan relevantes para la configuración del futuro de la humanidad. En este sentido, el empuje recibido por los avances en inteligencia artificial (IA), las tecnologías cuánticas1 y el 5G/6G2 están facilitando la posibilidad de delegar tareas y funciones sobre los automatismos, así como mejorar los procesos de las operaciones. Los automatismos más conocidos están relacionados con la fabricación o sistemas industriales, algunos de los cuales utilizamos en nuestras casas, como por ejemplo los robots de limpieza, que estudian nuestros patrones de uso de la casa; o a través del consumo de servicios, como en el caso de las aplicaciones de servicios de transporte que pueden identificar las mejores rutas3. Sin embargo, también hay otras opciones que aparecen en el horizonte que pueden mejorar nuestra calidad de vida, como aquellas orientadas a la salud4, al cuidado de los dependientes5, a la mejora del entorno y medioambiente6, etcétera.
A los usos más tradicionales, sin embargo, se unen también otros de gran impacto en el desarrollo de las relaciones humanas como son aquellos relacionados con la comunicación y el lenguaje. Por ejemplo, se reflexiona ya cómo la IA puede ayudar en los procesos de aprendizaje7. Pero también, recientemente la humanidad se ha sorprendido ante la manifestación más cercana al pensamiento creativo automatizado a través de una serie de chatbots8 capaces de dialogar sobre casi cualquier tema, como el ChatGPT9 del proyecto OpenIA. Este bot tiene la particularidad de que está disponible para ser consumido por cualquier persona de forma gratuita, lo que le está permitiendo ampliar la base de conocimiento a gran velocidad. Sin embargo, no solo existen aquellas inteligencias centradas en texto, sino también tenemos disponibles otras inteligencias multimedia centradas en imágenes, como la primera versión gratuita de DALL·E, del proyecto Craiyon10, que ha evolucionado con OpenIA en una segunda versión comercial que está siendo utilizada por grandes compañías para generar contenidos visuales11. Y, por supuesto, también se pueden generar contenidos visuales a través de vídeo como es el caso del generador de vídeos animados llamado Raw Shorts12 o vídeos reales como Synthesia13.
Las tecnologías y la manipulación del pensamiento ya vienen operando juntas desde hace tiempo
Ahora bien, toca preguntarse hasta qué punto la creatividad del bot puede ir más allá de una mera reconstrucción de contenidos basados en la información de la que dispone la inteligencia artificial, o esta será capaz de construir contenidos creativos por sí misma. En este sentido hay más sorpresas, como por ejemplo la IA denominada Text-Davinci-003, que ha sido capaz de generar un poema basado en la teoría de la relatividad de Albert Einstein14, o Botto15, quien ya vende cuadros por más de un millón de dólares.
IA en espacios humanos
Es importante destacar que hoy el aprendizaje es dirigido. Esto significa que la IA necesita una serie de inputs de información para poder funcionar y conforme se interactúa con ella, la IA va generando el contenido. Ahora bien, la IA no está preparada para evaluar si el contenido sobre el que aprende está verificado o incumple los valores que consideramos universales16. En esta línea, son todos los movimientos de la UE para conseguir “la ética de los algoritmos”17.
Ante este panorama se abren varios escenarios que deben ser contemplados, no solo a través de las numerosas oportunidades que nos pueden brindar, sino también a través de los diferentes riesgos a los que exponemos a la humanidad, que no solo pueden ser tecnológicos, sino que también pueden afectar a nuestra forma de interpretar la realidad.
Los algoritmos nos encierran en todo lo que encaja en nuestras preferencias
Toca recordar el punto de partida. Estamos ante una sociedad totalmente perfilada por las grandes plataformas a las que regalamos nuestros datos y que les permiten identificar nuestros patrones de consumo y comportamiento. Gracias al big data de buscadores, redes sociales, plataformas de comercio electrónico y demás, hemos ido permitiendo que se desarrolle una identidad digital sobre nosotros con unas claras líneas que definen lo que nos motiva o lo que nos disgusta. Tanto es así que hoy en día es difícil leer en Internet algo que no sea de nuestro agrado, dado que los algoritmos nos encierran en todo lo que encaja en nuestras preferencias, mostrándonos alternativas para leer, ver, escuchar o participar en aquellas experiencias que sean similares a lo que nos gusta. Este efecto ha sido bautizado por el ciberactivista Eli Pariser como “el filtro burbuja”.
El marcador somático
Si añadimos al “filtro burbuja” todo lo aprendido ya desde que Antonio Damasio identificara su “marcador somático” en la obra El error de Descartes (1994), quien refiere la relevancia de las emociones en todas las decisiones, nos encontramos ante una palanca accionable, que puede llegar a facilitar la manipulación del pensamiento humano sobre decisiones más relevantes para la humanidad que el simple hecho de incitar a una compra sobre otra.Una de las perversiones en el centro de la confluencia tecnológica que venimos argumentando, es la ya muy conocida posverdad. Esa técnica de comunicación, donde el generador del contenido solo muestra una parte de la verdad y la magnifica, de tal manera que parece la única verdad. Esa parte de la realidad, normalmente, suele coincidir con algunas creencias del grupo objetivo sobre el que se actúa, con la intención de activar el sesgo de confirmación18 para suministrar un anclaje mental de supuestos argumentos objetivos.

El Brexit es, sin duda, uno de los ejemplos más claros y recientes del impacto de la posverdad en la política europea. La campaña a favor de la salida del Reino Unido de la Unión Europea utilizó reconocidas técnicas de posverdad como por ejemplo, el hecho de centrarse solo en la cantidad de dinero que los ingleses estaban aportando a la UE. La manipulación consistía en la convicción de que todo ese dinero iría a parar directamente a las arcas de un Reino Unido libre que podría utilizar en su sistema de sanitario19. Boris Johnson utilizó la cifra bruta, sin los desembolsos posteriores que la UE devolvía al país, representando más de la mitad de ese dinero. Como Johnson sabía que una de las principales quejas ciudadanas venía por el sistema de salud, considerado deficiente por gran parte de la ciudadanía británica, simplemente diseñó una estrategia de inferencia argumental que los ciudadanos no querrían refutar.
Llegados a este punto, donde las tecnologías y la manipulación del pensamiento ya vienen operando juntas desde hace tiempo, se nos plantean nuevos escenarios de riesgo digital sobre los que debemos actuar. Vamos hacia una IA hiperconectada, gracias a una velocidad de procesamiento de datos cada vez mayor; con capacidad de aprender del big data, que le facilita interpretar cómo somos y cómo interactuamos entre nosotros; y capaz de identificar todas las claves de nuestra manera de comunicarnos para dotar a los contenidos generados de un aspecto de veracidad. Es verdad que la capacidad del razonamiento inductivo no está al alcance de las IA, tal y como justifica Larson en su Mito de la inteligencia artificial (2022), pero la toma de decisiones basada en argumentos sesgados que van moldeando la mente con las técnicas de posverdad, tampoco se basan en la aplicación del pensamiento crítico por parte de los ciudadanos.
Bajo esta premisa, y en términos generales, hay dos escenarios vinculados a las IA que podrían magnificar y ampliar los alcances de las tácticas de posverdad, manipulación del pensamiento y control social.
En el primer escenario, estos algoritmos podrían mejorar las técnicas actuales de posverdad y ser utilizadas por grupos de poder con la intención de distorsionar la realidad y crear tendencias de opinión enfocadas a sus propios intereses, ya sean de tipo político, social o económico. En el segundo escenario, la propia IA podría aprender estas tácticas de manipulación como parte de su aprendizaje mientras observa y analiza las relaciones sociales. Algo muy similar a lo que ocurrió con Tay, el chatbot de IA que Microsoft tuvo que retirar de la red tras aprender conductas xenófobas20.
Evidentemente, los saltos tecnológicos son necesarios para evolucionar como humanidad, al menos en algunos aspectos, por lo que frenar el desarrollo también es frenar todas las oportunidades que se abren a su paso. Sin embargo, a falta de unas líneas claras de defensa, esta es una propuesta que parte de la comunidad digital y grandes pensadores han realizado recientemente con la idea de ralentizar el primer impacto de la aplicación a gran escala a través de una carta abierta denominada Pause Giant AI Experiments21. Sin embargo, “pausar” no es la solución definitiva, ni tampoco asegura una reflexión profunda que permita desarrollar mecanismos de control hacia el futuro.
Proteger a la humanidad
Hay dos puntos de intervención humana que están muy claros para conseguir una protección de los derechos y libertades reales.
Por un lado, está el hecho de seguir profundizando en tomar consciencia del impacto social de los desarrollos de código de las IA, al margen de solo el beneficio económico. Por el otro, empieza a ser muy relevante desarrollar sistemas de identificación temprana que señalen con rapidez cuándo una IA se ha desvirtuado o está actuando en una dirección incompatible con los valores deseados.
Los saltos tecnológicos son necesarios para evolucionar como humanidad. Frenarlos es alejar las oportunidades que generan
La cuestión ética sobre el desarrollo de los algoritmos lleva tiempo en las casas de las grandes plataformas que salieron al mercado en busca de expertos en la materia. Sin embargo, paradójicamente, estamos en un momento en el que estas grandes plataformas están despidiendo a estos expertos debido a la crisis en el sector tecnológico22. Así pues, se están adelgazando las estructuras de aquellos perfiles que más se necesitan para generar un entorno digital seguro y social, primando la visión del negocio entendido desde su perspectiva más dura.
Respecto a la segunda opción, parece que queda algo lejos, pues de momento solo existen aproximaciones filosóficas y semillas de ideas normativas, como la de la Unión Europea y su ética de los algoritmos ya mencionada; o los avances reflexivos por parte de la UNESCO en su versión de la Ética de la inteligencia artificial23. En España, por ejemplo, tenemos ya nuestra Estrategia Nacional de Inteligencia Artificial (ENIA)24, que incluye los aspectos relacionados con el impacto social. Sin embargo, si se quiere explotar esta vía, conviene avanzar más rápido en el diseño de frameworks que puedan ser aplicados sobre la realidad que se nos presenta, determinando aquellos actores que están obligados a intervenir y levantando un sistema de indicadores sólido que facilite el alertamiento temprano para volver los entornos digitales más seguros y respetuosos con la libertad de pensamiento y derechos fundamentales.