Spread the love

Más Inteligencia Artificial, más Laicidad, más Humanidad.

El avance de la inteligencia artificial (IA) está transformando no solo las prácticas sociales, sino también las estructuras epistemológicas y éticas que sostienen las sociedades contemporáneas. En este contexto, el principio de laicidad —tradicionalmente vinculado a la neutralidad del Estado frente a lo religioso— adquiere una nueva relevancia como fundamento para la gobernanza de sistemas algorítmicos.

Debemos analizar una posible reinterpretación de la laicidad como principio epistemológico, ético y político necesario para garantizar la autonomía humana, el pluralismo y la deliberación crítica frente a la creciente influencia de la inteligencia artificial.

La IA opera como nueva autoridad cognitiva y por ende exige una reconfiguración de los marcos de regulación y formación ciudadana, donde la laicidad funcione como mecanismo de resistencia frente a nuevas formas de absolutismo algorítmico.

La irrupción de la IA como problema filosófico

La inteligencia artificial ha dejado de ser una tecnología emergente para convertirse en una infraestructura estructurante del mundo contemporáneo. Desde sistemas de recomendación hasta algoritmos de decisión en ámbitos críticos como la salud, la educación o la seguridad, la IA redefine las condiciones bajo las cuales se produce, valida y distribuye el conocimiento.

Autores como Nick Bostrom (2014) han advertido que la IA no es simplemente una herramienta, sino una forma potencial de superinteligencia capaz de alterar profundamente la agencia humana. Más recientemente, Shoshana Zuboff (2019) ha señalado que los sistemas algorítmicos forman parte de un nuevo régimen económico —el capitalismo de vigilancia— donde los datos se convierten en el principal recurso de poder.

En este marco, la IA no solo plantea desafíos técnicos, sino también problemas normativos fundamentales:

  • ¿Quién decide los criterios de los algoritmos?
  • ¿Qué valores se inscriben en ellos?
  • ¿Cómo se garantiza la pluralidad en sistemas que tienden a la homogeneización?

Es en este punto donde emerge la necesidad de recuperar y resignificar el concepto de laicidad.

Laicidad como construcción histórica

La laicidad surge en la modernidad como un principio político destinado a garantizar la convivencia entre diferentes creencias en un espacio público común. En la tradición francesa, se asocia a la neutralidad del Estado (Baubérot, 2000), mientras que en América Latina —y particularmente en Uruguay— adquiere un carácter profundamente ligado a la educación pública y a la formación de ciudadanía (Varela, 1876).

Sin embargo, esta concepción clásica se centraba en un problema específico:
la relación entre religión y Estado.

En el siglo XXI, el desafío se desplaza. Ya no se trata únicamente de evitar la imposición de creencias religiosas, sino de prevenir la emergencia de nuevas formas de dogmatismo.

La IA introduce un fenómeno inédito: la posibilidad de que sistemas técnicos adquieran un estatus de autoridad epistémica incuestionada. Como señala Floridi (2014), vivimos en una “infosfera” donde los sistemas digitales median nuestra relación con la realidad.

Históricamente, la autoridad del conocimiento se ha desplazado desde la religión hacia la ciencia. Sin embargo, en la actualidad asistimos a un nuevo desplazamiento: de la ciencia hacia los algoritmos.

Los sistemas de IA:

  • Filtran información
  • Generan contenidos
  • Predicen comportamientos
  • Automatizan decisiones

Este conjunto de funciones configura lo que algunos autores denominan “gobernanza algorítmica” (Danaher et al., 2017).

El problema no radica únicamente en el uso de la tecnología, sino en su naturalización. Cuando los algoritmos son percibidos como objetivos, neutrales o infalibles, se produce un fenómeno de sacralización tecnológica.

Este fenómeno implica:

  • Reducción del cuestionamiento crítico
  • Delegación de decisiones complejas
  • Invisibilización de sesgos

Como señala O’Neil (2016), los algoritmos pueden convertirse en “armas de destrucción matemática” cuando operan sin transparencia ni control democrático.

Uno de los conceptos clave para comprender este proceso es el de externalización de la moral. Este fenómeno describe la transferencia de decisiones éticas desde los sujetos humanos hacia sistemas automatizados.

Ejemplos claros incluyen:

  • Sistemas de selección de personal
  • Algoritmos judiciales predictivos
  • IA en educación (evaluación automatizada)

Esta externalización plantea una paradoja: cuanto más delegamos en la IA, menos ejercitamos nuestra capacidad moral.

Hannah Arendt (1963) ya advertía sobre los peligros de la “banalidad del mal” cuando los individuos renuncian a su juicio crítico. En la era de la IA, este riesgo se amplifica.

Frente a estos procesos, la laicidad puede ser concebida como un principio de resistencia estructural.

La laicidad impide que cualquier sistema —religioso, ideológico o tecnológico— se convierta en una autoridad absoluta.

Aplicado a la IA, esto implica:

  • Rechazar la idea de algoritmos incuestionables
  • Promover la auditabilidad y transparencia
  • Fomentar la participación ciudadana

La IA tiende a optimizar y homogeneizar. La laicidad, en cambio, protege la diversidad.

Esto es especialmente relevante en contextos educativos, donde el pensamiento divergente es esencial.

Siguiendo a Kant (1785), la autonomía implica la capacidad de darse a sí mismo la ley. La delegación excesiva en sistemas automatizados pone en riesgo esta capacidad.

Educación y Laicidad

El campo educativo es el espacio privilegiado donde se juega esta tensión.

En primer lugar, el avance de la inteligencia artificial en el ámbito educativo plantea una serie de riesgos que no pueden ser ignorados. Entre ellos, se destaca la creciente dependencia cognitiva de los sistemas automatizados, que puede llevar a los estudiantes a delegar procesos de pensamiento que históricamente han sido centrales en la formación intelectual. Esta dependencia se vincula directamente con una progresiva pérdida de habilidades críticas, en tanto los sujetos dejan de cuestionar, analizar y contrastar la información por sí mismos. A su vez, la utilización intensiva de herramientas basadas en IA puede contribuir a la estandarización del aprendizaje, promoviendo respuestas homogéneas y reduciendo la diversidad de enfoques, interpretaciones y procesos cognitivos.

No obstante, junto a estos riesgos, la inteligencia artificial también abre un conjunto significativo de oportunidades para el desarrollo educativo. En particular, permite avanzar hacia una mayor personalización del aprendizaje, adaptando contenidos, ritmos y estrategias a las necesidades específicas de cada estudiante. Asimismo, facilita un acceso ampliado al conocimiento, eliminando barreras geográficas, económicas y culturales, y poniendo a disposición una enorme cantidad de información y recursos educativos. En este sentido, la IA también puede convertirse en una herramienta poderosa para promover la inclusión educativa, especialmente para estudiantes con diferentes estilos de aprendizaje o necesidades específicas, contribuyendo a una educación más equitativa.

Frente a este escenario complejo, se vuelve necesario avanzar hacia el desarrollo de una pedagogía laica de la inteligencia artificial. Esto implica, en primer lugar, enseñar a los estudiantes a interrogar los algoritmos, es decir, a comprender su funcionamiento, cuestionar sus resultados y reconocer sus limitaciones. En segundo lugar, resulta fundamental promover la alfabetización en datos, entendida como la capacidad de interpretar, analizar y utilizar información de manera crítica y responsable. Finalmente, una educación laica en la era de la IA debe orientarse al desarrollo de una ética del uso tecnológico, que permita a los sujetos tomar decisiones conscientes, responsables y fundamentadas en relación con el uso de estas herramientas, preservando siempre la autonomía humana y el pluralismo.

Esto se alinea con los marcos de UNESCO (2021), que destacan la necesidad de una IA centrada en el ser humano.

 Gobernanza democrática de la inteligencia artificial

La laicidad también tiene implicancias en la gobernanza.

En el marco de la gobernanza de la inteligencia artificial, la regulación estatal adquiere un rol central e indelegable. Los Estados deben asumir la responsabilidad de establecer marcos normativos que aseguren que el desarrollo y la implementación de sistemas de IA respeten plenamente los derechos humanos, evitando vulneraciones vinculadas a la privacidad, la autonomía o la igualdad. Asimismo, resulta imprescindible garantizar la transparencia de estos sistemas, de modo que sus procesos de decisión puedan ser comprendidos, auditados y eventualmente cuestionados por la ciudadanía. En esta misma línea, la regulación debe orientarse a prevenir cualquier forma de discriminación algorítmica, considerando que los sistemas de IA pueden reproducir o incluso amplificar sesgos preexistentes si no se diseñan y supervisan adecuadamente.

Por otra parte, la gobernanza de la inteligencia artificial no puede quedar restringida a ámbitos técnicos o corporativos. La toma de decisiones en torno al diseño, implementación y uso de estas tecnologías debe involucrar a una pluralidad de actores, incluyendo a la sociedad civil, el sistema educativo, la academia y los propios ciudadanos. Limitar estas decisiones a tecnólogos o grandes corporaciones implica un riesgo para la democracia, en tanto concentra el poder en actores con intereses particulares y reduce las posibilidades de deliberación pública. En este sentido, promover instancias de participación amplia y significativa se vuelve una condición esencial para asegurar una gobernanza legítima y equitativa de la IA.

Finalmente, se hace necesario avanzar hacia la construcción de una ética pública en torno a la inteligencia artificial. Esta ética no debe ser concebida como un conjunto de normas impuestas desde una autoridad central, sino como el resultado de un proceso colectivo de deliberación, donde confluyan diversas perspectivas, valores y experiencias. Una ética pública de la IA implica reconocer la diversidad de contextos culturales y sociales, al tiempo que establece principios comunes que orienten el desarrollo tecnológico en función del bien común. De este modo, se fortalece la capacidad de las sociedades para reflexionar críticamente sobre el impacto de la IA y para tomar decisiones informadas que resguarden la dignidad y la libertad humanas.

Más laicidad para más humanidad

La inteligencia artificial no es simplemente una tecnología: es un nuevo entorno de pensamiento.

En el contexto de una sociedad crecientemente mediada por sistemas de inteligencia artificial, la laicidad se configura como un principio indispensable para sostener los equilibrios fundamentales de la vida democrática. En primer lugar, resulta clave para preservar la libertad, en tanto garantiza que ninguna forma de autoridad —ni religiosa, ni ideológica, ni algorítmica— se imponga de manera incuestionable sobre los sujetos.

Al mismo tiempo, la laicidad asegura el pluralismo, promoviendo la coexistencia de múltiples perspectivas, saberes y formas de interpretar la realidad, frente a la tendencia de los sistemas tecnológicos a homogeneizar respuestas y comportamientos.

Se vuelve esencial para defender la autonomía humana, entender  como la capacidad de las personas para pensar, decidir y actuar con criterio propio, implica no delegar completamente estas funciones en sistemas automatizados.

Sostener que “más IA requiere más laicidad” implica reconocer que el desafío central no radica únicamente en el desarrollo tecnológico, sino en la capacidad de las sociedades para preservar su dimensión ética, crítica y profundamente humana frente al avance de nuevas formas de mediación cognitiva.

Si la inteligencia artificial redefine lo que podemos hacer, la laicidad debe resguardar lo que no estamos dispuestos a dejar de ser: sujetos libres, críticos y capaces de decidir el sentido de nuestro propio destino.

Bibliografía¨

Baubérot, J. (2000). Historia de la laicidad en Francia. Presses Universitaires de France. (PDF) Baubérot, Jean, Histoire de la laïcité en France

Bostrom, N. (2014). Superinteligencia: Caminos, peligros, estrategias. Oxford University Press. RESUMIENDO LA VIDA – Resumen «Superinteligencia. Caminos, peligros, estrategias» de Nick Bostrom

Floridi, L. (2014). La cuarta revolución: Cómo la infosfera está transformando la realidad humana. Oxford University Press. La Cuarta Revolución y la Infosfera | PDF | Tecnología de información y comunicaciones | Karl Popper

UNESCO. (2021). Recomendación sobre la ética de la inteligencia artificial. UNESCO. https://unesdoc.unesco.org/

Zuboff, S. (2019). La era del capitalismo de la vigilancia: La lucha por un futuro humano frente a las nuevas fronteras del poder. PublicAffairs. La era del capitalismo de la vigilancia (Spanish Edition)

Varela, J. P. (1876/1964). La educación del pueblo.  (Trabajo original publicado en 1876)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *