Spread the love

POSDEMOCRACIA Serie 3 – Capítulo 3

“Del ciudadano soberano al ciudadano rastreado: el nuevo rostro del poder invisible.”

Este capítulo analiza cómo el uso de datos personales, inteligencia artificial y vigilancia digital están configurando nuevas formas de poder que erosionan las bases éticas y deliberativas de la democracia.

Inspirándonos en Michel Foucault, podemos decir que la modernidad construyó su forma de control social a través de lo que él llamó el panoptismo: una arquitectura del poder basada en la vigilancia visible y disciplinaria. En la posmodernidad digital, ese panóptico ha mutado. Ya no se necesita una torre de vigilancia central. Hoy vivimos en el datáptico: una red invisible, distribuida, que extrae, analiza y monetiza nuestra conducta.

El datáptico no sólo observa: predice, interviene y condiciona. Los datos que generamos (al navegar, comprar, hablar, desplazarnos) alimentan sistemas de IA que, sin transparencia ni control ciudadano, influyen en decisiones políticas, comerciales, judiciales y sociales. Ya no se trata de ver sin ser visto, sino de capturar sin que el sujeto sepa que está siendo capturado.

El avance de la biometría estatal y corporativa —reconocimiento facial, huellas digitales, escaneo de iris, voz— ha redefinido el vínculo entre el ciudadano y el Estado. Lo que antes era un sujeto de derechos, hoy es también un cuerpo codificado, registrado, identificado permanentemente. Esta condición da lugar a una nueva forma de ciudadanía: la ciudadanía bajo sospecha.

En nombre de la seguridad, la eficiencia o la lucha contra el fraude, se han expandido sistemas de vigilancia biométrica masiva, muchas veces sin consentimiento explícito ni control democrático. En países con democracias formales (incluido Uruguay), se despliegan tecnologías de reconocimiento facial en espacios públicos sin debate parlamentario previo, mientras se acumulan bases de datos genéticos o conductuales. El biopoder digital transforma a cada ciudadano en un objeto de riesgo a gestionar.

La IA y su intervención en la Justicia

La aplicación de inteligencia artificial predictiva a sistemas judiciales, policiales o sociales representa una de las formas más sofisticadas del nuevo poder tecnopolítico. Bajo la promesa de objetividad y eficiencia, estas tecnologías anticipan comportamientos, recomiendan sentencias, evalúan riesgos, sin rendir cuentas ante la ciudadanía.

En EE.UU., softwares como COMPAS predicen la probabilidad de reincidencia criminal. En América Latina, algunos gobiernos han comenzado a utilizar IA para determinar quién merece recibir una prestación social, un ascenso laboral o una intervención educativa prioritaria. Pero estos algoritmos no son neutrales: reproducen los sesgos de quienes los diseñan y los datos que los alimentan. Así, se consolida un nuevo Leviatán digital, que no reprime con fuerza, sino que clasifica, segmenta y sanciona desde la opacidad.

La soberanía digital implica que un país tenga control sobre los datos que produce, almacena y utiliza, especialmente cuando estos datos afectan derechos fundamentales. Sin embargo, en la práctica, la infraestructura tecnológica está privatizada: servidores, nubes, plataformas, sistemas operativos… todo está en manos de grandes corporaciones globales que no responden ante ningún Estado.

Este fenómeno coloca a los Estados en una posición paradójica: necesitan de empresas como Amazon, Microsoft o Huawei para digitalizar servicios públicos, pero al mismo tiempo ceden soberanía sobre los datos ciudadanos. En Uruguay, por ejemplo, el uso de plataformas extranjeras en educación, salud o gestión documental plantea interrogantes serios sobre protección de datos, privacidad y control estatal.

Los algoritmos no son meras herramientas técnicas. Son estructuras de decisión automatizada que están reemplazando procesos deliberativos. Deciden qué noticias vemos, qué productos compramos, qué trayectos seguimos, con quién interactuamos, y cada vez más, qué opciones políticas están disponibles para nosotros.

Este proceso erosiona el espacio deliberativo, porque reduce la política a un conjunto de sugerencias personalizadas, basadas en nuestros comportamientos pasados. Lo que debería ser una decisión racional y colectiva, se transforma en una elección predictiva y privada. El algoritmo prefigura nuestra libertad. Y lo hace sin que sepamos cómo, por qué o con qué intereses.

La censura en la era digital no siempre se presenta como prohibición directa. Opera de modo blando e imperceptible, mediante mecanismos como el shadowbanning, el descenso algorítmico, la reducción del alcance o el silenciamiento selectivo. Estos mecanismos son ejecutados por plataformas privadas que controlan la circulación de contenido político sin regulación pública ni transparencia.

En nombre de la moderación de contenido, muchos discursos críticos, alternativos o incómodos son silenciados sin justificación, apelación ni auditoría. Esto configura una forma de despotismo algorítmico, en el que la libertad de expresión existe legalmente, pero es filtrada, degradada o marginada de facto.

Educación y control: plataformas que enseñan y vigilan

Las plataformas educativas, tan necesarias durante la pandemia, también operan como dispositivos de control. Monitorean tiempos de conexión, patrones de respuesta, velocidad de escritura, ubicación geográfica, historial de navegación. En muchos casos, estos datos son recolectados sin consentimiento informado ni supervisión pedagógica clara.

Más grave aún, muchas plataformas educativas en línea están diseñadas por empresas con lógicas de mercado, no por educadores. Esto produce un entorno donde el rendimiento medible desplaza a la reflexión crítica, y donde el alumno es visto como usuario y no como sujeto de derecho. La educación, lejos de ser liberadora, puede convertirse en una fábrica de datos y control conductual.

El doble ciudadano: físico y digital, pero no soberano

Hoy todo ciudadano es también un sujeto digital. Tiene una identidad legal y una identidad algorítmica: una representación numérica, compuesta por datos, interacciones, perfiles y patrones. Pero mientras su ciudadanía legal está protegida por la Constitución, su ciudadanía digital está regulada por términos y condiciones de empresas privadas.

Esta dualidad crea un abismo de derechos y de poder. El ciudadano físico vota, protesta, participa. El ciudadano digital es observado, clasificado, preconfigurado. No elige sus condiciones de existencia en línea. No hay Parlamento digital, ni habeas data efectivo en tiempo real. El ciudadano es doble, pero solo uno de sus rostros es realmente libre.

Aunque Uruguay conserva estándares altos de institucionalidad democrática, también enfrenta desafíos relacionados con la vigilancia digital. El crecimiento de bases de datos estatales, la digitalización de los servicios públicos y el uso de plataformas educativas o de salud tercerizadas plantean interrogantes sobre la protección de la privacidad, el consentimiento informado y la soberanía tecnológica.

Por ejemplo, la incorporación de sistemas de reconocimiento facial en espacios públicos sin regulación parlamentaria amplia, o la dependencia de nubes extranjeras para alojar información sensible, son signos de una democracia que delega poder sin control cívico real. La vigilancia no es incompatible con la democracia, pero sí lo es cuando se ejerce sin límites, sin transparencia y sin garantía de derechos.

La única forma de resistir la deriva hacia una democracia vigilada es construir una política pública de datos centrada en el bien común. Esto implica reconocer que los datos no son propiedad privada de empresas ni patrimonio exclusivo del Estado, sino parte del ecosistema social que debe ser gobernado colectivamente.

Esto incluye:

  • Leyes de protección de datos robustas, con participación ciudadana y transparencia.
  • Alfabetización digital crítica, para que las personas comprendan qué datos entregan, a quién, y para qué.
  • Infraestructuras públicas de datos abiertos, seguras y auditables.
  • Limitaciones al uso de IA en decisiones públicas sensibles, especialmente si afectan derechos.
  • Participación ciudadana en la gobernanza de tecnologías emergentes.

En definitiva, no se trata de rechazar la tecnología, sino de politizarla democráticamente. Que no nos gobiernen los datos, sino que nosotros gobernemos los datos con justicia y conciencia colectiva.

LIBERTAS, también en espacios digitales, por la LIBERTAD, la DEMOCRACIA y la REPÚBLICA

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *