Spread the love

Por qué necesitamos ética si la IA “solo ejecuta”

Una confusión común dice: “la IA no tiene moral, por tanto no hace falta ética”. Es al revés. Precisamente porque la IA no tiene moral, la ética es imprescindible. Los sistemas de IA no distinguen entre justo e injusto, entre trato digno y trato degradante; distinguen entre datos coherentes e incoherentes. La ética aparece para recordar que en los extremos de la decisión siempre hay una persona, un cuerpo, una historia.
HumanIA sostiene que la pregunta no es “¿qué puede hacer la IA?”, sino “qué estamos dispuestos a dejar que haga”.

El problema de la despersonalización tecnológica

Los sistemas de IA, para funcionar, necesitan generalizar. Agrupan, clasifican, predicen. Eso está bien para recomendar música; está mal para decidir sobre una beca, una condena, un tratamiento médico o una trayectoria educativa.
Cuando tratamos a una persona como un dato más en un conjunto, ocurre la despersonalización tecnológica: el sujeto deja de ser alguien y pasa a ser un caso. Y donde no hay persona, la ética pierde fuerza.
La ética de HumanIA dice:

todo proceso algorítmico que afecte la vida concreta de alguien debe tener una ventana humana de revisión.

3.3. Justicia, sesgo y opacidad

La IA aprende de los datos. Y los datos vienen de sociedades reales, con desigualdades reales. Por eso es ingenuo creer que un sistema automático será “neutral”. Puede reproducir:

  • sesgos de género,
  • sesgos raciales o culturales,
  • sesgos socioeconómicos,
  • sesgos lingüísticos,
  • sesgos geopolíticos (centro vs. periferia).
    El problema ético es doble:
  1. Sesgo oculto: la decisión parece objetiva, pero arrastra discriminaciones históricas.
  2. Opacidad: no sabemos por qué decidió así.
    Una democracia no puede aceptar decisiones inapelables tomadas por sistemas que nadie entiende. Desde la visión de LIBERTAS, esto es claro: decisión pública → algoritmo auditable.

Responsabilidad: ¿quién responde por la IA?

Si la IA no tiene conciencia, entonces no puede ser sujeto de culpa. Eso nos lleva a la responsabilidad en capas:

  • el que diseña,
  • el que entrena,
  • el que implementa,
  • el que decide usarla en un contexto sensible.
    La ética pide que esa cadena sea identificable. No puede haber “lo hizo la IA”. Eso es dilución moral.
    Principio de HumanIA:

Ningún sistema inteligente puede operar sobre derechos, libertades o trayectorias educativas sin una responsabilidad humana explícita asociada.

Ética de la diferencia frente a modelos que normalizan

Los modelos de IA funcionan por promedio: lo que más se parece, lo que más se repite, lo que más probabilidad tiene. Pero las sociedades democráticas se sostienen también en lo minoritario, lo distinto, lo incómodo.
Aquí la ética se vuelve política: proteger la diferencia humana frente a modelos que tienden a uniformar. Esto incluye:

  • expresiones culturales no hegemónicas,
  • lenguajes locales,
  • estilos de aprendizaje diversos,
  • neurodivergencias.
    Una IA entrenada solo con datos estándar puede volver invisibles a muchos. Ética aplicada: si el sistema excluye sistemáticamente a una minoría, el sistema está mal, no la minoría.

Autonomía y consentimiento en la era algorítmica

Un valor ético clave es la autonomía: poder decidir sobre uno mismo con información suficiente. Las plataformas basadas en IA, sin embargo, funcionan muchas veces en modo silencioso: recomiendan, filtran, priorizan sin que el usuario lo note. Eso debilita el consentimiento.
Una ética democrática pide:

  • transparencia sobre qué hace la IA,
  • opción real de apagar o no personalizar,
  • explicación comprensible (no solo técnica).
    Si no hay comprensión, no hay consentimiento; si no hay consentimiento, la libertad es formal, no real.

Educación ética en IA: formar criterio, no miedo

No se trata de asustar a estudiantes y docentes con la IA, sino de darles criterio. Una buena educación ética en IA debería enseñar a preguntar:

  1. ¿Qué datos usó este sistema?
  2. ¿A quién beneficia y a quién puede perjudicar?
  3. ¿Hay un humano que pueda revisar o apelar?
  4. ¿Qué pasa con mi privacidad?
  5. ¿Esto mejora o empeora la inclusión?
    En el campo educativo uruguayo (y en tu ecosistema institucional), esto se traduce en protocolos claros: la IA se usa para ampliar oportunidades, no para vigilar o etiquetar.

La dimensión republicana de la ética de IA

Aquí la mirada de LIBERTAS entra de lleno, porque no estamos hablando solo de mejorar la didáctica, sino de resguardar una forma de ser ciudadano en un tiempo dominado por sistemas inteligentes. Para LIBERTAS, enseñar a diferenciar entre un texto que solo suena correcto y un texto que realmente construye sentido es una tarea de defensa cívica: quien no sabe hacer esa distinción queda a merced de los algoritmos que ordenan el discurso público, deciden qué se ve primero y moldean poco a poco lo que una comunidad cree que es verdad.

En otras palabras, LIBERTAS entiende la alfabetización en IA como alfabetización para la autonomía. No basta con que las personas sepan pedirle cosas a la máquina; deben saber cuándo la máquina está produciendo un discurso vacío, cuándo está omitiendo contexto, cuándo está presentando como neutro algo que en realidad tiene un punto de vista. Ese “saber ver” es el núcleo de la libertad intelectual: poder decir “esto no alcanza”, “esto está incompleto”, “esto está sesgado”. Una sociedad que pierde esa capacidad no necesita censura: la gobiernan los flujos algorítmicos.

Por eso, desde LIBERTAS, el aula se convierte en el lugar donde se ensaya esa resistencia serena. Allí se muestra que el lenguaje puede ser abundante y, sin embargo, poco significativo; que la IA puede redactar con elegancia y, sin embargo, no decir nada nuevo; que la forma no garantiza verdad. Formar en esa lucidez es garantizar que la democracia siga siendo deliberativa y no solo consumidora de contenidos.. Una república se define, entre otras cosas, por:

  • la limitación del poder,
  • la transparencia de las decisiones,
  • la igualdad ante la ley.
    Si permitimos que sistemas cerrados, propiedad de pocos, decidan sobre muchos, concentramos poder tecnológico sin control democrático. La ética, entonces, no es solo individual (“sé responsable”), es institucional:
  • el Estado debe garantizar estándares éticos de IA,
  • las instituciones educativas deben declarar cómo usan IA,
  • los ciudadanos deben tener derecho a no ser gobernados por cajas negras.

Criterios éticos mínimos para IA en educación y sociedad

Podemos enunciar un marco básico:

  1. Primacía de la persona: ningún beneficio técnico justifica dañar la dignidad de un estudiante/usuario.
  2. Finalidad legítima: la IA debe tener una finalidad educativa, social o de servicio clara.
  3. Proporcionalidad: no usar IA más de lo necesario ni recolectar más datos de los necesarios.
  4. Transparencia: informar qué se hace, para qué y con qué límites.
  5. Inclusión y accesibilidad: la IA debe disminuir barreras, no crearlas.
  6. Rendición de cuentas: siempre debe haber un responsable humano.

La ética es el freno humanista al entusiasmo tecnológico. No para impedir, sino para orientar.

Toda IA que actúa sobre personas debe ser revisable por personas. Si no hay apelación humana, no hay justicia.

La diferencia y la libertad interior son valores superiores al rendimiento. Un sistema que hace todo más rápido pero vuelve a las personas más previsibles atenta contra la democracia.



    Documento de Políticas y Lineamientos para el Uso Ético de la Inteligencia Artificial

    Preámbulo

    LIBERTAS nace como un espacio de defensa de la libertad, la democracia republicana y la dignidad de la persona humana. La irrupción de la inteligencia artificial (IA) representa una de las transformaciones tecnológicas más profundas de nuestra época: amplía capacidades, acelera procesos y multiplica la generación de información. Pero, al mismo tiempo, trae riesgos de despersonalización, de concentración de poder tecnológico y de erosión de la autonomía del pensamiento.

    Este documento propone un marco ético-humanista para el uso de la IA. No es un manual técnico, sino una carta de principios aplicada: define qué IA queremos, qué IA no queremos y bajo qué condiciones es útil a la persona humana.


    Marco conceptual

    1. Inteligencia Artificial (IA): conjunto de técnicas computacionales que permiten a los sistemas realizar tareas que, si fueran hechas por humanos, requerirían inteligencia (reconocimiento de patrones, clasificación, generación de contenidos, diálogo, predicción).
    2. IA generativa: subgrupo de la IA capaz de producir contenidos nuevos (texto, imagen, audio, video, código) a partir de grandes volúmenes de datos previamente entrenados.
    3. Sistemas algorítmicos de decisión: herramientas que, mediante modelos de IA o reglas complejas, recomiendan, priorizan o deciden acciones que pueden afectar a personas.
    4. Enfoque humanista: concepción que sostiene que la persona es fin y no medio; que la dignidad no es reducible a utilidad; y que la tecnología debe ser juzgada a la luz del bien humano.
    5. Perspectiva republicana: visión política según la cual el poder —también el tecnológico— debe ser limitado, transparente y sometido a rendición de cuentas.

    Finalidad del documento

    • Garantizar que toda utilización de IA sea coherente con los principios y declaraciones de DD.HH. y dignidades humanas.
    • Establecer criterios éticos claros para la adopción, producción, difusión y supervisión de contenidos generados con apoyo de IA.
    • Proteger a las personas frente a usos opacos, intrusivos o discriminatorios de la IA.
    • Promover una cultura de IA responsable, crítica y democrática.

    Principios rectores

    1. Primacía de la persona

    La persona humana es el centro. Ningún objetivo de eficiencia, masividad o estandarización justifica reducir a las personas a meros objetos de análisis. La IA se adopta solo si mejora la experiencia humana y nunca si la degrada.

    2. Dignidad y no despersonalización

    Toda producción con IA debe recordar que detrás de los datos hay historias, identidades, trayectorias. Se prohíbe el uso de IA para etiquetar, estigmatizar o clasificar personas por motivos ideológicos, religiosos, de orientación o cualquier otra condición personal.

    3. Libertad interior y autonomía del pensamiento

    LIBERTAS entiende la libertad no solo como libertad de expresión, sino como libertad de conciencia. La IA no debe utilizarse para imponer narrativas únicas ni para influir encubiertamente en la formación de opiniones. La persona debe conservar siempre la posibilidad real de decir “no”.

    4. Transparencia y explicabilidad

    La ciudadanía tiene derecho a saber cuándo un contenido ha sido generado o asistido por IA. Los mensajes de LIBERTAS que utilicen IA deberán, cuando sea pertinente, explicitarlo. La opacidad tecnológica es contraria al ideal republicano.

    5. Defensa de la diferencia

    Los modelos de IA funcionan por promedios. LIBERTAS defiende la pluralidad, las voces minoritarias y las estéticas no hegemónicas. Por ello promoverá bases de datos, ejemplos y mensajes que incluyan diversidad lingüística, cultural y cognitiva.

    6. Responsabilidad humana indelegable

    La IA puede sugerir, pero no puede decidir. Siempre habrá una persona responsable que revise, edite y autorice.

    7. Proporcionalidad y minimización de datos

    Se utilizará la IA con la menor recolección de datos posible. No se almacenarán datos personales sin una finalidad clara. No se harán seguimientos, perfiles o registros que no respondan a una necesidad legítima.

    4.8. Fortalecimiento democrático

    Toda herramienta de IA usada por LIBERTAS debe contribuir al debate público más informado, a la defensa de la democracia y a la protección de la república frente a concentraciones de poder, incluso las tecnológicas.


    Derechos de las personas frente a la IA utilizada por LIBERTAS

    1. Derecho a saber: toda persona tiene derecho a saber si está interactuando con un sistema de IA o con una persona natural, cuando esa distinción sea relevante.
    2. Derecho a explicación: si una acción que le afecta fue apoyada por IA, la persona puede solicitar una explicación comprensible.
    3. Derecho a corrección: si la IA produjo información incorrecta, ofensiva o sesgada sobre una persona o colectivo, podrá solicitar su revisión y corrección.
    4. Derecho a no ser perfilado sin consentimiento: no usar IA para segmentar o perfilar ideológicamente a las personas sin una base ética y legal clara.
    5. Derecho a la diferencia: las personas tienen derecho a que su estilo, su lengua o su forma de pensar no sean homogeneizados por el uso de IA.

    Categorías de uso de IA

    Para ordenar los riesgos, LIBERTAS reconoce tres niveles:

    1. Bajo riesgo (uso expandido)

    • Redacción asistida de textos institucionales.
    • Generación de títulos, guiones, esquemas.
    • Mejora de estilo.
    • Traducciones y resúmenes.
      Condición: revisión humana antes de publicar.

    2. Riesgo medio (uso condicionado)

    • Generación de imágenes o videos que representan personas.
    • Análisis de tendencias a partir de datos públicos.
    • Chatbots de consulta sobre contenidos.
      Condiciones: indicar uso de IA; supervisión periódica; evitar información engañosa; garantizar opción de contacto humano.

    3. Alto riesgo (uso restringido o no admitido)

    • Segmentación política oculta.
    • Clasificación de personas por ideología o condición personal.
    • Simulación de voces o identidades reales sin consentimiento.
    • Automatización de decisiones que afecten derechos.
      Condición: por defecto NO se usa. Solo se habilita con justificación escrita y controles adicionales.

    Procedimientos operativos

    1. Revisión humana obligatoria

    Toda pieza elaborada con IA deberá ser revisada por una persona que:

    • verifique la exactitud de los datos;
    • adecue el tono
    • elimine sesgos o afirmaciones no sustentadas;
    • incorpore citas o referencias cuando sea necesario.

    2. Señalización

    En materiales públicos en los que el uso de IA pudiera inducir a confusión (por ejemplo, imágenes hiperrealistas, textos que parecen testimonios), se sugerirá una nota del tipo:

    “Este material fue elaborado con asistencia de herramientas de inteligencia artificial y revisado por …”

    3. Documentación

    Para proyectos de mayor sensibilidad, se recomienda dejar constancia de:

    • herramienta utilizada,
    • fecha,
    • finalidad,
    • responsable humano.

    Esto permite rendir cuentas si más adelante se cuestiona una pieza.

    4. Corrección y retiro

    Si se detecta que la IA generó un contenido inexacto, difamatorio o contrario a los principios generalmente admitidos, el material deberá ser:

    1. retirado o corregido,
    2. explicado (si ya fue público),
    3. documentado para evitar repetición.

    Formación y cultura

    LIBERTAS promoverá una alfabetización en IA con tres dimensiones:

    1. Técnica básica: qué es un modelo, qué es un conjunto de datos, qué es alucinación, qué es sesgo.
    2. Crítica y humanista: diferencia entre lenguaje plausible y lenguaje con sentido; diferencia entre automatización y juicio; diferencia entre herramienta y sujeto.
    3. Republicana: riesgos de concentración de poder, cajas negras, vigilancia, manipulación informativa.

    Se fomentará que toda persona vinculada a LIBERTAS conozca al menos:

    • cómo detectar un contenido generado por IA,
    • cómo pedirle a la IA mejores resultados sin perder la autoría,
    • cómo identificar cuándo la IA está excluyendo o uniformando voces.

    Transparencia y comunicación

    • LIBERTAS se compromete a no utilizar IA para desinformar ni para crear contenidos con apariencia de fuente real que no lo sea.
    • En campañas, manifiestos o posicionamientos públicos, se priorizará el contenido escrito por personas y solo asistido por IA.
    • Cuando se usen avatares, voces sintéticas o imágenes generadas que representen entidades de LIBERTAS, se indicará que son representaciones generadas.

    Gobernanza y actualización del documento

    1. Autoridad ética: En lo institucional se podrá designar una persona o pequeño comité encargado de revisar el uso de IA y proponer correcciones.
    2. Revisión periódica: el documento deberá revisarse al menos una vez al año, o cada vez que aparezcan tecnologías que cambien sustancialmente el escenario (p. ej. agentes autónomos).
    3. Mecanismo de denuncia: cualquier persona que detecte un uso de IA contrario a estos lineamientos puede informarlo para su revisión.
    4. Compatibilidad normativa: en caso de que existan leyes nacionales o marcos internacionales más exigentes, se procurará alinearse con el estándar más protector de la persona.

    Posicionamiento de LIBERTAS frente a la IA

    • La IA es una conquista humana y como tal debe ser celebrada.
    • Pero la IA no es un nuevo sujeto moral ni político.
    • La IA debe fortalecer la libertad de expresión, no sustituirla.
    • La IA debe ampliar la participación ciudadana, no segmentarla en burbujas.
    • La IA debe apoyar la creatividad humana, no volverla prescindible.

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *