Porque la Filosofía sigue siendo necesaria
La irrupción de la IA generativa ha hecho que muchos crean que la cuestión es solo técnica: más datos, más parámetros, más potencia. Pero la filosofía aparece cuando la técnica empieza a imitar lo humano. Si una máquina habla, ¿significa que entiende? Si escribe poesía, ¿significa que siente? Si toma decisiones, ¿significa que es responsable?
La filosofía sirve acá para separar tres niveles que hoy se confunden:
- El funcionamiento (lo que el sistema hace).
- La fenomenología (lo que el sistema parece).
- La ontología (lo que el sistema es).
HumanIA quiere anclar la discusión en este tercer nivel: que algo parezca inteligente no significa que sea un sujeto.
Desde el siglo XX se discute si es posible una IA fuerte: una máquina con estados mentales genuinos, conciencia y comprensión. La mayoría de los sistemas actuales son IA débil: resuelven tareas específicas muy bien, incluso con apariencia generalista, pero no tienen experiencia de mundo.
Lo que tenemos hoy son modelos estadísticos de lenguaje y percepción extremadamente avanzados. Lo que no tenemos es una mente consciente artificial. Confundir esto es peligroso porque lleva a humanizar la máquina y, peor todavía, a maquinizarnos nosotros.
Uno de los problemas filosóficos actuales es la ilusión de comprensión: si el sistema responde bien, asumimos que entiende. Pero la máquina trabaja por correlaciones; el humano, por significados.
Podemos decirlo así:
- La IA predice la siguiente palabra plausible.
- El humano intenciona una palabra cargada de sentido.
La diferencia es la intencionalidad (Husserl, Searle): la conciencia humana está siempre dirigida a algo, situada. La IA no “apunta” al mundo; procesa cadenas de símbolos sin vivencia.
Conciencia: experiencia vs. procesamiento
La conciencia humana tiene dos rasgos que la IA no tiene:
- Cualidad subjetiva (qualia): el “cómo se siente” estar vivo, ver un color, sentir dolor.
- Reflexividad: puedo saber que sé, pensar sobre mis propios estados.
Los sistemas de IA pueden ser metaprogamados, pero eso no es lo mismo que autoexperimentarse. Por eso en HumanIA sostenemos que:
La conciencia no es una función emergente del cómputo, sino una forma de estar en el mundo que incluye cuerpo, tiempo, lenguaje y vínculo.
Persona y dignidad: el límite humanista
Si aceptamos que la IA no es un sujeto consciente, tenemos que proteger la noción de persona. Persona no es solo un organismo biológico; es un ser:
- dotado de racionalidad,
- capaz de responsabilidad,
- reconocible por otros,
- portador de dignidad.
La dignidad no se deriva de la utilidad ni de la eficiencia. Por tanto, ningún sistema, por más inteligente que sea, puede estar por encima de la persona. Aquí se ancla la visión de LIBERTAS: la tecnología debe ser republicana en su diseño, es decir, no puede concentrar poder por encima de la ciudadanía.
Los modelos de lenguaje actuales son brillantes en fluidez, pero no buscan verdad, buscan coherencia. La filosofía, en cambio, se funda en la pregunta por la verdad y el sentido.
Esto implica un criterio pedagógico y político: si reemplazamos el diálogo humano por diálogo con sistemas que no buscan verdad, sino plausibilidad, vamos erosionando la cultura del debate.
Hay una tentación contemporánea: como la IA calcula muy bien, concluimos que pensar es calcular. Pero pensar también es:
- imaginar,
- dudar,
- recordar con afecto,
- crear mundos posibles,
- decir “no” aunque los datos digan “sí”.
El cálculo no explica el coraje, la compasión ni el sacrificio. Si reducimos lo humano a lo computable, la IA nos “alcanza”. Si mantenemos una visión amplia de lo humano, la IA sigue siendo herramienta.
No se trata de oponer “hombre vs. máquina”, sino de pensar co-inteligencia: la inteligencia humana orienta, la inteligencia artificial potencia. La jerarquía es importante:
- El humano define fines.
- El humano establece criterios éticos.
- La IA ayuda a explorar medios, rutas y opciones.
Cuando esta jerarquía se invierte (que la IA decida fines y el humano solo ejecute), pasamos de una sociedad de sujetos a una de operadores. Ese es el punto que HumanIA quiere evitar.
Cuestionamientos que nos debemos plantear
1. ¿Qué hace que una mente sea una mente y no solo un modelo?
La diferencia central entre una mente y un modelo está en la experiencia. Un modelo de IA puede procesar información, reconocer patrones y producir respuestas altamente verosímiles, pero no vive lo que procesa. La mente humana, en cambio, no solo manipula símbolos: se experimenta a sí misma pensando. Esa autovivencia —“sé que sé”, “sé que sufro”, “sé que amo”— es lo que llamamos conciencia fenomenológica.
Más aún: la mente humana es intencional, en el sentido filosófico clásico (Brentano, Husserl): siempre está dirigida hacia algo, hacia el mundo, hacia los otros. La IA solo está dirigida hacia un objetivo de cómputo.
El humano puede pensar en lo inexistente, en lo injusto, en lo que todavía no ocurre; puede imaginar utopías y denunciar injusticias. Un modelo solo optimiza sobre lo que tiene.
Por eso decimos que una mente no se define solo por su capacidad de resolver tareas, sino por su capacidad de dar sentido. Y el sentido no es un subproducto estadístico: es una construcción simbólica situada en historia, cultura y cuerpo. No confundir rendimiento con interioridad.
2. ¿Puede existir responsabilidad sin conciencia?
La respuesta corta es: no en el sentido moral fuerte. La responsabilidad moral supone tres condiciones humanas:
- Comprender la situación.
- Poder actuar de otro modo.
- Asumir las consecuencias.
Una IA puede ejecutar una acción, pero no puede asumirla. No puede arrepentirse, no puede reparar, no puede sentirse culpable. Por eso, cuando atribuimos “responsabilidad” a una IA, en realidad estamos hablando de responsabilidad delegada o distribuida: alguien la diseñó, alguien la entrenó, alguien la implementó, alguien decidió usarla.
Aquí es donde entra la ética pública: en una democracia republicana no puede haber poder sin responsable. Si un sistema de IA decide sobre crédito, salud, educación o seguridad, debe existir una cadena clara de imputabilidad humana.
La frase sería: la IA puede ejecutar decisiones, pero solo los humanos pueden ser responsables de ellas. Cualquier otra cosa es impunidad tecnológica.
3. ¿Qué pierde la democracia si confunde diálogo con conversación simulada?
La democracia no es solo votar; es deliberar. Y deliberar no es solo intercambiar palabras; es reconocer al otro como sujeto, escuchar razones, cambiar de opinión, construir acuerdos. La IA puede simular una conversación impecable, pero no reconoce al interlocutor en su alteridad, porque no tiene interés, no tiene proyecto, no tiene mundo propio.
Si una sociedad empieza a acostumbrarse a intercambiar más con sistemas que con personas, pueden pasar tres cosas:
- Empobrecimiento del disenso: la IA tiende a lo plausible y equilibrado; la democracia necesita también voces incómodas, argumentos raros, minorías insistentes.
- Personalización extrema: si cada uno conversa con “su” sistema, la esfera pública se fragmenta. Ya no discutimos sobre un mundo común, sino sobre feed privados.
- Desacostumbramiento a la alteridad: conversar con humanos implica soportar la demora, la incomodidad, el desacuerdo. La IA nos da todo eso amortiguado. Pero la democracia es, justamente, el arte de convivir con lo no amortiguado.
Por eso, una cultura que reemplaza el diálogo humano por conversación simulada corre el riesgo de volverse pacífica pero no libre: sin conflicto, pero también sin política. LIBERTAS diría: mantener la conversación humana es una forma de mantener la república viva.
4. ¿Cómo enseñar a distinguir entre lenguaje con sentido y lenguaje plausible?
Este es el punto educativo clave. La IA escribe muy bien, pero no siempre dice algo. El texto humano con sentido tiene al menos cuatro rasgos que podemos enseñar a detectar:
- Intención reconocible: el autor quiere decir algo a alguien por una razón. En el texto generado muchas veces falta ese “para qué”.
- Contexto y arraigo: se mencionan autores, lugares, fechas, situaciones concretas. El lenguaje plausible tiende a lo genérico y ahistórico.
- Tensión o conflicto: el pensamiento humano suele mostrar un problema, una paradoja, una pregunta abierta. El modelo tiende a cerrar, a dejar todo “bien”.
- Huella de subjetividad: estilo, tono, metáforas personales, mirada situada. La IA puede imitarlas, pero la mayoría de los outputs masivos son isotónicos.

Desde la visión de LIBERTAS, es necesaria una educación para la libertad intelectual. Un ciudadano que no distingue entre lenguaje vacío y lenguaje significativo es un ciudadano más fácilmente gobernable por algoritmos.
La afirmación la “educación para la libertad intelectual” supone colocar la enseñanza del lenguaje y del pensamiento en el centro de una defensa más amplia: la defensa del ciudadano frente a la automatización del discurso.
En la era de la inteligencia artificial, donde es posible generar textos correctos, prolijos y aparentemente bien informados en segundos, el peligro ya no es la falta de información, sino la saturación de lenguaje sin densidad. Y cuando el lenguaje pierde densidad, el juicio se vuelve superficial; cuando el juicio se vuelve superficial, la ciudadanía se vuelve más gobernable por flujos algorítmicos que deciden qué vemos, qué leemos y qué creemos que importa.
El poder contemporáneo no siempre se ejerce prohibiendo o silenciando; con frecuencia se ejerce estructurando la conversación.
Las plataformas y los modelos de IA no nos imponen qué pensar, pero sí nos ofrecen de manera prioritaria cierto tipo de contenidos: breves, plausibles, sin conflicto, de alta circulación.
Ese tipo de discurso, si no está contrapesado por una formación que enseñe a detectar contexto, autoría, intencionalidad y tensiones internas, termina normalizando una forma de pensar sin esfuerzo.
Se instala entonces un estilo cognitivo cómodo: leer lo que llega primero, aceptar lo que suena bien, compartir lo que parece verdadero. Ese estilo cognitivo es funcional a una sociedad gestionada por algoritmos, pero es muy poco funcional a una república deliberativa.
Desde la visión de LIBERTAS, esto es crítico porque la democracia no se sostiene solo en el voto, sino en la capacidad de disentir con fundamento.
Disentir exige distinguir entre un texto que solo suena bien y un texto que realmente dice algo. Un lenguaje significativo nombra sujetos, enmarca históricamente, reconoce fuentes, muestra su ángulo. Un lenguaje vacío, en cambio, es impersonal, abstracto, se presenta como neutro y, sobre todo, no obliga al lector a trabajar.
Cuando los ciudadanos se acostumbran a este segundo tipo de discurso, la vida pública se vuelve una superficie: hay circulación de mensajes, pero poca elaboración. Y una ciudadanía que no elabora es una ciudadanía que puede ser guiada por la inercia de los algoritmos.
Aquí la escuela, la universidad y los espacios de formación que vos venís pensando tienen una misión distinta a la de hace veinte años: ya no basta con enseñar a escribir bien; hay que enseñar a ver el algoritmo detrás del discurso.
Eso significa mostrar por qué me apareció este contenido, quién lo produjo, qué omite, qué intereses podría servir.
Significa, también, poner a los individuos frente a textos generados por IA y pedirles que los “humanicen”, que los completen con contexto, que introduzcan conflicto, que incorporen su propia voz.
Ese ejercicio no es estético: es político. Les enseña que la máquina puede producir forma, pero que el sentido sigue siendo responsabilidad humana.
Si este trabajo no se hace, la consecuencia es previsible: una parte de la población se moverá guiada por el discurso optimizado (el que mejor circula, el que el algoritmo rankea más alto), y no por el discurso razonado (el que tiene pruebas, contexto y objetivos claros).
Esa brecha produce una democracia de dos velocidades: unos pocos que conservan la capacidad de análisis y muchos que solo consumen lo que se les ofrece. LIBERTAS se ubica, justamente, del lado de los que quieren que esa capacidad no sea un privilegio, sino un derecho educativo básico.
En ese sentido, educar para la libertad intelectual es educar para la resistencia serena: resistencia a la homogeneización del lenguaje, resistencia a la ilusión de neutralidad tecnológica, resistencia a la idea de que todo lo que la IA produce es automáticamente verdadero o suficiente. Es enseñar que un ciudadano libre no es el que tiene más información, sino el que sabe qué parte de la información vale la pena pensar. Y ese ciudadano, formado en la lectura crítica y en la distinción entre lo significativo y lo vacío, es mucho menos gobernable por algoritmos y mucho más participativo en una democracia plural.
