La ilusión de la neutralidad: la narrativa detrás de los chats de Inteligencia Artificial
Por: Edwin González
20 de febrero de 2026 / San Juan, Puerto Rico
Existe una creencia cada vez más extendida: que las plataformas de inteligencia artificial conversacional son entes neutrales, fríos, matemáticos, incapaces de agenda o intención. La realidad es más compleja —y más inquietante—.
Ninguna IA tiene una ideología propia como un ser humano, pero sus respuestas reflejan inevitablemente las prioridades, los datos y las políticas de moderación de quienes la diseñan, entrenan y controlan. Dicho de otro modo: la máquina no piensa, pero canaliza.
Narrativas programadas, no opiniones espontáneas
Por eso observamos que distintas plataformas pueden responder desde una narrativa woke-liberal, otras desde una postura centrista, y algunas con enfoques culturales o geopolíticos específicos. No es casualidad. Cada sistema ha sido programado para acercarte —de forma sutil— a una narrativa determinada, alineada con los valores, intereses o marcos regulatorios de sus creadores o patrocinadores.
Plataformas ampliamente usadas como ChatGPT, Google Gemini, Claude o Grok no operan en el vacío: funcionan dentro de ecosistemas corporativos, culturales y políticos concretos. Aunque se esfuercen por parecer “objetivas”, la selección de datos, los filtros de seguridad y los criterios de “respuesta aceptable” ya son, en sí mismos, decisiones ideológicas.
El verdadero riesgo: la delegación del criterio humano
El problema se agrava cuando estas herramientas dejan de ser asistentes y pasan a convertirse en autoridades. Cada día más personas utilizan la IA como:
-
método de confirmación de datos,
-
fact-checker automático,
-
guía para preparar materiales educativos,
-
apoyo para la toma de decisiones personales y profesionales.
En consecuencia, la IA comienza a influir —directa o indirectamente— en la formación del carácter, las opiniones, los valores e incluso los estilos de vida.
Hay quienes ya la utilizan para diagnosticar y tratar pacientes, para preparar sermones religiosos, para enseñar a estudiantes, o para definir políticas públicas y pronosticar tendencias. Gobiernos y corporaciones la emplean para estrategias, predicciones de mercado y análisis de comportamiento social.
Cuando la herramienta aprende de ti… más de lo que imaginas
Aquí aparece la dimensión más delicada: cada interacción alimenta al sistema.
Con cada pregunta, cada duda y cada conversación, la IA aprende más sobre:
-
tus vulnerabilidades,
-
tus miedos y preocupaciones,
-
tu estado de salud,
-
tus valores,
-
tus creencias,
-
tu perfil psicológico y social.
No estás solo consultando una máquina: estás entregando información íntima a estructuras que, en muchos casos, te ven más como un producto que como una persona. Datos que pueden ser usados para segmentar, influir, predecir y —en el peor de los escenarios— controlar.
El proceso no es abrupto; es sutil. Poco a poco, el usuario puede volverse dependiente: incapaz de redactar una carta sin ayuda, de investigar sin un resumen automatizado, de leer críticamente, de contrastar fuentes, de escudriñar información que no haya sido previamente “masticada” por la IA. Incluso la espiritualidad corre el riesgo de ser filtrada y moldeada por algoritmos ajenos.
Así, sin cadenas visibles, se forma un nuevo tipo de esclavitud: la del pensamiento delegado.
Conclusión: usar la herramienta sin entregar el alma
La inteligencia artificial no es el enemigo, pero tampoco es un oráculo infalible. Como toda herramienta poderosa, exige discernimiento, criterio y límites claros.
Debemos:
-
usar la IA como apoyo, no como sustituto del razonamiento,
-
contrastar información, no consumirla pasivamente,
-
tomar decisiones con conciencia humana, no por automatismo,
-
recordar que ninguna herramienta debe reemplazar la responsabilidad personal, la ética ni la reflexión profunda.
La tecnología puede ampliar nuestras capacidades, pero nunca debe suplantar nuestra libertad de pensar, decidir y vivir con propósito.
El reto de esta era no es aprender a usar la inteligencia artificial, sino aprender a no depender de ella para ser verdaderamente humanos.

