Hubo un tiempo en que el poder se medía en leguas conquistadas. Después, en toneladas de acero producidas. Más tarde, en megatones nucleares. Hoy, el poder real se mide en una unidad que casi nadie menciona en los noticieros: el control del marco cognitivo dentro del cual una persona procesa la realidad.

No es una metáfora. Es la descripción más precisa del mundo en que vivimos. Y para entenderla en profundidad, hay que empezar donde casi nadie empieza: en la arquitectura técnica de las herramientas que hoy median entre la realidad y nuestra percepción de ella.

— ✦ —


La Máquina que Piensa por Nosotros

Cómo se construye un modelo de inteligencia artificial

Un modelo de lenguaje de gran escala —como los que hoy utilizan cientos de millones de personas— no nace de una programación explícita. Nadie escribe reglas que digan "si te preguntan sobre X, respondé esto". Lo que ocurre es algo más sutil y, por eso mismo, más difícil de detectar.

1. El corpus: la materia prima del pensamiento

El proceso comienza con datos. Billones de palabras extraídas de internet, libros digitalizados, artículos académicos, foros, noticias, redes sociales. Ese conjunto se llama corpus de entrenamiento. El modelo aprende a predecir, con probabilidad estadística, cuál es la palabra más probable que sigue a cada secuencia de palabras.

El problema comienza aquí: internet no es una representación neutral de la humanidad. El 55% del contenido indexable de la web está en inglés, una lengua que habla de forma nativa alrededor del 5% de la población mundial. Los 800 millones de hablantes de mandarín generan una porción del corpus radicalmente menor a su peso demográfico. El mundo hispanoparlante, árabe, bengalí o swahili casi no existe en estos datos. El resultado es que el "sentido común" que aprende el modelo es, en realidad, el sentido común de una franja muy específica de la humanidad: occidental, anglófona, urbana y relativamente acomodada.

2. El entrenamiento: quién define lo correcto

Una vez entrenado en el corpus, el modelo atraviesa una segunda fase: el ajuste por refuerzo mediante retroalimentación humana (RLHF). Evaluadores humanos califican respuestas del modelo y las ranquean de "mejor" a "peor". El modelo aprende a producir lo que esos evaluadores preferirán.

¿Quiénes son esos evaluadores? En su mayoría, contratistas con sede en países anglófonos, con formación universitaria occidental, trabajando bajo directrices corporativas redactadas en Silicon Valley. Sus intuiciones sobre qué es una "buena respuesta", qué es "neutral", qué es "seguro", se transfieren directamente a los valores del sistema. No hay malicia en esto. Hay algo más invisible: la naturalización de una perspectiva particular como si fuera la perspectiva universal.

3. Las políticas de uso y los marcos regulatorios

Sobre el modelo entrenado operan capas adicionales: las políticas de uso. Documentos elaborados por equipos legales y de "seguridad" de cada empresa que establecen qué puede y qué no puede generar el sistema.

Lo relevante no son las prohibiciones obvias. Lo relevante son las zonas grises: qué análisis geopolítico se clasifica como "desinformación", qué crítica institucional se etiqueta como "contenido dañino", qué historia alternativa se marca como "conspiranoia". Esas clasificaciones no emergen de un procedimiento científico neutral; emergen de decisiones corporativas tomadas en el mismo país que controla la mayoría de la infraestructura digital global.

En 2023, la Unión Europea aprobó el AI Act. Sin embargo, las compañías más influyentes —OpenAI, Google DeepMind, Anthropic, Meta AI— tienen sede en Estados Unidos, y desarrollan sus modelos antes de que ningún regulador europeo tenga acceso a sus sistemas. La regulación llega tarde, desde afuera, sobre sistemas ya desplegados.

— ✦ —

El algoritmo como editor invisible

Antes de la era digital, la mediación entre el mundo y la percepción pública era ejercida por editores: personas identificables, responsables, cuestionables. Hoy, esa misma función la ejercen algoritmos de recomendación que nadie eligió, que nadie puede auditar en tiempo real, y que operan a una escala inimaginable para cualquier editor humano.

El algoritmo de YouTube procesa más de 500 horas de video subido por minuto y decide, para cada uno de sus 2.700 millones de usuarios, qué ver a continuación. El de TikTok construye, en menos de 40 minutos de uso para un usuario nuevo, un perfil predictivo suficientemente preciso como para determinar sus vulnerabilidades emocionales.

La optimización del engagement y sus efectos

Estos algoritmos no están diseñados para informar. Están diseñados para maximizar el tiempo de atención, porque ese tiempo se traduce en datos que se traducen en publicidad. La consecuencia es sistemática y bien documentada: el contenido que genera emoción intensa —outrage, miedo, indignación— tiene mayor engagement que el contenido que genera reflexión tranquila.

Un estudio del MIT de 2018 analizó la propagación de noticias verdaderas y falsas en Twitter durante diez años. Las noticias falsas viajan seis veces más rápido que las verdaderas, son retuiteadas por un público 70% mayor, y alcanzan su pico en la primera hora. Esto no es una falla del sistema: es el sistema funcionando exactamente como fue diseñado.

El algoritmo no miente. Simplemente premia lo que activa. Y lo que activa, en la mayoría de los casos, no es lo que informa.

La cámara de eco como arquitectura

El tercer efecto de los sistemas de recomendación es la creación de cámaras de eco: entornos informacionales donde el usuario recibe principalmente contenido que confirma sus creencias previas. La polarización política que observamos en casi todas las democracias occidentales coincide exactamente con la expansión masiva de las redes sociales algorítmicas. No es coincidencia: es una correlación causal bien establecida.

El resultado político es una ciudadanía que no comparte los mismos hechos. No tiene posiciones distintas sobre los mismos datos: tiene datos distintos. La deliberación democrática —que requiere un mínimo de realidad compartida— se vuelve estructuralmente imposible.

— ✦ —


El Fin de la Guerra Como la Conocíamos

Durante siglos, los imperios necesitaban ejércitos visibles para expandirse. Podías ver al soldado en la puerta. Podías identificar al invasor.

El conflicto en Ucrania es, en realidad, el último gran ejemplo del modelo anterior: territorio, tropas, tanques. Pero incluso ahí, la dimensión más importante del conflicto no ocurre en las trincheras de Donetsk sino en los servidores de Virginia, en los algoritmos de distribución de contenido y en los modelos de IA que deciden cómo millones de personas en todo el mundo entienden lo que está pasando.

Pensar que ese conflicto es simplemente Rusia contra Ucrania requiere ignorar demasiadas cosas: que Ucrania es financiada, armada y estratégicamente dirigida por la OTAN; que sus combatientes incluyen mercenarios de Colombia, México y otros países latinoamericanos —prescindibles políticamente porque su muerte no genera crisis doméstica en Washington ni en Bruselas—; que los datos sobre bajas provienen casi exclusivamente de think tanks financiados por los mismos gobiernos que son parte del conflicto.

El caso iraní: cuando el petróleo sigue siendo el lenguaje

Irán posee las cuartas reservas probadas de petróleo del mundo y las segundas de gas natural. Sus reservas de crudo superan los 208.000 millones de barriles, más que todo el continente africano combinado.

La retórica pública del conflicto gira alrededor del programa nuclear iraní, los derechos humanos y el financiamiento de grupos armados. Todos esos elementos son reales. Pero ninguno explica por qué un país con un presupuesto militar cincuenta veces menor al de sus adversarios recibe una atención desproporcionada de la política exterior estadounidense e israelí.

Por el Estrecho de Ormuz transita aproximadamente el 20% del comercio mundial de petróleo. Es el cuello de botella energético más crítico del planeta.

Cuando Israel ejecutó ataques sobre infraestructura militar iraní en 2024, la cobertura mediática occidental enfatizó la dimensión nuclear. Lo que rara vez se mencionó con igual prominencia: esos ataques ocurrieron semanas después de que Irán anunció acuerdos de intercambio de crudo con China en yuanes, circunvalando el sistema de pagos en dólares.

Saddam Hussein anunció la intención de vender petróleo en euros en 2000. Muammar Gaddafi propuso una moneda africana respaldada en oro para el comercio de petróleo en 2009. Las cronologías de lo que ocurrió después son conocidas; la relación causal rara vez se menciona en el prime time.

— ✦ —


La Infraestructura del Pensamiento

Existe un conjunto de empresas —todas con sede en un mismo país, todas bajo la misma jurisdicción legal, todas con relaciones documentadas con las mismas agencias gubernamentales— que controla simultáneamente:

  1. El 90% de las búsquedas de información globales.
  2. Los grafos sociales de tres mil millones de personas.
  3. Los modelos de inteligencia artificial que cientos de millones consultan para entender el mundo.
  4. Las plataformas donde se forma la opinión pública.
  5. Los sistemas de pago que median el comercio.
  6. La infraestructura de nube donde vive la mayoría de los datos del planeta.

Ningún imperio anterior controló algo semejante. Roma dominó "su mundo conocido" pero no podía entrar en la mente del galo o del germano. El Imperio Británico controló el comercio global pero no podía diseñar el sueño del indio o del africano.

Lo que existe hoy es, por primera vez en la historia humana, la infraestructura del pensamiento mismo. No solo lo que se produce o se comercia, sino el mecanismo a través del cual la mayoría de la humanidad procesa la realidad.

El sesgo que no se ve

El sesgo explícito es inofensivo comparado con el sesgo estructural. Un medio ruso que llama "operación especial" a una invasión es reconocible y descartable. Un modelo de inteligencia artificial entrenado con corpus predominantemente anglosajones que presenta análisis de think tanks como "datos objetivos" es infinitamente más peligroso, porque se parece a la neutralidad.

Los grandes modelos de IA no tienen una conspiración programada. Tienen algo más difícil de detectar y más efectivo como herramienta de poder: un conjunto de sesgos estructurales invisibles que se presentan como objetividad. El resultado es un sistema donde la crítica al poder hegemónico se vuelve técnicamente posible pero estructuralmente difícil: las herramientas disponibles para cuestionar el marco fueron construidas dentro del marco. Es como pedirle al banco que audite sus propias cuentas.

— ✦ —


El Actor y su Objetivo

Cuando el análisis honesto de los medios, las guerras proxy, los acuerdos militares regionales, los algoritmos y los modelos de IA converge sistemáticamente hacia el mismo actor, la pregunta relevante deja de ser "quién" y se convierte en "para qué".

Y aquí el análisis convencional falla, porque las motivaciones convencionales no alcanzan. Nadie que controla la infraestructura cognitiva global lo hace para acumular más dinero: a esa escala, el dinero hace mucho que dejó de ser el objetivo y se convirtió en el instrumento.

La explicación más sólida no es psicológica sino sistémica: las instituciones desarrollan lógica propia que supera las intenciones individuales de quienes las componen. Una élite tecnocrática que genuinamente cree que la humanidad librada a su propio caos democrático se autodestruye, encuentra en la gestión global permanente no una ambición sino casi una obligación moral.

No requiere maldad. Requiere convicción. Y la convicción es más peligrosa que la maldad porque no se negocia.

— ✦ —


La Normalización Como Estrategia Terminal

La historia registra muchos instrumentos de control. Lo que los hace eventualmente resistibles es que son reconocibles. Podías ver al soldado, leer la propaganda, identificar la censura.

Lo que hace cualitativamente distinto al momento actual es la utilidad como mecanismo de captura. Las herramientas del control cognitivo contemporáneo son genuinamente útiles. El buscador encuentra lo que buscas. La red social te conecta con quien querés. El modelo de IA te ayuda a pensar, escribir, analizar.

Esa utilidad genera dependencia. La dependencia genera aceptación acrítica. Y la aceptación acrítica cierra el ciclo: la herramienta de control se vuelve el entorno natural dentro del cual la mayoría de la humanidad existe sin percibir que existe dentro de una herramienta.

El resultado no es Orwell: campos de concentración y vigilancia explícita. Es más parecido a Huxley: irrelevancia confortable. Comodidad y entretenimiento a cambio de agencia política real. Una distopía que la mayoría no reconoce como tal porque no duele, simplemente anestesia.

— ✦ —


Lo que Viene

Los próximos cincuenta años serán definidos por tensiones que ningún sistema político actual tiene respuestas honestas para enfrentar.

La fragmentación de internet

El mundo ya se está fracturando en ecosistemas tecnológicos paralelos e incompatibles: el occidental, centrado en Silicon Valley, y el oriental, centrado en China. No es solo competencia comercial: es la construcción de dos realidades informacionales separadas, con estándares distintos, valores distintos y versiones distintas de lo que es verdad. En cincuenta años probablemente no habrá un internet global. Habrá varios, con fronteras tan reales como las físicas.

La demografía como geopolítica

África tendrá en 2075 aproximadamente el 30% de la humanidad, con una edad mediana muy joven. El poder siempre siguió a la demografía en el largo plazo. El centro de gravedad del mundo se moverá hacia el sur y el este de maneras que hoy son difíciles de imaginar desde las capitales que actualmente definen la agenda global.

La pregunta que la IA no puede responder sola

La inteligencia artificial producirá una discontinuidad civilizatoria cuya magnitud todavía subestimamos. Cuando los sistemas automatizados puedan realizar la mayoría del trabajo cognitivo humano, la pregunta central no será geopolítica ni económica en el sentido tradicional. Será filosófica:

Si las máquinas pueden hacer casi todo lo que hacemos, ¿qué lugar ocupa el ser humano en términos sistémicos?

Quien tenga el poder de responder esa pregunta, y cómo la responda, será la disputa más importante de las próximas décadas. Más que cualquier guerra. Más que cualquier elección. Más que cualquier alianza militar.

— ✦ —


La Contradicción Terminal

Toda hegemonía tiene su contradicción interna que no puede ver desde adentro porque fue construida dentro del sistema que esa contradicción cuestiona. Roma no podía ver que la expansión infinita era su problema. El colonialismo europeo no podía ver que la deshumanización del otro era su límite.

La contradicción del sistema actual es la reducción del ser humano a dato, a consumidor, a variable de optimización, en el preciso momento histórico en que la búsqueda de sentido se vuelve la necesidad más urgente, exactamente porque todo lo material está técnicamente resuelto para una parte creciente de la humanidad.

Las revoluciones más profundas de la historia no fueron solo por hambre. Fueron por dignidad. Por la necesidad irreductible de ser algo más que un engranaje en el sistema de otro.

Esa necesidad no desaparece porque el engranaje sea cómodo y tenga buena conectividad.

— ✦ —

Esta conversación —como tantas otras que ocurren hoy— tuvo lugar dentro de las herramientas del sistema que intenta analizar. Esa es la paradoja irresoluble del momento presente: no tenemos un afuera desde donde mirar.

Lo que sí tenemos, y lo que ningún algoritmo puede automatizar completamente todavía, es la capacidad de hacer la pregunta que incomoda al marco: ¿quién construyó esto, para qué, y a quién beneficia?

No garantiza la verdad. Pero es la única brújula disponible en un mundo donde el mapa y el territorio hace tiempo que dejaron de coincidir.

El Mundo 4.0 no comenzó con ninguna revolución declarada. Comenzó el día en que la mayoría de la humanidad empezó a ver la realidad a través de herramientas que no construyó, no controla y no cuestiona. Ese día ya pasó. La pregunta es qué hacemos a partir de ahora.

Éstas son las preguntas que el marco dominante vuelve difíciles de formular, no necesariamente las respuestas.