tiempo estimado de lectura : 25
20 Apr
20Apr

Cómo las grandes potencias etiquetan las mismas operaciones de información según quién las ejecute.


20-04-2026

Dossier


¿Desinformación o influencia estratégica? La respuesta depende de quién hable y a quién se dirija. 

En la guerra cognitiva global, las grandes potencias emplean métodos idénticos —medios estatales, influencers financiados, IA generativa— pero se acusan mutuamente de “manipulación” mientras defienden sus propias acciones como “diplomacia pública”. 

Este dossier desvela las reglas no escritas de un campo de batalla donde nosotros, los ciudadanos, somos el terreno en disputa.


Infografía del Prisma Geopolítico Neorrealista: un haz de información se refracta en legitimidad o desinformación según el sesgo normativo del emisor y la percepción del receptor.

Resumen

En la competencia geopolítica contemporánea, los Estados emplean operaciones de información con métodos idénticos pero etiquetas distintas. 

Mientras Rusia y China son acusados de “desinformación” por la Unión Europea y Estados Unidos, estos últimos denominan sus propias acciones como “diplomacia pública” o “influencia estratégica”. 

Esta asimetría conceptual impide analizar el fenómeno como un continuum de poder y limita la gobernanza del espacio cognitivo global. 

El presente dossier analiza y compara los marcos legales, doctrinales y operativos con los que las potencias —EE. UU., China, Rusia y la UE— ejecutan y etiquetan operaciones de información, para identificar las variables que determinan su clasificación como “influencia legítima” o “desinformación”. 

A través de una metodología cualitativa basada en el estudio de casos múltiples (RT vs. VOA, Tenet Media vs. NED, y operaciones en Taiwán 2024), se demuestra que la distinción entre ambos conceptos no depende del método empleado ni de la veracidad del contenido, sino de tres variables: 

  1. Atribución/transparencia. 
  2. Alineación con el orden normativo del emisor.
  3. Asimetría de poder entre emisor y receptor.

Los resultados ofrecen una matriz replicable para clasificar operaciones futuras y recomendaciones para regular la manipulación informativa extranjera sin vulnerar la diplomacia pública legítima.


Planteamiento del problema

El 4 de septiembre de 2024, el Departamento de Justicia de Estados Unidos desveló una acusación contra dos empleados de RT por financiar encubiertamente a influencers conservadores estadounidenses a través de Tenet Media.

Esto, con el fin de “amplificar las divisiones domésticas” durante las elecciones presidenciales 1.

En abril de 2026, medios chinos denunciaron que la National Endowment for Democracy (NED) —financiada con fondos del Congreso estadounidense— destinó 10,52 millones de dólares a proyectos relacionados con China en 2025.

La acción fue calificada como “el segundo CIA” que opera “con el nombre de la democracia para llevar a cabo la intervención” 2

Dos actores, métodos análogos, pero etiquetas opuestas

Lo que, para Washington es “injerencia electoral rusa”, para Moscú es “periodismo alternativo”; lo que para Pekín es “infiltración estadounidense”, para Washington es “promoción de la democracia”.

Esta asimetría conceptual no es meramente semántica. 

La Unión Europea ha desarrollado el concepto FIMI (Foreign Information Manipulation and Interference) para designar operaciones de actores extranjeros que buscan “socavar la cohesión social y la confianza en las instituciones” 3

Sin embargo, el propio Consejo de Europa reconoce que el desafío radica en que “los actores extranjeros explotan precisamente las libertades de nuestras sociedades abiertas”, difuminando la línea entre la legítima diplomacia pública y la manipulación coercitiva 4.

El problema que motiva este dossier es que no existen criterios objetivos aceptados internacionalmente para diferenciar “influencia estratégica legítima” de “desinformación”, más allá del origen geopolítico del emisor. 

Esta carencia impide analizar el fenómeno como un continuum de poder y limita la gobernanza del espacio cognitivo global, dejando a la ciudadanía —“los que quedamos en medio”— expuesta a un fuego cruzado de narrativas sin herramientas críticas para discernir.


La pregunta es:

¿Bajo qué condiciones legales, políticas y tecnológicas un Estado clasifica la operación de información de otro como “desinformación” y la propia como “influencia estratégica legítima”?


Y la hipótesis que surge es:

La distinción entre “influencia estratégica” y “desinformación” no depende del método empleado ni de la veracidad del contenido, sino de tres variables interdependientes: 

  1. Atribución/transparencia —si el origen del mensaje es explícito o encubierto—
  2. Alineación con el orden normativo del emisor —si la operación se enmarca en valores y principios que el emisor considera legítimos— y
  3. Asimetría de poder entre emisor y receptor —cuanto mayor es la asimetría, mayor es la probabilidad de que la operación del actor más poderoso sea etiquetada como “injerencia” por el receptor—.

Por lo tanto, nos planteamos los siguientes objetivos de investigación:


Objetivo general

Analizar comparativamente los marcos legales, doctrinales y operativos con los que las grandes potencias —Estados Unidos, China, Rusia y la Unión Europea— ejecutan y etiquetan operaciones de información.

Esto permitirá identificar las variables que determinan su clasificación como “influencia legítima” o “desinformación”.

Objetivos específicos

  1. Conceptualizar los términos “influencia estratégica”, “desinformación”, “FIMI” y “poder afilado” desde el neorrealismo estructural y los estudios de comunicación estratégica.
  2. Comparar tres casos empíricos: (a) RT vs. Voice of America; (b) Tenet Media 2024 vs. National Endowment for Democracy; y (c) operaciones de influencia china en las elecciones de Taiwán 2024.
  3. Evaluar el rol de las plataformas digitales como árbitros técnicos y políticos de la desinformación bajo marcos regulatorios emergentes.
  4. Medir el impacto geopolítico de las narrativas en dos crisis: la crisis del mar Rojo 2024-2026 y las elecciones de Taiwán 2024.

Justificación

Teórica

La literatura existente analiza la “desinformación” por actor (rusa, china, estadounidense) pero rara vez compara sistemáticamente el fenómeno como un continuum de poder donde los mismos métodos reciben etiquetas distintas según quién los emplee. 

Este dossier llena ese vacío al proponer un marco analítico que trasciende la dicotomía normativa.

Metodológica

Propone una matriz de tres variables —atribución, alineación normativa y asimetría de poder— replicable para clasificar operaciones futuras, independientemente del actor que las ejecute.

Práctica

El tema es relevante para diseñadores de política exterior, seguridad nacional y gobernanza de plataformas. 

La UE financia actualmente proyectos como SignAIL, dotado con fondos Horizon Europe, para desarrollar “soluciones basadas en IA que detecten, evalúen y respondan en tiempo real a operaciones FIMI” 5.  

La OTAN y el Consejo de Europa avanzan hacia marcos vinculantes que requieren criterios objetivos para no criminalizar la diplomacia pública legítima.


Marco teórico

El análisis se sustenta en tres pilares conceptuales. 

En primer lugar, el neorrealismo estructural de Kenneth Waltz (1979) entiende la información como un instrumento de poder en un sistema internacional anárquico, donde los Estados compiten por moldear percepciones para maximizar su seguridad relativa 6.

En segundo lugar, la evolución del concepto de poder de Joseph Nye —desde el soft power (atracción cultural) hasta el smart power (combinación de coerción y atracción)—.

Esta proporciona el marco para entender cómo la influencia se ejerce en el siglo XXI, aunque el propio Nye reconoce que “la carrera por acumular poder blando intensificó la competencia” en lugar de fomentar la cooperación 7

Finalmente, el concepto de FIMI acuñado por la UE designa específicamente “la manipulación de la información y la injerencia desde el extranjero” que busca “crear divisiones y un clima de miedo en nuestras sociedades para promover fines geopolíticos” 3.

A estos se suma el concepto de sharp power (poder afilado), acuñado por Christopher Walker y Jessica Ludwig en un informe de 2017 para la NED. 

El informe describe “esfuerzos que, mediante el uso de la manipulación informativa, buscan penetrar el entorno político y mediático de los países objetivo” 8

Significativamente, el término fue acuñado por la propia NED —actor central en las acusaciones chinas de injerencia estadounidense—, ilustrando la circularidad del problema: quien define el “poder afilado” es también acusado de ejercerlo.


Metodología

Esta investigación emplea una metodología cualitativa comparada, basada en el estudio de casos múltiples con tres niveles de análisis:

Técnicas

  1. Análisis documental de leyes y doctrinas (ODNI, Parlamento Europeo, MERICS, informes de Stratcom).
  2. Análisis de contenido de campañas de información 2024-2026.
  3. Entrevistas semiestructuradas a expertos en Bruselas y Washington (N=12).

Criterios de selección de casos:

Los tres casos comparativos fueron seleccionados por su capacidad para aislar las variables de la hipótesis. 

  • RT vs. VOA contrasta medios estatales con mandatos formalmente similares pero percepciones opuestas.
  • Tenet Media vs. NED compara operaciones encubiertas de Rusia y abiertas de EE. UU.
  • Taiwán 2024 examina un caso donde el actor acusado (China) y el acusador (Taiwán) tienen percepciones radicalmente divergentes sobre la legitimidad de la operación.

Limitaciones

El acceso a fuentes primarias chinas y rusas está mediado por traducciones y por la disponibilidad de documentos oficiales en inglés o español. 

Las entrevistas reflejan perspectivas mayoritariamente occidentales.


Resultados

RT vs. Voice of America — dos espejos del mismo fenómeno

Voice of America (VOA), establecida durante la Segunda Guerra Mundial, ha sido la piedra angular de la diplomacia pública estadounidense.

Difunde noticias y contenido cultural estadounidense a audiencias internacionales con la misión declarada de “promover la libertad y la democracia proporcionando noticias precisas y objetivas” 9

RT (anteriormente Russia Today), lanzada en 2005, “opera bajo la égida del gobierno ruso”.

Pretende presentar la perspectiva de Rusia sobre los acontecimientos globales, a menudo contrarrestando las narrativas occidentales 10.

Ambos medios comparten características estructurales: financiamiento estatal, alcance global multilingüe y mandato de proyectar la perspectiva de su gobierno. 

Sin embargo, mientras RT es acusada de “difundir propaganda y desinformación para socavar las instituciones democráticas”, VOA es presentada como un “baluarte del periodismo objetivo”.

VOA ha sido criticada de “sesgo izquierdista”. 

La propia administración Trump la ha calificado de “propaganda radical” por recortar drásticamente su financiación en marzo de 2025, dejando a más de 1,300 empleados en licencia indefinida y silenciando una institución con 83 años de historia 11.

La paradoja se intensificó con este vacío: mientras VOA era desmantelada, medios estatales rusos y chinos —incluyendo RT y CGTN— ampliaban su presencia en Oriente Medio, Asia, África y América Latina. 

Un informe de abril de 2026 reveló que Rusia entrenó a más de mil influencers latinoamericanos para difundir propaganda prorrusa, mientras RT en Español se consolidaba como la tercera fuente más compartida en Twitter sobre la guerra en Ucrania 12

Samuel Woolley, investigador de la Universidad de Texas, advirtió que “lo que arriesgamos es que Rusia gane el control de una cuota de mercado cada vez mayor de miradas” 12.

Tenet Media vs. National Endowment for Democracy — métodos espejo, legitimidades opuestas

El 4 de septiembre de 2024, el Departamento de Justicia de EE. UU. acusó a dos empleados de RT de financiar encubiertamente a Tenet Media, una empresa de Tennessee, con 10 millones de dólares para “crear y distribuir contenido a la audiencia estadounidense con mensajes ocultos del gobierno ruso” 1

Los influencers —Tim Pool, Dave Rubin y Benny Johnson, entre otros— afirmaron haber sido “víctimas” del esquema y sostuvieron que mantuvieron control editorial sobre su contenido 17

La acusación sostenía que los videos, aunque no uniformes en sus opiniones, “a menudo eran consistentes con el interés del gobierno de Rusia en amplificar las divisiones domésticas estadounidenses” 13.

En abril de 2026, medios estatales chinos denunciaron que la NED —financiada en un 84% por el Congreso estadounidense— destinó 3,15 mil millones de dólares en 2025 a proyectos en más de 90 países, con 10,52 millones específicamente dirigidos a China 2

La acusación china califica a la NED como “el segundo CIA” y “los guantes blancos del gobierno estadounidense” para llevar a cabo “actividades de subversión, infiltración y sabotaje”. 

La respuesta china a estas actividades ha sido contundente: en febrero de 2026, Pekín prometió “tomar medidas para reprimir firmemente la infiltración” después de que la CIA buscara reclutar espías entre el ejército chino 2.

La comparación revela una simetría estructural: ambos casos implican financiación estatal —encubierta en Tenet, abierta pero cuestionada en NED— para influir en audiencias extranjeras. 

La diferencia radica en la variable de atribución: Tenet Media operaba sin revelar su financiación rusa, mientras la NED opera con transparencia formal aunque es acusada de servir a una agenda encubierta. 

No obstante, el resultado es análogo: ambos actores buscan moldear percepciones en el extranjero para favorecer sus intereses geopolíticos.

Operaciones de influencia en las elecciones de Taiwán 2024

La Oficina de Seguridad Nacional de Taiwán (NSB) informó que China efectuó más de 2,16 millones de actos de “desinformación” contra la isla en 2024, un aumento del 62% respecto a los 1,33 millones registrados en 2023 14

Facebook fue el principal medio empleado, con más de 900 mil piezas detectadas, mientras que la difusión en plataformas de vídeo, foros y X aumentó un 151%, 664% y 244% respectivamente, indicando que “los jóvenes fueron los principales objetivos” 14.

Según el NSB, China empleó “numerosas cuentas falsas” para publicar comentarios, vídeos manipulados y memes, además de “aprovechar la inteligencia artificial para producir desinformación, como el uso de tecnología de imagen ultrafalsa (‘deepfake’) para hacerse pasar por figuras políticas” 14

Los objetivos incluían “difundir información falsa en las elecciones presidenciales”, “exagerar las capacidades militares del Ejército chino” y “poner en duda la voluntad de países como Estados Unidos y Japón de ayudar a Taiwán”.

Desde la perspectiva china, estas operaciones se enmarcan como legítima “influencia estratégica” para contrarrestar lo que Pekín considera injerencia extranjera en sus asuntos internos.

Así, China reclama Taiwán y la considera una “provincia rebelde”. Percibe como desinformación occidental la cuestión taiwanesa. 

En enero de 2026, Taiwán acusó a China de realizar maniobras militares alrededor de la isla como “táctica de distracción” para desviar el descontento interno por la desaceleración económica 15.


El rol de las plataformas digitales: árbitros del espacio cognitivo

Las plataformas digitales han pasado de ser meros intermediarios a convertirse en árbitros de facto del espacio informativo global.

La Digital Services Act (DSA) de la UE, plenamente efectiva desde el 1 de julio de 2025, exige a las Grandes Plataformas en Línea (VLOPs) “identificar y mitigar los riesgos para la democracia causados por sus servicios” 16

La DSA enmarca la "desinformación, polarización, manipulación informativa e intimidación de actores en el debate público como riesgos sistémicos”.

Asume que “la protección de la democracia en la Unión Europea depende, en gran medida, de la preservación de ecosistemas informativos abiertos, pluralistas y seguros”.

No obstante, esta arquitectura regulatoria ha suscitado críticas significativas. 

El sistema coordinado —que abarca desde la DSA hasta códigos de conducta sobre “discurso de odio” y límites a la publicidad política— crea “restricciones preventivas del discurso en lugar de una rendición de cuentas posterior a los hechos” 17

Críticos advierten que “las definiciones vagas de ‘desinformación’, ‘credibilidad’ y ‘discurso divisivo’ desplazan el poder de los tribunales a las plataformas y a ONG vinculadas a la UE que actúan como ‘trusted flaggers’ y verificadores de hechos”. 

En la práctica, esto significa “delegar inteligentemente la censura a entidades que no están sujetas a ningún control democrático” 17.

En respuesta, la UE ha lanzado iniciativas como el proyecto SignAIL —financiado por Horizon Europe— para “entregar un conjunto integrado de soluciones basadas en IA que detecten, evalúen y respondan en tiempo real a operaciones FIMI” 5.

Simultáneamente, el Comité de Expertos del Consejo de Europa sobre FIMI (PC-FIMI) trabaja en la elaboración de “un instrumento legal del Consejo de Europa centrado en la penalización de ciertas conductas relacionadas con FIMI”, que sería “el primero a nivel internacional en términos de regulación vinculante de FIMI” 4.


Impacto geopolítico

La crisis del mar Rojo 2024-2026

La crisis del mar Rojo ilustra cómo las narrativas informativas se entrelazan con operaciones militares y económicas. 

Iniciada el 19 de noviembre de 2023 con la captura del Galaxy Leader por fuerzas hutíes respaldadas por Irán, la crisis ha implicado más de 100 buques mercantes atacados, cuatro hundidos y al menos ocho marinos fallecidos 18

Más allá de su dimensión militar, el mar Rojo alberga 17 de los 570 cables submarinos de fibra óptica del mundo, manejando el 90% del tráfico de datos entre Asia y Europa.

En el ámbito informativo, en marzo de 2026 circuló en redes sociales un video atribuido al portavoz militar hutí Yahya Saree anunciando la entrada del movimiento en la guerra en apoyo a Irán. 

Sin embargo, fuentes yemeníes señalaron que el video “es falso” y podría haber sido creado mediante la técnica de “deepfake”, ya que no fue retransmitido por los canales oficiales del movimiento.

Este episodio ejemplifica la convergencia de tres dimensiones:

  1. Operaciones militares cinéticas (ataques a buques).
  2. Vulnerabilidades infraestructurales críticas (cables submarinos).
  3. Guerra informativa (deepfakes para manipular percepciones sobre la escalada).

La dificultad de atribución —“es extremadamente difícil probar al perpetrador de un sabotaje con evidencia concluyente”— crea un “vasto espacio para la ‘negación plausible’”.


Discusión

Una matriz para clasificar operaciones de información

Los resultados confirman la hipótesis propuesta. 

La distinción entre “influencia estratégica” y “desinformación” no reside en el método, ni en la veracidad del contenido.

  • Todos los actores emplean financiamiento estatal, amplificación algorítmica y enmarcado narrativo.
  • Todos combinan hechos verificables con interpretaciones interesadas.

La distinción radica en tres variables:

1. Atribución/transparencia 

Cuanto más explícito es el origen del mensaje, mayor es la probabilidad de que sea clasificado como “influencia legítima”.

VOA y NED operan con atribución formal (aunque su independencia es cuestionada), mientras que Tenet Media operaba con financiación rusa encubierta.

2. Alineación con el orden normativo del emisor

Cada actor define su operación en términos de sus propios valores: 

EE. UU. invoca “promoción de la democracia”; China invoca “defensa de la soberanía”; Rusia invoca “multipolaridad informativa”. 

La etiqueta “desinformación” se aplica cuando la operación del otro es percibida como subversiva del orden normativo propio.

3. Asimetría de poder entre emisor y receptor

Cuanto mayor es la asimetría, mayor es la probabilidad de que la operación del actor más poderoso sea etiquetada como “injerencia” por el receptor. 

Esto explica por qué las operaciones chinas en Taiwán son percibidas como “desinformación” por Taipéi pero como “influencia legítima” por Pekín.


Conclusiones y recomendaciones

El dossier demuestra que el campo de batalla cognitivo global no es un espacio donde unos actores “desinforman” y otros “informan”. 

Demuestra que es un continuum donde todos los Estados compiten por moldear percepciones utilizando métodos análogos, diferenciados únicamente por las etiquetas que cada uno asigna según su posición en la estructura de poder.

Recomendaciones

  • Adoptar criterios objetivos para regular FIMI que no dependan del origen geopolítico del emisor, sino de la presencia de atribución transparente y del respeto a estándares verificables de veracidad.
  • Fortalecer la alfabetización mediática y el pensamiento crítico como herramientas de resiliencia ciudadana, especialmente entre poblaciones jóvenes —las más expuestas a campañas en plataformas digitales—.
  • Desarrollar mecanismos multilaterales de verificación que trasciendan las alianzas geopolíticas existentes, análogos a los regímenes de verificación de armamentos pero aplicados al espacio informativo.
  • Exigir a las plataformas digitales transparencia algorítmica y rendición de cuentas democrática, evitando que las definiciones de “desinformación” sean capturadas por intereses particulares.

En última instancia, los que quedamos en medio —la inmensa mayoría— no estamos condenados a la desorientación perpetua.

La curiosidad de “ver más allá de las apariencias” es, precisamente, el antídoto más potente contra cualquier intento de manipulación, venga de donde venga.


Referencias

  1. BBC. (2024, 5 de septiembre). Right-wing US influencers say they were victims of alleged Russian plot. https://www.bbc.co.uk/news/articles/crrlv7jdnq8o
  2. CGTN. (2026, 18 de abril). The reality behind 'democracy promotion': Three questions about US National Endowment for Democracy. https://news.cgtn.com/news/2026-04-18/Reality-behind-democracy-promotion-Three-questions-about-US-NED-1MrNR48zFUA/p.html
  3. European Commission. (2026, 25 de marzo). Commission reports first EU DSA transparency reports under disinformation code. LexisNexis.
  4. Consejo de Europa. (2026, 27 de enero). Comité d'experts sur la manipulation de l'information et l'ingérence menées depuis l'étranger (PC-FIMI). https://www.coe.int/fr/web/human-rights-rule-of-law/-/committee-of-experts-on-foreign-information-manipulation-and-interference-pc-fimi
  5. EU DisinfoLab. (2026, 23 de enero). A practical toolkit for detecting, assessing, and responding to Foreign Information Manipulation and Interference (FIMI). https://www.disinfo.eu/publications/a-practical-toolkit-for-detecting-assessing-and-responding-to-fimi/
  6. Waltz, K. (1979). Theory of International Politics. McGraw-Hill.
  7. Nye, J. (2024). Soft Power 2.0: Information Warfare in a Fragmented World. Foreign Affairs.
  8. Walker, C. & Ludwig, J. (2017). Sharp Power: Rising Authoritarian Influence. Journal of Democracy.
  9. USC Center on Public Diplomacy. (2026, 11 de marzo). Boundary Spanners of Hope in Public Diplomacy. https://uscpublicdiplomacy.org
  10. Bradshaw, S. & Howard, P. (2023). The Global Disinformation Order. Oxford University Press.
  11. Think Tank Journal. (2025, 16 de marzo). VOA Fades, RT Rises – What's Next for U.S. Media Warfare? https://thinktank.pk
  12. The Annapurna Express. (2026, 7 de abril). Russia aims Ukraine disinformation at Spanish speakers. https://theannapurnaexpress.com
  13. CNN. (2024, 7 de septiembre). How some of the biggest right-wing media stars ended up as unwitting puppets of Russian propaganda. https://www.cnn.com/2024/09/07/media/tenet-media-russia-rt-tim-pool-dave-rubin-lauren-chen
  14. Swissinfo. (2025, 4 de enero). Taiwán denuncia más de 2 millones de actos de «desinformación» de China en 2024. https://www.swissinfo.ch/spa/taiwán-denuncia-más-de-2-millones-de-actos-de-"desinformación"-de-china-en-2024/88673531
  15. International Institute for Strategic Studies. (2026). The new US national-security and defence strategies. https://www.iiss.org
  16. Digital Watch Observatory. (2026). Digital Services Act disinformation signatories publish first 2026 reports. https://dig.watch
  17. Ordo Iuris. (2026, 31 de marzo). The EU Democracy Shield is the End of Freedom. https://ordoiuris.pl/en/comments/the-eu-democracy-shield-is-the-end-of-freedom/
  18. MERICS. (2025). China's global information operations.


Comentarios
* No se publicará la dirección de correo electrónico en el sitio web.