Diversos países y grandes corporaciones tecnológicas participan en una nueva forma de competencia informativa que tiene como objetivo influir en las respuestas que ofrecen los modelos de lenguaje de inteligencia artificial, como ChatGPT, Gemini, Grok y DeepSeek. Estas herramientas son cada vez más utilizadas por la población para consultar noticias, análisis y contexto sobre asuntos nacionales e internacionales.
De acuerdo con especialistas, esta influencia se ejerce tanto de manera directa, mediante censura o regulaciones, como a través de métodos menos visibles, como la saturación de contenidos en internet y la llamada Optimización Generativa de Motores (GEO, por sus siglas en inglés). Estas prácticas buscan modificar los datos que utilizan los sistemas de IA para generar respuestas.
Países como Estados Unidos, China y Rusia han sido señalados como actores activos en este proceso, aunque también se mencionan otros como Israel y Turquía. El objetivo, según diversos análisis, es impulsar narrativas propias y contrarrestar las de sus adversarios en temas considerados estratégicos para la opinión pública.
Al mismo tiempo, empresas tecnológicas como OpenAI, Meta, X y Alphabet han reconocido la existencia de lo que denominan “sesgos liberales” en sus sistemas de inteligencia artificial. Estas compañías aseguran que han implementado políticas internas para ofrecer respuestas que consideran más neutrales, ya sea por iniciativa propia o como respuesta a presiones externas.
Aunque existe debate sobre un futuro en el que la inteligencia artificial pueda operar de forma independiente, por ahora estos sistemas siguen bajo el control de sus desarrolladores y pueden verse influidos por gobiernos y corporaciones. Esto plantea cuestionamientos sobre la calidad y neutralidad de la información que reciben los usuarios.
Un ejemplo de este fenómeno es el Modo IA de Google, que presenta resúmenes automáticos de información en los primeros resultados de búsqueda. Según una encuesta de QuestionPro, el 32 por ciento de los usuarios utiliza este modo con frecuencia y un 40 por ciento lo hace de manera ocasional, lo que refleja su creciente impacto en el acceso a la información.
En octubre, medios israelíes informaron que el Ministerio de Relaciones Exteriores de ese país planea invertir más de 500 millones de shekels en una estrategia de diplomacia pública digital. Parte de esta iniciativa busca generar contenidos diseñados para ser incorporados por sistemas de inteligencia artificial, con el fin de favorecer narrativas proisraelíes en temas como el conflicto en Gaza.
Rusia, por su parte, ha optado por una estrategia basada en la producción masiva de contenidos. A través de la llamada “red Pravda”, se publican millones de artículos al año en varios idiomas, muchos de ellos con información falsa o engañosa. Según un estudio del Instituto de Diálogo Estratégico, esta práctica aprovecha vacíos de información para influir en los datos que utilizan los modelos de IA.
Especialistas advierten que, al inundar internet con contenidos coordinados, estas estrategias pueden afectar la forma en que los modelos de lenguaje interpretan la realidad. Esto refuerza el debate sobre la necesidad de mayor transparencia y regulación en el desarrollo y uso de la inteligencia artificial a nivel global.




