Usos ilícitos de las deepfakes: marcos legales y desafíos de futuro

¿Qué avances e impactos ha generado la IA en los últimos años?

por | May 14, 2023

El avance de la IA en los últimos años y su importante impacto social ha conducido a generar un debate sobre el doble uso de estas tecnologías y sus campos potenciales de aplicación, poniendo el foco en las amenazas para la seguridad que éstas representan y su evolución futura.

Entre las enormes posibilidades de aplicación que tienen los modelos algorítmicos de IA, debemos ubicar nuestro interés en las denominadas deepfakes o falsificaciones profundas, por el elevado riesgo que representan para nuestras sociedades, debido a sus implicaciones para la convivencia, la confianza institucional y la estabilidad democrática. El término procede del acrónimo anglosajón resultante de la combinación de los términos deep como abreviatura de deep learning y fake (falso) y designa aquellos contenidos (imagen, audio, vídeo o texto) creados o manipulados mediante IA incluyendo modelos de aprendizaje automático (machine learning) o aprendizaje profundo (deep learning). La difusión de deepfakes se ha incrementado de forma exponencial en los últimos años. Entre la confluencia de factores que permiten explicar este auge destaca la democratización en el acceso de estas tecnologías[1], por no requerir de conocimiento técnico previo por parte del usuario, con el añadido además de que en muchos casos resultan gratuitas o bien presentan un precio muy reducido, circunstancia ésta que ha llevado a que reciban el nombre de cheapfakes[2]. Asimismo, hay que destacar cómo factor intensificador de la amenaza que estas aplicaciones representan la rápida evolución de los modelos algorítmicos en las que se basan en un intento constante por alcanzar un mayor realismo, lo cual supone un problema a la hora de desarrollar arquitecturas de detección eficaces, ya que en buena parte sus modelos se orientan a la identificación de atributos que muestran inconsistencia con la realidad (parpadeo y movimiento ocular, flujo sanguíneo, inflexiones de voz, etc…).

Se han establecido modos, herramientas y recursos propios y ajenos para contar los hallazgos y descubrimientos producto de los resultados de las investigaciones, o simplemente contar aspectos referentes a la ciencia. Ahora, qué elementos de la narrativa audiovisual como componentes del lenguaje, recursos de edición y sobre todo principios estructurales pueden ayudar a transmitir mejor nuestros mensajes.

En esta entrada comentaremos algunos recursos tanto narrativos como de herramientas específicas de la edición que permiten organizar de manera más atractiva nuestros mensajes. Recursos como las figuras estructurales y herramientas como los modos de edición o las formas de articulación entre planos.

USOS ILÍCITOS DE LAS DEEPFAKES

El uso de tecnología deepfake por parte de actores hostiles se ha convertido en una práctica regular como parte de sus actividades ilícitas (Marwan & Almalki, 2019).Ya la primera mención al término en 2017 estuvo ligada a la pornografía no consensuada (Westerlund, 2019; (Collins & Ebrahim, 2021), empleándose para simular la representación de reconocidas celebridades. Posteriormente, el repertorio fue ampliado a personas anónimas. Hoy el abanico de usos ilícitos resulta infinito. Así se ha constatado el uso de deepfake de audio en casos de estafa, para simular la voz de presidentes y ejecutivos de empresas[3][4]. También se ha observado su utilización como prueba fraudulenta en procesos penales o para desprestigiar u ocasionar daños reputacionales. Desde hace tiempo, también están presentes en campañas de influencia informativa (ligadas a prácticas de microtargeting, acompañando el contenido desinformativo o bien de manera aislada)[5], siendo observadas en procesos electorales o en contextos de crisis. Menciónese como ejemplo la difusión de videos del presidente Zelensky declarando la rendición de las tropas ucranianas[6].

De acuerdo con un informe de 2021 elaborado conjuntamente por EUROPOL, TrendMicro y UNICRI16 titulado ‘Malicious Uses and Abuses of Artificial Intelligence’[7] se ha identificado su aplicación ilícita en los siguientes ámbitos:

ENFOQUES REGULATORIOS EXISTENTES

Existe una amplia controversia en torno a la promulgación de legislaciones nacionales específicas para regular las deepfakes debido a la dificultad que entraña su conciliación con derechos y libertades fundamentales, pero también por la problemática a la hora de atribuir responsabilidades ligadas a la autoría y difusión de los contenidos. Asimismo, es importante mencionar la existencia en algunos países de vacíos legales significativos, pudiendo destacar la ausencia de responsabilidad civil extracontractual, como por ejemplo en el caso de la vulneración de los derechos de imagen de las personas fallecidas.

Esta situación ha llevado a que en la actualidad, la adopción de mecanismos legales para regular las deepfakes sea una excepción apenas relegada a un conjunto reducido de casos. Los estados de Virginia (2019) y California (2019) en EE.UU[8] y Gales e Inglaterra (2022)[9] cuentan con legislaciones contra las deepfakes que simulan pornografía; en Texas (2019) su difusión en comicios electorales está prohibida. El gobierno chino (2020), por su parte, ha abogado por la restricción completa de estos contenidos[10].  

En el caso de la UE la adopción de mecanismos reguladores quedará englobado dentro de la proposición de ley sobre IA (2021), con referencias concretas contenidas en los art. 52 y 71. Según el planteamiento general de la normativa que establece un sistema de etiquetado para las tecnologías de IA avisando sobre su nivel de riesgo (mínimo, limitado, alto e inaceptable), los proveedores de software deepfake estarían obligados a cumplir con esta obligación. Asimismo, el art. 52 impone a los usuarios el requerimiento de etiquetar los contenidos como artificiales o manipulados. La propuesta no recoge, sin embargo, mecanismos punibles.  

Adicionalmente, este marco es ya complementado por diferentes mecanismos en vigor como las leyes de copyright, de derechos de imagen, la ley General de Protección de Datos, la Digital Service Act, la Digital Market Act y la EU Audiovisual Media Service Directive.

En la actualidad, existe un debate sobre la suficiencia de estos mecanismos. La ausencia de sanciones en la propuesta europea de regulación de la IA, unido a los vacíos o exenciones recogidas en el resto de legislaciones citadas -supeditación de derechos absolutos a fundamentales, exenciones relativas al uso de los contenidos,…- , junto con la dificultad añadida de la atribución de autorías hace que en la práctica los actores maliciosos puedan seguir obteniendo ventaja del uso de esta tecnología. Es por ello que se requiere de enfoques preventivos complementarios, resultando esencial una mayor implicación por parte de las plataformas de distribución de contenidos unido a un mayor esfuerzo y despliegue de recursos destinados a la alfabetización visual.

Referencias

Albahar, Marwan & Almalki, Jameel (2019). Deepfakes: threats and countermeasures systematic review, Journal of Theoretical and Applied Information Technology, 97:22, pp. 3242-3250. http://www.jatit.org/volumes/Vol97No22/7Vol97No22.pdf

Collins, Aengus; Touradj Ebrahimi (2021). Risk governance and the rise of deepfakes, International Risk Governance Centre https://infoscience.epfl.ch/record/285637

European Parliament (2020). Tackling deepfakes in European policy, European Parliament Research Service, https://www.europarl.europa.eu/RegData/etudes/STUD/2021/690039/EPRS_STU(2021)690039_EN.pdf

Leong, Dymples (2023). Deepfakes and Disinformation Pose a Growing Threat in Asia, The Diplomat, 23 de marzo 2023. https://thediplomat.com/2023/03/deepfakes-and-disinformation-pose-a-growing-threat-in-asia/

UK Government (2022). New laws to better protect victims from abuse of intimate images https://www.gov.uk/government/news/new-laws-to-better-protect-victims-from-abuse-of-intimate-images

US Congressional Research Service, Deep fakes and National Security, In focus, 3 june, 2022. https://crsreports.congress.gov/product/pdf/IF/IF11333/1

US Homeland Security Department (2021). Increasing Threat of Deepfake Identities. https://www.dhs.gov/sites/default/files/publications/increasing_threats_of_deepfake_identities_0.pdf Westerlund, Mika (2019). The Emergence of Deepfake Technology: A Review, Technology Innovation Management Review, 9:11, pp. 39-52 https://timreview.ca/sites/default/files/article_PDF/TIMReview_November2019%20-%20D%20-%20Final.pdf


[1] Congressional Research Service, Deep fakes and National Security, In focus, 3 june, 2022. https://crsreports.congress.gov/product/pdf/IF/IF11333/1

[2] https://www.dhs.gov/sites/default/files/publications/increasing_threats_of_deepfake_identities_0.pdf

[3] https://www.forbes.com/sites/thomasbrewster/2021/10/14/huge-bank-fraud-uses-deep-fake-voice-tech-to-steal-millions/?sh=2e21ace17559

[4] https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402

[5]https://www.europarl.europa.eu/RegData/etudes/STUD/2021/690039/EPRS_STU(2021)690039_EN.pdf

[6] https://www.youtube.com/watch?v=X17yrEV5sl4

[7] https://www.europol.europa.eu/publications-events/publications/malicious-uses-and-abuses-of-artificial-intelligence

[8] https://www.dhs.gov/sites/default/files/publications/increasing_threats_of_deepfake_identities_0.pdf [1]

[9] https://www.gov.uk/government/news/new-laws-to-better-protect-victims-from-abuse-of-intimate-images

[10] https://thediplomat.com/2023/03/deepfakes-and-disinformation-pose-a-growing-threat-in-asia/

Te puede interesar

Ecoansiedad y economía circular en jóvenes: del miedo a la acción

Ecoansiedad y economía circular en jóvenes: del miedo a la acción

En los últimos años, la preocupación por el cambio climático ha dejado de ser una inquietud lejana para convertirse en una de las mayores amenazas para la salud humana del siglo XXI, tal y como se señala en el informe del 2023 de Lancet Countdown sobre salud y cambio climático Lancet Countdown sobre cambio climático y salud – Fundación Aquae.

Además, la salud mental también se ve comprometida no solo por el posible aumento de trastornos como el trastorno de estrés postraumático, ansiedad o depresión (Cianconi et al., 2020) como consecuencia directa del cambio climático, sino también por el malestar emocional que se ocasiona, en especial entre los jóvenes. Este fenómeno conocido, desde la psicología, como ecoansiedad, describe una mirada desde la incertidumbre, la impotencia y la indefensión sobre el futuro del planeta que genera emociones como el miedo y la ansiedad. El término ecoansiedad fue descrito en 2017 por la Asociación Estadounidense de Psicología (APA) y el grupo climático y salud mental mental-health-climate.pdf

Según el Informe El Futuro es Clima realizado a través de una encuesta, impulsado por DemosLab, a 9.000 jóvenes de entre 16- 30 años, el 97% de los encuestados se muestra muy preocupado ante el cambio climático y el 82.1% refiere haber sufrido ecoansiedad alguna vez. Uno de cada cuatro manifiesta que la sufre con una frecuencia alta. El Futuro es Clima | Demos Lab

A nivel internacional, en el estudio publicado en The Lancet Planetary Health (Hickman et al., 2021) sobre los resultados a 10.000 jóvenes de entre 16 y 25 años en 10 países participantes (Australia, Brasil, Finlandia, Francia, India, Nigeria, Filipinas, Portugal, Reino Unido y Estados Unidos) se resalta, el 59% estaban muy preocupados sobre el cambio climático. Más del 50% informó sentir tristeza, ansiedad, ira, impotencia, indefensión y culpa, y el 45% señaló que dichos sentimientos afectan negativamente a su vida diaria Climate anxiety in children and young people and their beliefs about government responses to climate change: a global survey

Parece, a la luz de estas cifras, que la niñez y la adolescencia pueden ser uno de los colectivos más vulnerables a sufrir ecoansiedad, en concreto, según Cárdenas et al, (2026) las mujeres adolescentes estarían más afectadas que los varones. Se estima que existen factores multifactoriales que pueden explicar la ecoansiedad. Los y las jóvenes tienen un mayor acceso a información a través de las redes sociales; perciben que no toman decisiones efectivas sobre el planeta y, además, se encuentran construyendo su identidad bajo la percepción de que el mundo adulto les deja un legado con consecuencias reales y graves repercusiones. En este sentido se sienten traicionados.

Sin embargo, según recientes investigaciones, aunque la eco-ansiedad se percibe típicamente como una respuesta emocional que genera malestar, también puede motivar comportamientos proambientales positivos, los cuales a su vez contribuyen a mejorar el bienestar mental Kerse & Kerse (2025).

En medio de este escenario, emerge una pregunta clave: ¿puede la economía circular convertirse en una herramienta para transformar esa ecoansiedad en acción?

Quizás, respondiendo a la pregunta, los jóvenes pueden encontrar formas concretas de contribuir al cambio. La economía circular propone un modelo basado en reducir, reutilizar y reciclar, alejándose del tradicional “usar y tirar”. La estrategia española de economía circular “España Circular 2030” sienta las bases para que se reduzcan la generación de residuos y se alargue la vida de los que no se pueden evitar España Circular 2030_202006.pdf

Pero, más allá de su dimensión económica y ambiental, el enfoque de la economía circular puede tener un impacto psicológico importante. Por ejemplo, participar en prácticas circulares, como comprar artículos de segunda mano, reparar objetos y darles un nuevo uso, contribuye a reducir residuos y puede favorecer la construcción de una identidad capaz de tomar decisiones y planificar acciones que impulsen el bienestar individual y global, generando un impacto emocional positivo en la salud mental.

En la última década se han creado distintos recursos educativos para poner en marcha en el aula de distintos niveles educativos. Como ejemplo de ello, destacamos propuestas desde diferentes entidades como EduCaixa Ecoansiedad: Actividad para equilibrar la preocupación por el medio ambiente – EduCaixa; Ayuda en acción Juventud valenciana y ecoansiedad – Ayuda en Acción; Gobierno Cantabria Exposición Cantabria Circular – Cantabria Circular; Cruz Roja Cruz Roja Juventud y la prevención de la ecoansiedad: el impacto del cambio climático en la salud mental – Cruz Roja. Se destaca La Alianza de la Juventud por la Acción Circular (AJAC), iniciativa conjunta de varias entidades cuya finalidad es intentar situar a la juventud como centro de transformación hacia la economía circular Manifiesto AJAC (2025) .docx

Parece que la clave podría estar en generar acciones sostenidas en el tiempo, evitando intervenciones aisladas. En este sentido, a nivel comunitario, los entornos educativos y las entidades locales pueden promover de manera coordinada movimientos que impulsen la economía circular. Se trataría de construir un escenario psicoeducativo en el que la niñez y la juventud sientan que son autoeficaces en la realización de conductas circulares. La participación en acciones grupales contribuye al sentimiento de pertenencia a un colectivo con valores ecoambientales, que constituye una base identitaria fundamental en la adolescencia. De este modo, el grupo reforzará la motivación hacia comportamientos sostenibles.

En definitiva, la ecoansiedad refleja una preocupación legítima por el futuro, pero puede ser un motor de cambio. La economía circular ofrece un puente entre la emoción y la acción, permitiendo a los jóvenes canalizar su inquietud hacia prácticas concretas y significativas generando también bienestar psicológico.

Referencias

  • Cárdenas, D., Reynolds, K. J., & Stanley, S. K. (2026). A snapshot of australian adolescents eco-anxiety and impairments to mental well-being. Journal of Adolescent Health. https://doi.org/10.1016/j.jadohealth.2025.11.020
  • Cianconi, P., Betrò, S., & Janiri, L. (2020). The Impact of Climate Change on Mental Health: A Systematic Descriptive Review. Frontiers in psychiatry11, 74. https://doi.org/10.3389/fpsyt.2020.00074
  • Hickman, C., Marks, E., Pihkala, P., Clayton, S., Lewandowski, E., Mayall, E.E., Wray, B. Mellor, C., & van Susteren, L. (2021). Climate anxiety in children and young people and their beliefs about government responses to climate change. The Lancet Planetary Health, 5(12), e863–73.
  • Kerse, Y., & Kerse, G. (2025). The effect of eco-anxiety on pro-environmental behaviors and mental well-being: A parallel mediation model. BMC Psychology13(1). https://doi.org/10.1186/s40359-025-03501-6
Ecología de la Manipulación Informativa Estatal en la Era de la IA Generativa 

Ecología de la Manipulación Informativa Estatal en la Era de la IA Generativa 

Existe una doble vertiente en el uso malintencionado de los LLM, por un lado, Estados que integran censura y propaganda algorítmica en el diseño de sus propios modelos nacionales y, por otro, la infiltración en ecosistemas occidentales mediante la difusión masiva y coordinada de contenidos susceptibles de contaminar las bases de datos de los modelos comerciales.   

La evidencia reciente pone de manifiesto una mayor sofisticación de las campañas, apoyada  en el despliegue de bots conversacionales asistidos por IA, lo cual permite sugerir una transición inminente hacia la automatización integral del ciclo de vida de la desinformación. En este horizonte técnico, la inteligencia artificial generativa trasciende la mera creación de contenidos multimedia hiperrealistas para avanzar hacia la orquestación coordinada de enjambres automatizados de bots, microtargeting de alta precisión y la reconfiguración iterativa de narrativas en tiempo real.  

Introducción 

La controversia generada recientemente en torno a Grok —el modelo de inteligencia artificial generativa desarrollado por xAI e integrado en la plataforma X— a raíz de los errores identificados en la verificación de contenidos y en la propagación de desinformación relativa al conflicto en Irán (Rigall, 2026), ha vuelto a poner de manifiesto los riesgos derivados de la externalización de funciones de naturaleza epistémica compleja en modelos algorítmicos. Un problema que, además, nos conduce a poner de relieve la vulnerabilidad de estos sistemas frente a ataques deliberados por parte de actores maliciosos para servir a sus intereses estratégicos, afectando no solo a la integridad del procesamiento de contenidos, sino también a la estabilidad del ecosistema informativo en su conjunto y profundizando la desconfianza pública (Habgood-Coote, 2023). 

La IA generativa como superficie de ataque  

Los modelos de IA generativa desempeñan un doble papel en la configuración de los desórdenes informativos contemporáneos, al funcionar simultáneamente como agentes que pueden contribuir a crear y amplificar la difusión de contenidos engañosos y como herramientas de apoyo en la verificación de hechos (Shah et al., 2025). 

El despliegue acelerado de estos modelos y su integración en tareas cotidianas están incrementando su exposición a interferencias maliciosas, en relación también con una mayor amplificación de sus superficies de ataque.  

En términos generales, cada una de las fases de su ciclo de vida es susceptible de convertirse en un vector de explotación potencial para actores maliciosos (Barreno et al., 2010). A partir de esta lógica es posible establecer tres grandes categorías: (1) ataques dirigidos a los datos de entrenamiento—como el data poisoning—, (2) ataques que comprometen el proceso de entrenamiento o los parámetros resultantes —incluyendo model poisoning o backdooring— y (3) ataques ejecutados sobre el modelo ya desplegado, como la prompt injection, el jailbreaking, la extracción de modelos o los ataques de inferencia.  

Contaminación informativa asistida por IA: mecanismos y actores 

En el contexto específico de las campañas de desinformación y propaganda, la literatura permite distinguir tres grandes modalidades de contaminación asociadas al uso de la IA generativa por parte de actores estatales y no estatales. En primer lugar, la contaminación del propio modelo, especialmente relevante en Estados que desarrollan infraestructuras nacionales de IA y que integran mecanismos de control informativo, censura algorítmica o supervisión ideológica en sus sistemas. En segundo lugar, la contaminación del ecosistema informativo occidental, donde actores externos emplean estos modelos para producir contenidos engañosos, manipulados o polarizantes. Por último, ataques dirigidos erosionar la credibilidad de los modelos, induciendo fallos visibles, explotando errores y exponiendo sus vulnerabilidades para desacreditar su fiabilidad epistémica. 

Contaminación de modelos propios con fines de propaganda y censura 

Algunos Estados que desarrollan sus propios modelos de IA basados en LLM aplican técnicas de control informativo asistidas por IA.  

Estas técnicas, que incluyen curación sesgada de datos, censura algorítmica, supervisión humana directa y control de acceso a fuentes externas, permiten a los Estados moldear el comportamiento de sus modelos para producir contenido alineado con sus objetivos estratégicos. En estos casos, la “contaminación” se manifiesta como una arquitectura de control informativo integrada desde el diseño, donde la selección de datos, las restricciones temáticas y los filtros de seguridad funcionan como mecanismos de alineamiento político (Ünver, 2024). El resultado es un ecosistema de IA nacional que opera como extensión de la infraestructura propagandística del Estado, reforzando marcos ideológicos, limitando la deliberación pública y consolidando narrativas oficiales bajo la apariencia de neutralidad algorítmica. 

En China, modelos como ERNIE y Qwen y DeepSeek integran entrenamiento ideológico, filtros de censura y restricciones temáticas que bloquean preguntas sensibles y refuerzan narrativas del Partido Comunista (Pan & Xu, 2026; Qiu, Zhou, & Ferrara, 2025). En Rusia, el modelo GigaChat reproduce marcos narrativos estatales sobre política exterior y conflictos armados (Meduza, 2025). Por su parte, en Irán los modelos nacionales han incorporado filtros religiosos y políticos para limitar las respuestas críticas hacia el régimen (Article 19, 2023). 

Contaminación del ecosistema informativo occidental mediante IA generativa 

Las campañas de manipulación informativa y de propaganda promovidas por actores estatales y dirigidas a terceros países recurren de manera habitual a la generación de contenido sintético con el fin de insertar narrativas falsas y propaganda en el ecosistema informativo y alterar la percepción pública. Diversas investigaciones han documentado la publicación de artículos fabricados, blogs y documentos falsos — generados con LLM— en webs de baja reputación o en sitios que imitan medios reales, para luego amplificarlos en múltiples plataformas y crear una apariencia de consenso. Este patrón de crossplatform amplification, consiste en publicar contenido en un sitio inicial y redistribuirlo posteriormente en Facebook, X, YouTube, Telegram o foros, con el fin de reforzar su visibilidad y aportar legitimidad a partir de la circulación multicanal  (Meta, 2023). 

Paralelamente, las proxy media operations —descritas por EU DisinfoLab, Graphika y Meta— implican la creación de “medios pantalla” que simulan ser portales informativos auténticos y funcionan como nodos de referencia para alojar artículos falsos, incluidos contenidos sintéticos generados con IA (Vorotyntseva et al., 2024). Un comportamiento que ha sido identificado en operaciones promovidas por China (Spamouflage, Paperwall) y Rusia (Doppelgänger) (Meta, 2023; Graphika, 2025; EEAS, 2026; NewsGuard, 2025).  

Esta contaminación ya no se limita a la producción de mensajes falsos, sino que se articula como un ecosistema coordinado que utiliza la IA para generar volumen, densidad y redundancia informativa, erosionando la capacidad de los usuarios para discriminar entre fuentes auténticas y fabricadas. 

Por otro lado, la evidencia demuestra cómo las campañas más recientes incluyen ya bots conversacionales impulsados por IA, que se integran en conversaciones reales. Estos sistemas identifican publicaciones de alto alcance, generan respuestas alineadas con el tono y el idioma del contenido original y se mezclan con usuarios auténticos, lo que les permite influir con poca actividad y sin dejar patrones claros de coordinación (NATO Strategic Communications Centre of Excellence, 2026). En esta línea apuntan los documentos filtrados sobre la empresa china GoLaxy que demuestran cómo actores vinculados al Estado están desarrollando “personas digitales” capaces de interactuar de forma convincente en redes sociales, adaptarse al estilo comunicativo de los usuarios y participar en debates políticos o tecnológicos sin ser detectadas (Vanderlbilt, s.f.). 

Ataques en fase de uso: jailbreak y manipulación contextual del modelo 

La evidencia también demuestra la explotación por parte de actores maliciosos de vulnerabilidades en la fase de uso de los modelos.  Una de las técnicas más extendidas para manipular la salida de los LLM es el jailbreak (Gu et al., 2025), que consiste en forzar al modelo a eludir sus filtros de seguridad o políticas de uso mediante estrategias lingüísticas que lo llevan a ignorar estas restricciones, pero sin alterar el modelo. 

Esta tipología se basa en la premisa de que los LLM siguen patrones estadísticos de lenguaje y pueden ser inducidos a adoptar roles, contextos o ficciones que los lleven a comportarse de forma distinta a la prevista (Perel, 2025). Para ello se puede instruir al modelo a actuar sin restricciones —como en las variantes Do Anything Now (DAN)—, a realizar reformulaciones indirectas para evitar palabras clave asociadas a filtros de seguridad, o a emplear estrategias de confusión que mezclan instrucciones legítimas con otras maliciosas. También son frecuentes las instrucciones encadenadas que llevan al modelo a contradecir sus propias reglas. Aunque estas técnicas no comprometen el modelo en sentido técnico, sí permiten manipular su comportamiento y generar contenido que puede ser reutilizado en campañas de desinformación, propaganda o manipulación narrativa. 

Desacreditación de los modelos occidentales 

A pesar de que varios Estados han desarrollado capacidades avanzadas para explotar vulnerabilidades en modelos de IA occidentales, la evidencia disponible no permite atribuir de forma concluyente ataques técnicos específicamente diseñados para provocar fallos con el fin explícito de desacreditar estos modelos. Las actividades documentadas de actores vinculados a Rusia, China, Irán y Corea del Norte se orientan principalmente a intrusión, espionaje, extracción de modelos o experimentación con técnicas adversariales, sin que los informes públicos indiquen un propósito reputacional directo (Microsoft, 2025). 

No obstante, estos mismos Estados sí han explotado fallos —reales o amplificados— en campañas informativas destinadas a erosionar la confianza en tecnologías occidentales, un patrón coherente con las dinámicas de manipulación cognitiva y degradación de la confianza descritas en la literatura (Li et al., 2023). En consecuencia, aunque la atribución estatal directa a ataques técnicos con fines de desacreditación no está documentada, la convergencia entre actividad técnica y explotación informativa constituye un vector emergente de riesgo. Esta combinación —fallo inducido o fortuito seguido de amplificación estratégica— permite a los actores maliciosos presentar la IA occidental como inherentemente poco fiable, manipulada o incapaz de distinguir verdad y falsedad, contribuyendo así a erosionar la confianza pública. 

Tendencias futuras e implicaciones para la resiliencia democrática 

Hasta el momento, el uso de LLM por parte de actores estatales hostiles en el ámbito occidental se ha concentrado fundamentalmente en la producción masiva y personalizada de contenidos, sin que existan indicios de que hayan desplegado sistemas plenamente automatizados capaces de gestionar todo el ciclo de vida de una campaña de desinformación.  La evidencia muestra que los LLM no incrementan de manera sustantiva la eficacia persuasiva del microtargeting político, pero sí multiplican su capacidad operativa, incrementando su escala, automatización y accesibilidad (Simchon, Edwards & Lewandowsky, 2024; Hackenberg & Margetts, 2024, EUvsDisinfo, 2025). 

Las tendencias actuales apuntan hacia un escenario en el que estos actores podrían integrar LLM en todas las fases del ciclo de vida de una operación de influencia, pasando de la simple generación de contenidos a la automatización completa del proceso. Este horizonte incluiría la creación inicial de contenidos cada vez más realistas (incluyendo vídeo, imagen y audio), su customización microdirigida a audiencias específicas, la difusión coordinada mediante redes de bots conversacionales basados en modelos de lenguaje capaces de interactuar en tiempo real, la orquestación de enjambres automatizados, el análisis continuo del impacto mediante herramientas algorítmicas de monitorización y, finalmente, la reformulación iterativa de mensajes en función de los hallazgos obtenidos. La convergencia de estas capacidades plantearía un desafío para la resiliencia democrática, al facilitar campañas de influencia más persistentes, adaptativas y difíciles de detectar, con un grado de autonomía narrativa sin precedentes. 

Referencias

Article 19. (2023). Digital authoritarianism and information manipulation in Iran. Article 19. https://www.article19.org/resources/iran-digital-freedom-protest-un-fact-finding-mission-report/ 

Barreno, M., Nelson, B., Joseph, A. D., & Tygar, J. D. (2010). The security of machine learning. Machine Learning, 81(2), 121–148. 

Brookings Institution. (2023). AI, geopolitics, and information manipulation: Emerging risks in the global information environment. Brookings Institution. https://www.brookings.edu/events/the-geopolitics-of-generative-ai/ 

European External Action Service. (2026). 4th EEAS Report on Foreign Information Manipulation and Interference (FIMI). https://www.eeas.europa.eu/eeas/4th-eeas-annual-report-foreign-information-manipulation-and-interference-threats_en 

EUvsDisinfo. (2025, abril 9). Enter the galaxy: A network analysis of influence operations. European External Action Service. https://euvsdisinfo.eu/enter-the-galaxy-a-network-analysis-of-influence-operations/ 

Graphika. (2025). Chinese influence operation “Spamouflage” escalates targeting of foreign political systems. Graphika. https://graphika.com/posts/graphika-in-the-news-spamouflage-and-spain Graphika. https://graphika.com/posts/graphika-in-the-news-spamouflage-and-spain 

Habgood-Coote, J. (2023). Deepfakes and the epistemic apocalypse. Synthese, 201, 103. https://doi.org/10.1007/s11229-023-04097-3 

Hackenburg, K., & Margetts, H. (2024). Evaluating the persuasive influence of political microtargeting with large language models. Proceedings of the National Academy of Sciences, 121(24), e2403116121. https://doi.org/10.1073/pnas.2403116121 

Lu, Z., Li, Z., Chiang, C. W., & Yin, M. (2023, August). Strategic adversarial attacks in AI-assisted decision making to reduce human trust and reliance. Proceedings of the Thirty-Second International Joint Conference on Artificial Intelligence (IJCAI-23)

Marigliano, R., Ng, L. H. X., & Carley, K. M. (2024). Analyzing digital propaganda and conflict rhetoric: A study on Russia’s bot-driven campaigns and counter-narratives during the Ukraine crisis. Social Network Analysis and Mining, 14, 170. https://doi.org/10.1007/s13278-024-01322-w 

Meduza. (2025, August 27). “Commitment to providing facts without bias”: Russia’s flagship AI chatbot recommends reading Meduza and other “foreign agents”. https://meduza.io/en/feature/2025/08/27/commitment-to-providing-facts-without-bias 

Meta Platforms, Inc. (2023). Adversarial Threat Report: Q3 2023. Meta. https://transparency.meta.com/sr/Q3-2023-Adversarial-threat-report 

Microsoft. (2025). Microsoft Digital Defense Report 2025. https://cdn-dynmedia-1.microsoft.com/is/content/microsoftcorp/microsoft/bade/documents/products-and-services/en-us/security/Microsoft-Digital-Defense-Report-2025-v4-05Nov25.pdf 

NATO Strategic Communications Centre of Excellence. (2026). Social media manipulation: 2025 experiment. NATO StratCom COE. https://stratcomcoe.org/pdfjs/?file=/publications/download/Social-Media-Manipulation-FINAL-FILE.pdf (stratcomcoe.org in Bing) 

NewsGuard. (2025). A well funded Moscow based global influence operation…. NewsGuard Reality Check. https://www.newsguardrealitycheck.com/p/a-well-funded-moscow-based-global 

Pan, J., & Xu, X. (2026). Political censorship in large language models originating from China. PNAS Nexus, 5(2), pgag013. https://doi.org/10.1093/pnasnexus/pgag013 

Perel, T. (2025). Evaluating adversarial vulnerabilities in modern large language models. arXiv, abs/2511.17666. https://doi.org/10.48550/arXiv.2511.17666 

Qiu, P., Zhou, S., & Ferrara, E. (2025). Information suppression in large language models: Auditing, quantifying, and characterizing censorship in DeepSeek. arXiv preprint arXiv:2503.01234. https://doi.org/10.48550/arXiv.2506.12349 

Rigall, M. (2026, 3 de marzo). Grok amplifica la desinformación: así viralizó el bulo de la foto falsa de la escuela de Irán y minimizó su rectificación. RTVE. https://www.rtve.es/noticias/20260303/grok-amplifica-desinformacion-viralizo-bulo-escuela-iran-minimizo-rectificacion/16962311.shtml 

S. B. Shah et al. (2025). Navigating the web of disinformation and misinformation: Large language models as double-edged swords. IEEE Access, 13, 169262–169282. https://doi.org/10.1109/ACCESS.2024.3406644 (doi.org in Bing) 

Simchon, A., Edwards, M., & Lewandowsky, S. (2024). The persuasive effects of political microtargeting in the age of generative artificial intelligence. PNAS Nexus, 3(2), pgae035. 

Ünver, H. A. (2024). Artificial intelligence and human rights: Using AI as a weapon of repression. European Parliament Research Service. https://www.europarl.europa.eu/RegData/etudes/IDAN/2024/754450/EXPO_IDA(2024)754450_EN.pdf 

Vanderbilt University. (s.f.). GoLaxy Documents. https://cdn.vanderbilt.edu/vu-web/clients/ins/GoLaxy-Documents.pdf 

Vorotyntseva, M., Yurchenko, O., Dikhtiarenko, A., Pakhomenko, S., Husakov, V., & Kaplunov, D. (2024). The use of Russian proxy actors in the media environment in Ukraine: A comparison between occupied and non-occupied areas, 2017–2023. NATO Strategic Communications Centre of Excellence. https://stratcomcoe.org/pdfjs/?file=/publications/download/Russian-Proxy-Media-Actors-in-Ukraine-DIGITAL.pdf (stratcomcoe.org in Bing) 

Zeng, J. (2020). Artificial intelligence and China’s authoritarian governance. International Affairs, 96(6), 1441–1459. https://doi.org/10.1093/ia/iiaa172 

La preservación de Serious Games pesa, pasa y pisa

La preservación de Serious Games pesa, pasa y pisa

A partir de la observación, la investigación es capaz de captar una realidad objetiva, partiendo de un registro visual y verificable que permite conocerla (Campos & Lule, 2012). Apoyándonos en la mirada, somos capaces de asimilar conceptos complejos; ver cómo la teoría escapa de lo puramente conceptual; y, siendo el eje de este texto, invitarnos a taxonomizar un objeto para facilitar su replicación. Sin embargo, el juego requiere de una capa adicional de complejidad: no es suficiente con una observación sistematizada; su característica interactiva necesita que comprendamos la lógica tras sus mecánicas. Dicho de otro modo, si el juego debe ser jugado para generar conocimiento, su matriz lúdica debe formar parte del estudio. Y es aquí donde encontramos el problema: ¿qué ocurre cuando el juego se convierte en “literatura gris”?

No están todos los que son, ni son todos los que están

La preservación del juego digital ha cobrado impulso en los últimos años gracias a iniciativas como Stop Killing Games, una propuesta de modificación de la Ley de Equidad Digital de la Unión Europea que busca impedir que las editoras de videojuegos en línea puedan cerrar sus servidores una vez finalizado su ciclo de vida. Más allá de la protección de los derechos del consumidor, esta propuesta se alinea con las motivaciones del Programa Nacional de Preservación e Infraestructura de la Información Digital (NDIIPP) de la Biblioteca del Congreso de los Estados Unidos: en ambos casos se promueve la preservación del software interactivo desde una perspectiva de interés cultural.

En el contexto de una sociedad de consumo cuya influencia se ha extendido a múltiples niveles, estas iniciativas contribuyen a consolidar el videojuego como una forma de expresión artística, desvinculándolo parcialmente de las lógicas del mercado. Se trata de una tendencia en crecimiento, que gana relevancia a medida que este medio refuerza su posición hegemónica dentro de la industria audiovisual, aunque su impacto no se distribuye de manera equitativa en otros ámbitos del diseño.

Los obstáculos para salvar mundos

Dentro de los videojuegos serios, la carencia de mecanismos de preservación ha complicado análisis de productos o la búsqueda de referencias para nuevos diseños. Entre los estudios que destacan esta problemática, Guillén et al., 2025, destaca un total de diez tensiones que tienen lugar al proteger aplicaciones gamificadas, las cuales presentan paralelismos con la temática que aquí se aborda. En este contexto, emergen como conflictos recurrentes la escasez de conocimiento y habilidades especializadas (que obliga a los creadores a depender de equipos multidisciplinares), las limitaciones de tiempo en equipos reducidos y las dificultades de financiación, tanto por la presión de inversores como por la necesidad de autosostenibilidad. Estas tensiones refuerzan los desafíos estructurales del sector y revocan las pautas presentadas por Raftopoulos (2014), quien propone un enfoque de diseño de la gamificación centrado en las personas y sustentado en valores éticos para el desarrollo de sistemas responsables y sostenibles. Una acción iterativa y sostenida en el tiempo que podemos ejemplificar a través de la repercusión limitante en nuestra investigación.

Sirviéndonos de una revisión sistemática de la literatura sobre gamificación aplicada a la adaptación climática en espacios litorales, se recopilaron un total de 40 estudios que presentaban resultados empíricos derivados de sus intervenciones. Tras eliminar los casos duplicados, se identificaron 36 juegos, de los cuales únicamente 8 estaban disponibles en línea. Asimismo, 17 contaban con material audiovisual accesible que permitía una aproximación a los proyectos. Esta tendencia, aunque en menor medida, también se reflejó en el análisis de producto. A partir de la búsqueda de juegos digitales acordes con el objeto de estudio en 24 bases de datos, se obtuvieron 52 resultados preliminares. Sin embargo, al intentar acceder a ellos, 8 resultaron inaccesibles; 2 habían dejado de recibir mantenimiento y presentaban fallos técnicos que impedían su uso; y, en un único caso, el videojuego estaba alojado en un repositorio institucional con acceso restringido.

Al contrario que aquellos títulos orientados a un circuito comercial capaz de sostener su preservación, el juego serio debe optar por medidas alternativas y costosas. Tal como enfoques de innovación responsable para promover el diseño ético, la transparencia y la sostenibilidad desde las fases iniciales del proyecto. Incluir diseños colaborativos y la implicación de múltiples actores para contribuir en la reducción de dependencia de individuos concretos y a favorecer la transferencia de conocimiento. También es posible sumar estrategias orientadas a la viabilidad económica y a la construcción de confianza con los usuarios, factores que inciden directamente en la continuidad de las aplicaciones. Desafortunadamente, ninguna de estas propuestas es capaz de garantizar la preservación digital, pero sí configuran un conjunto de condiciones que favorecen la supervivencia y trazabilidad de los productos gamificados.

CONCLUSIONES

Este texto no pretende ofrecer resultados definitivos, sino invitar a reflexionar sobre la preservación de los videojuegos serios en el ámbito científico. Enfatizar la necesidad de garantizar la continuidad de estos juegos mediante un enfoque integral que combine observación rigurosa, diseño responsable y estrategias sostenibles, asegurando así que continúen siendo recursos valiosos para

investigadores y diseñadores en el futuro. De este modo, preservar estos juegos no solo conserva conocimiento, sino que también permite que nuevas generaciones de creadores e investigadores se inspiren, aprendan y construyan sobre lo ya logrado, extendiendo su impacto más allá del presente.


REFERENCIAS

  • Campos y Covarrubias, G., & Lule Martínez, N. E. (2012). La observación, un método para el estudio de la realidad. Xihmai, 7(13), 45–60. https://dialnet.unirioja.es/servlet/articulo?codigo=3979972
  • Guillén G, Hamari J, Quist J (2025), The hurdles of saving the world: conflicts and survival tactics of gamified sustainable consumption app creators. Internet Research, Vol. 35 No. 7 pp. 91–112, doi: https://doi.org/10.1108/INTR-06-2024-0959
  • Raftopoulos, M. (2014). Towards gamification transparency: A conceptual framework for the development of responsible gamified enterprise systems. Journal of Gaming & Virtual Worlds, 6(2), 159–178. https://doi.org/10.1386/jgvw.6.2.159_1
Educar la Mirada: Didáctica de la Imagen a través de la Obra de Chema Madoz 

Educar la Mirada: Didáctica de la Imagen a través de la Obra de Chema Madoz 

Después de la entrada “Fotografía y Pensamiento Crítico: El Valor de Chema Madoz para la Alfabetización Mediática”, seguimos con el fotógrafo madrileño, para profundizar en la dimensión didáctica de su obra, especialmente relevante en un momento en que la educación visual ocupa un lugar central en la formación del alumnado. En un mundo en el que las imágenes son omnipresentes, resulta fundamental aprender no solo a verlas, sino a interpretarlas y producirlas críticamente. En este marco, la obra de Madoz ofrece un recurso pedagógico excepcional para trabajar la observación, la metáfora visual y la relación entre objeto y significado.  

Por qué trabajar con Chema Madoz en el aula

El estilo de Madoz —blanco y negro, ausencia de postproducción, uso de luz natural y protagonismo del objeto— encaja perfectamente con los planteamientos de la educación artística contemporánea, que defienden el desarrollo de la creatividad a partir de recursos mínimos y cotidianos (Eisner, 2002). Su obra invita a una lectura activa y reflexiva, en sintonía con la idea de que las imágenes deben considerarse textos a interpretar (Kress & van Leeuwen, 2006).

Además, Madoz trabaja desde la “poética del objeto”, es decir, desde la capacidad de los objetos para convertirse en conceptos visuales. Esta característica es ideal para actividades orientadas a que los estudiantes relacionen forma, función y significado (Arnheim, 1974).

Ejemplo de actividad didáctica: una secuencia estructurada 

1. Fase de identificación conceptual 

El alumnado analiza las fotografías de Chema Madoz y detecta: los objetos originales, la transformación conceptual, la metáfora generada. 

Este proceso coincide con propuestas de visual thinking strategies (Yenawine, 2013), que fomentan el análisis colectivo, la formulación de hipótesis y el argumentar lo que se observa. 

2. Análisis técnico 

El trabajo con elementos simples responde a la idea de “reducción formal” de Arnheim (1974): cuanto más limitados son los elementos, más evidente es el proceso mental que organiza la imagen. 

3. Fase de creación 

Producir una imagen inspirada en el fotógrafo madrileño: potencia el pensamiento divergente, favorece el aprendizaje por descubrimiento, desarrolla la capacidad de transformar objetos en ideas visuales. 

La relevancia educativa de esta metodología 

Trabajar con Madoz permite desarrollar: observación fina, crucial para la lectura crítica de imágenes (Berger, 1972); conciencia perceptiva, al identificar relaciones inusuales entre objetos; creatividad conceptual, alineada con estudios de creatividad visual en educación (Runco, 2007); pensamiento crítico, clave en la alfabetización contemporánea (Buckingham, 2003). 

La fuerza pedagógica de Madoz radica en que su obra es accesible y, al mismo tiempo, profundamente significativa. Permite que el alumnado aprenda a mirar y a mirar(se). 

El trabajo del alumnado: un collage que evidencia aprendizaje, creatividad y mirada crítica 

Como culminación de la actividad, los estudiantes realizaron sus propias fotografías inspiradas en los procedimientos creativos de Chema Madoz. El collage final —compuesto por 20 imágenes— revela no solo la comprensión técnica del estilo del fotógrafo, sino también un notable desarrollo de la observación, la metáfora visual y la capacidad de transformar objetos cotidianos en ideas. 

En conjunto, las imágenes muestran varios rasgos característicos del proceso de aprendizaje: 

1. Creatividad conceptual 

En muchas fotografías se aprecia cómo el alumnado ha sido capaz de reinterpretar objetos simples —cucharas, cuerdas, tijeras, llaves, vasos, botones o elementos escolares— para dotarlos de un nuevo significado. Esta capacidad para desplazar el uso habitual del objeto y generar una lectura alternativa evidencia la internalización del pensamiento metafórico propio de Madoz. 

2. Claridad compositiva y uso intencionado del blanco y negro 

El empleo sistemático del blanco y negro ayuda a centrar la atención en la forma, la textura y el contraste. La mayoría de las fotografías del collage presentan composiciones limpias, fondos neutros y un protagonismo claro de la figura principal, reproduciendo de manera efectiva el carácter analógico y depurado que distingue al fotógrafo. 

3. Observación fina y sensibilidad hacia los detalles 

El trabajo demuestra que los estudiantes han desarrollado una mirada más atenta: manipulan pequeños objetos, experimentan con sombras, repeticiones, simetrías, escalas o sustituciones, y detectan relaciones visuales que no son evidentes a primera vista. Estas habilidades son centrales en la educación artística contemporánea y en la alfabetización visual. 

4. Diversidad de soluciones y pensamiento divergente 

Aunque todos seguían un mismo marco metodológico, el resultado final muestra gran variedad: algunos optan por la ironía, otros por lo poético, otros por juegos de forma o por combinaciones inesperadas. Esta heterogeneidad confirma que la actividad fomenta el pensamiento divergente y la exploración personal. 

5. Un producto colectivo que funciona como síntesis pedagógica 

El collage final no es solo un conjunto de imágenes: es una cartografía visual del proceso educativo. Permite ver cómo cada estudiante interpreta el estilo de Madoz desde su propio contexto y cómo la suma de todas las creaciones genera un discurso visual coherente, reflejo del trabajo realizado en el aula. 

Este tipo de ejercicios no solo produce fotografías técnicamente correctas, sino que también forma una mirada crítica, creativa y consciente, que es precisamente uno de los objetivos fundamentales de trabajar educación visual a partir de artistas contemporáneos.


Referencias

Arnheim, R. (1974). Art and visual perception: A psychology of the creative eye. University of California Press. 

Berger, J. (1972). Ways of seeing. Penguin. 

Eisner, E. W. (2002). The arts and the creation of mind. Yale University Press. 

Kress, G., & van Leeuwen, T. (2006). Reading images: The grammar of visual design (2.ª ed.). Routledge. 

Levratto L., Gómez Gómez H., & Ramé López, J. (2024) Implementing visual literacy techniques among future educators in pre-school and primary school settings, Journal of Visual Literacy, 43:4, 326-343, DOI: 10.1080/1051144X.2024.2432802 

Runco, M. A. (2007). Creativity: Theories and themes. Elsevier. 

Yenawine, P. (2013). Visual thinking strategies: Using art to deepen learning across school disciplines. Harvard Education Press.Madoz como modelo para leer críticamente la imagen.

En nuestro blog

Infografías para una comunicación científica eficiente

Las infografías son un claro ejemplo de que “Una imagen vale más que mil palabras”, su uso aplicado al campo de la comunicación y divulgación científica posibilita crear productos innovadores compatibles con el entorno digital...

Propuestas para integrar la alfabetización digital en educación superior

Es un hecho constatado que la priorización de la alfabetización digital en la educación superior está siendo influenciada esencialmente desde la visión del empleador. El Foro Económico Mundial (FEM) predice que para 2020, el 35%...

La realidad virtual para comunicar ciencia a través de la inmersión

    La realidad virtual es una tecnología en auge que cada vez se encuentra más presente en las actividades de nuestra vida cotidiana. El potencial que tiene en el usuario para generar una inmersión sensorial a varios...

IMV Paper, una alternativa interactiva para comunicar los resultados de tu investigación

La mayor satisfacción para cualquier investigador es que su trabajo sea leído. En muchas ocasiones escribir un paper no implica que nuestro trabajo llegue a sus destinatarios. El IMVpaper incrementa las posibilidades de que el...

H2020. Guía para comunicar eficazmente en las Redes Sociales

El programa H2020 ha actualizado el pasado mes de abril su Guía para comunicar en redes sociales los resultados de los proyectos de investigación. Te ayudamos a conocer e interpretar los aspectos clave para mejorar la la...