La verificación periodística de información sobre Ciencia en España (II)

La lucha contra la desinformación sobre ciencia, salud y cambio climático, como herramienta de comunicación científica

por Sergio Álvarez García | Nov 3, 2024

Para desmentir ‘fake news’ o explicar por qué una información sobre ciencia es errónea, se utilizan recursos propios del periodismo y de la divulgación que son claves para comunicar la Ciencia con rigor y mostrando su importancia y utilidad en la vida cotidiana de las personas.

A finales del siglo pasado, la Asociación Americana para el Avance de la Ciencia (AAAS) destacaba diversos problemas que la ciencia y los científicos tenían para divulgar el conocimiento que producen: extensión y complejidad; aceleración en la adquisición del conocimiento; incomunicación por exceso de información; resistencia a los cambios; o el lenguaje científico (Calvo Hernando, 1997). A estos obstáculos en el camino de la comunicación científica, que siguen vigentes, se les suma hoy un fenómeno que ya había nacido, pero que ha crecido y se ha multiplicado en los últimos años: la desinformación.

En la actualidad, Internet y las redes sociales son los medios a través de los que se informa más sobre Ciencia la ciudadanía, pero también los más percibidos como fuentes de desinformación. Esta percepción se extiende a los medios convencionales, que sufren una crisis de credibilidad, mientras circulan mensajes negacionistas que encuentran en la ideología un punto débil para el contraste y la capacidad de discernir la veracidad de la información (FECYT, 2022b, 2023).

En este panorama de problemas y dificultades, comunicar Ciencia sigue siendo un reto, cada vez mayor. Por qué no sumar soluciones en la misma dirección (la de siempre tal vez): que la verdad científica que comuniquemos, además de serlo, lo parezca, es decir: que además de verificarse, se muestre creíble, fiable y comprensible.

SALUD: DESINFORMACIÓN VS DIVULGACIÓN

Tal vez el factor más relevante, tanto de los procesos de comunicación como de desinformación, es el interés que un tema o sector despierte en la sociedad. En el ámbito de la Ciencia y de sus aplicaciones, las Encuestas sobre la Percepción Social de la Ciencia y la Tecnología en España (FECYT 2018, 2022 y 2023) apuntan una clara tendencia en este sentido:

  • Antes de la pandemia de COVID-19, la Sanidad era el sector en el que el porcentaje más elevado de personas encuestadas (80%) aumentaría el gasto público por considerarlo prioritario, algo que se mantiene en la actualidad.
  • En plena pandemia, la propia COVID-19 fue directamente el tema que suscitaba mayor interés informativo, sumando junto con medicina y salud casi un 75%
  • En el último informe realizado, hacer frente a las enfermedades y pandemias es considerado el beneficio más relevante de la Ciencia para un 70% de la ciudadanía española.

Este interés por la Salud tiene su reflejo en los fenómenos de desinformación. Es el ámbito en el que se percibe una recepción mayor de información que podría ser falsa: la COVID-19, las vacunas, la nutrición, los tratamientos médicos y los tratamientos homeopáticos están entre los seis temas más susceptibles de ser objeto de desinformación, junto con el cambio climático. En esta línea, la consideración de que “la circulación de la desinformación y los bulos puede tener efectos perjudiciales para la salud de la población” es una percepción mayoritaria (63,2%) en España (FECYT, 2022b).

Logo de la iniciativa Salud sin bulos

También es en el campo de la Salud donde encontramos un primer antídoto para hacer frente al veneno de la desinformación científica, que es al mismo tiempo una clave para comunicar de forma eficiente: el uso de fuentes confiables. ¿Qué caracteriza a las fuentes de información en salud que transmiten confianza? Que son profesionales, protagonistas de esa información. Cuando se pregunta a la gente sobre a quién recurre primero para buscar o pedir información sobre temas de salud, responde mayoritariamente que a médicos, enfermeros/as o farmacéuticos/as, antes que a Internet, redes sociales, amigos o familiares o medios de comunicación (FECYT, 2022). Una de las iniciativas más destacadas en la lucha contra la desinformación científica, Salud sin bulos, basa su éxito como plataforma para divulgar conocimiento científico en el campo de la salud en este tipo de factores:

  • Una declaración de ausencia de conflicto de intereses y transparencia en todas las actividades y contenidos que realizan.
  • Una red de colaboradores agrupados en avales científicos (asociaciones de profesionales y pacientes y otras instituciones y organismos de investigación en salud) y en ‘cazabulos’ (profesionales e investigadores de prestigio en el ejercicio de la medicina, la enfermería, la farmacología, la psicología, la inmunología, etc.).
  • Una oferta de contenidos científicos presentada a través de una sección denominada Alertas, con artículos que comienzan advirtiendo de la existencia de un bulo o una información falsa, parcial o imprecisa y de las consecuencias que aceptarlo como verdadero o fiable puede tener sobre nuestra salud; y que aprovechan la identificación de las mentiras, incorrecciones y errores, para divulgar el conocimiento científico relacionado.

VERIFICADORES Y CIENCIA

La alfabetización mediática y la comunicación clara se suman a las fuentes confiables como antídotos contra la desinformación. Ambos se desarrollan profesionalmente y en un grado alto en medios de verificación como los españoles que se integran en la International Fact-Checking Network (IFCN): EFE Verifica, Maldita.es., Verificat y Newtral.

Portada de Maldita Ciencia con dos artículos sobre cambio climático y vacunas

En todos estos medios, que se despliegan bajo distintos modelos (Castellet et al., 2023), se produce una información caracterizada, no solo por partir de un contraste de datos y fuentes expertas, sino por presentarse con una intencionalidad didáctica y crítica y por explicarse con técnicas expresivas ligadas a la divulgación, identificando la utilidad social de la actividad científica, explicando los conceptos claves del conocimiento relacionado y utilizando un lenguaje comprensible y recursos expresivos atractivos.

Portada del Episodio del podcast ConCheck de Efe Verifica, dedicado al negacionismo climático

Es especialmente interesante el hecho de la prioridad que otorgan a temas científicos en su agenda: bien creando una plataforma específica (como Maldita Ciencia); bien destacando una categoría de contenidos (EFE Verifica, Newtral) o incluyéndola como una de las cuatro áreas estructurales de verificación (Verificat).  

Portada de la categoría de Ciencia de Newtral

Por lo observado en estos contenidos y en la forma de abordarlos, podemos deducir que verificar ciencia es divulgar ciencia. A la desinformación se opone el rigor de la contextualización verdadera y la exposición de los conocimientos sistematizados, metódicos, comprobables, demostrables. A la ‘misinformación’ se la combate con la claridad explicativa de las conexiones y relaciones fundamentadas y de la información clara y no confusa.

De manera que cuando tengamos la oportunidad de poner el conocimiento y los frutos de nuestra labor investigadora a disposición de estos medios y tareas de verificación, no debemos desaprovecharla: porque estaremos siendo útiles y eficientes para la sociedad en la que vivimos, pero también para la ciencia por la que trabajamos..

REFERENCIAS

Calvo Hernando, Manuel (1997): Manual de Periodismo Científico. Barcelona: Bosch

Castellet, Andreu; Varona, David; Álvarez García, Sergio (2023) Verificadores en España: una visión de su lógica de negocio. Espejo de Monografías, núm. 13. https://doi.org/10.52495/c6.emcs.13.p99

FECYT (2018): Encuesta de Percepción Social de la Ciencia y la Tecnología. https://www.fecyt.es/sites/default/files/users/user378/percepcion_social_de_la_ciencia_y_la_tecnologia_2018_completo.pdf

FECYT (2022): Encuesta de Percepción Social de la Ciencia y la Tecnología. https://www.fecyt.es/sites/default/files/users/user378/percepcion_social_de_la_ciencia_y_la_tecnologia_2020_informe_completo_2.pdf

FECYT (2022b): Desinformación Científica en España. Informe de resultados. https://doi.org/10.58121/72G3-SF74

FECYT (2023): Encuesta de Percepción Social de la Ciencia y la Tecnología en España 2022. https://doi.org/10.58121/msx6-zd63

Reuters Institute (2021). Digital News Report 2021. https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2021-06/Digital_News_Report_2021_FINAL.pdf

Reuters Institute (2022). Digital News Report 2022. https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2022-06/Digital_News-Report_2022.pdf

Wardle, C.; Derakhshan, H. (2017): Information disorder: Toward an interdisciplinary framework for research and policymaking. Estrasburgo: Consejo de Europa. https://rm.coe.int/information-disorder-toward-an-interdisciplinary-framework-for-researc/168076277c

Te puede interesar

Cuando X (Twitter) dice NO: Crónica de una resistencia sistemática a la transparencia

Cuando X (Twitter) dice NO: Crónica de una resistencia sistemática a la transparencia


El derecho que existe (sobre el papel)

Desde 2023, la Ley de Servicios Digitales (DSA) de la Unión Europea otorga a los investigadores un derecho esencial: acceder a los datos de las grandes plataformas digitales para estudiar riesgos sistémicos. En teoría, plataformas como X, Meta, TikTok y otras están obligadas a proporcionar «sin retraso indebido» acceso a datos públicos cuando los investigadores cumplen requisitos básicos: estar afiliados a una institución académica, investigar riesgos sistémicos para la UE, y comprometerse a publicar los resultados de forma abierta. Suena bien, ¿verdad? La realidad es otra historia.

Nuestro experimento (involuntario) con la resistencia

En el marco de una investigación del proyecto eComciencia, el Grupo Ciberimaginario y el XRCOMLAB de la URJC, solicitamos acceso a datos de X para investigar el discurso social sobre las tecnologías inmersivas (metaverso, VR, XR) en España. Nuestro objetivo: analizar narrativas, detectar desinformación y entender impactos potenciales en la opinión pública. Un proyecto legítimo, con metodología sólida y relevancia clara para los riesgos que contempla la DSA.

Lo que siguió fue una masterclass en cómo una gran plataforma puede decir «no» sin decir «no» durante tres meses.

El manual de resistencia en cinco actos

Acto 1: El silencio (28 enero – 7 febrero)

Presentamos nuestra solicitud el 28 de enero con toda la documentación requerida. Respuesta de X: silencio absoluto durante 10 días. Ni siquiera un «hemos recibido tu solicitud».

Acto 2: «Necesitamos más papeles» (7-25 febrero)

Cuando finalmente X confirmó la recepción, esperamos otros 18 días para recibir la primera sorpresa: necesitaban «documentación independiente» para verificar que nuestro proyecto era real. Solicitudes de subvenciones, páginas web departamentales, cualquier cosa que «comprobara» que no estábamos mintiendo sobre nuestra investigación.

Respondimos el mismo día enviando todo lo solicitado.

Acto 3: «Su solicitud es demasiado amplia» (14 marzo)

Un mes después, nueva objeción: nuestra solicitud era «excesivamente amplia» y aparentemente no se enfocaba en «discurso político o ideológico». X requería que pre-especificáramos nuestra metodología con un detalle que podría comprometer la validez científica del estudio.

También cuestionaron si estudiar «narrativas engañosas sobre tecnologías inmersivas» realmente contribuía a detectar riesgos para «el discurso cívico y procesos electorales». Una interpretación sorprendentemente restrictiva de lo que constituye un riesgo sistémico.

Respondimos el mismo día con clarificaciones detalladas y argumentos teóricos sólidos.

Acto 4: «No, simplemente no» (24 marzo)

Después de todas nuestras clarificaciones, X emitió un rechazo formal. Sin explicaciones detalladas, sin referencia a criterios específicos de la DSA, sin justificación real.

Contraargumentamos inmediatamente con un análisis detallado de las obligaciones de las plataformas y de los precedentes regulatorios.

Acto 5: «No, definitivamente no» (2 mayo)

La denegación definitiva llegó sin ni siquiera responder a nuestros argumentos legales. Tras 94 días, X cerró el proceso sin más explicaciones. ¡Esto es todo, amigos!

Las tres estrategias de la resistencia

Nuestro caso documenta tres técnicas claras que X, y otras plataformas, utilizan para saltarse sus obligaciones legales:

  1. Criterios extra-regulatorios: Exigencias que van más allá de lo establecido en la DSA, incluyendo interpretaciones restrictivas de conceptos como «proporcionalidad» y «riesgos sistémicos».
  2. Escalada progresiva de exigencias: Cada fase introduce nuevos requisitos no contemplados inicialmente, cambiando constantemente las reglas del juego.
  3. Dilaciones sistemáticas: Se producen períodos extensos entre comunicaciones que sugieren una estrategia deliberada para desgastar a los investigadores.

No estamos solos, desafortunadamente

Nuestro caso no es aislado. La Comisión Europea tiene procedimientos formales abiertos contra X, que es el primer caso emblemático por «deficiencias sospechosas» en dar acceso a investigadores; TikTok: Investigada por violaciones múltiples incluyendo acceso a datos; Meta, que cuenta con múltiples procedimientos, incluyendo la eliminación de CrowdTangle sin alternativa real; o AliExpress, que es el primer marketplace bajo investigación por estas violaciones de acceso.

Además, en enero de 2024, la Comisión envió solicitudes de información a 17 plataformas sobre sus prácticas de acceso a datos. Y la conclusión es clara: se trata de una resistencia sistemática.

Curiosamente, solo Wikipedia parece estar cumpliendo adecuadamente, y parece que la diferencia clave es que se trata de una organización sin ánimo de lucro con arquitectura de datos abierta, mientras que las demás tienen modelos comerciales que dependen del control de la información.

¿Por qué es importaNTE reclamar el acceso como investigadores?

Esta resistencia no es solo un problema burocrático. Ataca a un pilar fundamental de la responsabilidad democrática de las plataformas digitales. Sin investigación independiente, el sistema de mitigación de riesgos de la DSA se convierte en un ejercicio formal en el que las plataformas se autorregulan sin una supervisión real.

Las plataformas han logrado mantener su control trasladando la resistencia del «qué datos proporcionamos» al «cómo proporcionamos el acceso». Es una estrategia sofisticada que opera en las zonas grises de la regulación.

Lo que hemos aprendido en este proceso:

  1. La autorregulación no funciona: Las plataformas han desarrollado estrategias sofisticadas para evadir sus obligaciones legales explícitas.
  2. Se necesita supervisión gubernamental activa: Los marcos regulatorios futuros deben anticipar estas tácticas y abordar eficazmente las vías de resistencia.
  3. Los investigadores deben coordinarse: Documentar estos casos y compartir estrategias es crucial para presionar para que se produzcan mejorasen la regulación.
  4. La transparencia no es técnicamente imposible: Wikipedia demuestra que se puede hacer cuando hay voluntad real.

Nuestro caso forma parte de un inventario creciente de evidencias sobre las limitaciones de la regulación actual. Los datos que hemos recopilado contribuyen al debate sobre futuras reformas que fortalezcan los mecanismos de supervisión y establezcan criterios más específicos. La Comisión Europea ya está investigando formalmente a estas plataformas. Casos como el nuestro proporcionan la evidencia necesaria para demostrar que la resistencia es sistemática, no accidental.

Conclusiones

Cuando las grandes plataformas digitales pueden evadir sus obligaciones legales con impunidad, el proyecto democrático de transparencia y rendición de cuentas se ve seriamente comprometido. La DSA fue un gran paso adelante, pero su implementación muestra las limitaciones de confiar en la buena fe de las empresas que se benefician precisamente del control de la información.

La batalla por el acceso transparente a los datos de las plataformas está en sus primeras etapas. Y casos como el nuestro demuestran que es una batalla que necesitamos librar.

Este post se basa en la documentación completa de nuestro proceso de solicitud, disponible como informe técnico en Zenodo para que otros investigadores puedan aprender de nuestra experiencia y mejorar sus propias estrategias.


Referencias

Seminario Permanente: Algoritmos, visibilidad y discurso oficial: libertad de expresión y desinformación en tiempos de plataformas

Seminario Permanente: Algoritmos, visibilidad y discurso oficial: libertad de expresión y desinformación en tiempos de plataformas

Hoy, 17 de junio de 2025, se ha celebrado una nueva sesión del Seminario Permanente Ciberimaginario, organizada por el Grupo COMTEDEA y el Grupo de Investigación Ciberimaginario de la Universidad Rey Juan Carlos. En esta ocasión, el encuentro ha girado en torno a un tema de gran actualidad y relevancia: el impacto de los algoritmos en la visibilidad del discurso oficial y los límites de la libertad de expresión en plataformas digitales.

La sesión, titulada “Algoritmos, visibilidad y discurso oficial: libertad de expresión en la era de las plataformas”, ha contado con la participación del profesor Maxi Bron, de la Universidad Nacional de Córdoba en Argentina, quien ha abordado críticamente cómo las lógicas algorítmicas configuran los marcos de visibilidad de los discursos institucionales y ciudadanos.

El profesor Bron ha ilustrado estos desafíos mediante ejemplos sobre el impacto algorítmico en la comunicación política e institucional en Argentina, destacando cómo estos mecanismos están moldeando el discurso público y condicionando el acceso a la información. Su intervención ha subrayado la importancia de analizar y estudiar estos fenómenos para defender modelos de deliberación pública y democrática. El intercambio de ideas ha puesto de relieve, además, la necesidad de una alfabetización crítica en el uso de medios digitales y de una mayor transparencia en el funcionamiento de los algoritmos que median nuestra experiencia informativa.

Este encuentro se enmarca en las actividades de investigación y transferencia del conocimiento del Grupo Ciberimaginario, cuyo propósito es fomentar el debate académico y profesional sobre los retos contemporáneos de la comunicación digital, con una perspectiva interdisciplinar y comprometida con los valores democráticos.

🎥 Puedes ver la grabación completa en este vídeo, y revisar el álbum de fotos de la sesión.

Ciberimaginario participa en Purple4Life, un nuevo proyecto europeo para impulsar sistemas alimentarios sostenibles

Ciberimaginario participa en Purple4Life, un nuevo proyecto europeo para impulsar sistemas alimentarios sostenibles

El proyecto europeo Purple4Life se ha puesto oficialmente en marcha con su primera reunión presencial, celebrada los días 10 y 11 de junio de 2025 en la Universidad de Mons (UMONS), en Bélgica. Este evento inaugural reunió a representantes de las 12 instituciones participantes procedentes de siete países europeos, marcando el inicio de cuatro años de investigación e innovación colaborativa.

Durante el encuentro se trabajó en la alineación de estrategias, la revisión de los paquetes de trabajo y la definición de las primeras acciones conjuntas. Además, los asistentes tuvieron la oportunidad de visitar los laboratorios donde se llevarán a cabo partes clave del proyecto.

Purple4Life investiga el potencial de las bacterias púrpuras para revalorizar coproductos industriales y producir de forma segura compuestos de alto valor añadido como la coenzima Q10 y los carotenoides. El proyecto evaluará el impacto nutricional, medioambiental y social de estas aplicaciones, promoviendo su sostenibilidad a largo plazo y su aceptación social.

El Grupo de Investigación Ciberimaginario, de la Universidad Rey Juan Carlos (URJC), participa en el consorcio como responsable de la estrategia de comunicación y divulgación científica del proyecto, en colaboración con la Sociedade Portuguesa de Inovação (SPI). Esta labor será clave para favorecer la comprensión pública de los beneficios del uso de biotecnologías emergentes como las bacterias púrpuras y facilitar el diálogo con la ciudadanía y actores clave.

En representación de Ciberimaginario, Nerea Benítez asistió a la reunión de lanzamiento, participando activamente en las sesiones de trabajo y en la definición de acciones de comunicación alineadas con los objetivos del proyecto y los valores de sostenibilidad, transparencia y ciencia abierta que lo inspiran.

Financiado por la Circular Bio-based Europe Joint Undertaking (CBE JU) en el marco del programa Horizonte Europa, Purple4Life está coordinado por el Departamento de Proteómica y Microbiología de UMONS, con el apoyo de la Cellule Europe.

Vídeo resumen del Foro de Innovación sobre Inteligencia Artificial, Ética y Regulación en el Periodismo

Vídeo resumen del Foro de Innovación sobre Inteligencia Artificial, Ética y Regulación en el Periodismo

La Escuela de Comunicación Digital del Grupo Ciberimaginario comparte el vídeo resumen del Foro de Innovación sobre Inteligencia Artificial, Ética y Regulación en el Periodismo, celebrado el pasado 24 de abril en la sede de la Universidad Rey Juan Carlos en Madrid-Argüelles.

Este foro, organizado por la Universidad Rey Juan Carlos y El Confidencial a través del Máster en Periodismo de Investigación, Nuevas Narrativas, Datos, Fact-checking, Transparencia e Inteligencia Artificial, y en colaboración con la Cátedra URJC-OGA en Inteligencia Artificial y Desarrollo Sostenible, reunió a periodistas, investigadores y especialistas en tecnología para debatir los retos éticos y regulatorios que plantea la integración de la inteligencia artificial en la práctica periodística.

Durante la jornada se abordaron cuestiones clave como la automatización de procesos informativos, el uso de herramientas generativas (IAgen), los dilemas morales vinculados a su aplicación en redacciones y la confrontación entre modelos de regulación europeos y procesos de desregulación a escala global.

Este vídeo recoge los principales momentos del evento y permite recuperar las reflexiones compartidas por los ponentes, ofreciendo una mirada crítica y actual sobre el impacto de la IA en el periodismo y su papel en la sociedad contemporánea.

En nuestro blog

Cómo medir la eficacia de la comunicación científica

 Las convocatorias de proyectos de investigación requieren que estos definan el impacto que tendrán sus planes de comunicación y divulgación. Medir la eficacia supone establecer, desde el diseño inicial, los indicadores que...

La búsqueda por voz transforma la optimización de las estrategias de posicionamiento SEO

Como comentamos en anteriores entradas en este blog sobre SEO, en la planificación estratégica de la comunicación de proyectos de investigación es muy importante tener en cuenta el posicionamiento de contenidos en la web y la...

La planificación de la comunicación en los proyectos de investigación

En proyectos de investigación como los financiados por el programa H2020, la planificación de la comunicación comienza con la primera tarea y llega hasta la consecución de los últimos resultados; se enfoca a promover tanto las...

El marketing de contenidos como herramienta para la comunicación científica en las generaciones millenials y z (y III)

En el segundo y anterior post de esta serie identificábamos como uno de los primeros pasos, fundamentales, en la elaboración de una estrategia de marketing de contenidos el diseño de una jerarquía de reader personae. En este...

¿PISA es de fiar? La evaluación del evaluador. La competencia científica en PISA

PISA es una de las evaluaciones más reconocidas de los sistemas educativos de muchos países del mundo, que ha servido de base para la toma de decisiones y establecer políticas públicas que han intentado mejorar la calidad de los...