Wikipedia y la visibilidad de nuestras investigaciones científicas

¿Puedo publicar mis investigaciones en Wikipedia? ¿Puedo hacerme mi propio artículo?

por Florencia Claes | May 24, 2022

Wikipedia es un espacio de visibilización muy importante. Sus artículos suelen aparecer entre los primeros resultados en la mayoría de los buscadores y quienes trabajan en posicionamiento web lo saben. Cada vez más se la toma en cuenta como altmetric o métrica alternativa. Hoy más que nunca, el personal investigador debería conocer el funcionamiento de la enciclopedia virtual y cómo contribuir a su crecimiento y verificabilidad.

Como sabemos, Wikipedia es una enciclopedia libre, multilingüe, que puede ser editada por cualquiera y que no está ajena a los conflictos. Justamente, su mayor valor, el que cualquier persona pueda editarla, se transforma a veces en su peor inconveniente. Lo que regula su funcionamiento es la masa wikipedista, esa comunidad de personas que editan Wikipedia. Estas personas, de forma voluntaria, editan, mejoran, corrigen y agregan información a la enciclopedia, siempre partiendo de fuentes fiables. Wikipedia apoya su funcionamiento en cinco pilares y a partir de allí se regula toda su estructura para garantizar, o al menos intentar, un equilibrio.

En los últimos años, Wikipedia ha sufrido diferentes intentos de manipulación relacionados con malas prácticas de posicionamiento SEO. Muchas empresas han intentado crear sus propios artículos, incluir sus webs como referencia para respaldar aseveraciones tendenciosas, hasta incluir fotografías de paisajes para mostrar sus productos. Estas prácticas son altamente rechazadas por la comunidad editora que cuida y vela por la buena calidad de las fuentes y el cumplimiento de las normas. La comunidad cuida Wikipedia puesto que se trata de un bien común, un espacio de conocimiento compartido y no de publicidad y exhibición.

Pero… ¿quién mejor que yo misma para hablar de mi investigación?

Hemos escuchado algunas veces a gente famosa decir que sus artículos de Wikipedia no tienen información correcta, o que están desactualizados. Es importante aclarar que solo si se ha publicado esa información podremos agregarla a Wikipedia. No vale con saber de un tema o conocer la fecha de nacimiento de alguien si estos datos no están previamente publicados en algún sitio. Hasta Jimmy Wales, uno de sus creadores, tuvo problemas con su fecha de nacimiento en la enciclopedia, y no podía hacer él mismo el cambio.

No está permitido editar sobre nuestra persona y, además, Wikipedia no es fuente primaria para volcar nuestros conocimientos sobre un tema o dar a conocer de primera mano nuestra investigación. Es necesario utilizar fuentes que previamente hayan pasado por un proceso editorial. Es por eso por lo que no podemos crear artículos sobre temas que están todavía en investigación y sin publicar, o agregar como referencia nuestros propios artículos de investigación… Wikipedia no es fuente primaria. Wikipedia no se lleva bien con el conflicto de interés.
Entonces, ¿cómo hacemos para enriquecer la enciclopedia con las producciones científicas que tanto tiempo nos han llevado y que claramente mejorarían la calidad de los contenidos?

Trabajar en transferencia

El mejor momento para agregar información a Wikipedia y mejorar sus artículos es cuando, como personal investigador, estamos en la etapa de la investigación y lectura para conformar el Estado de la cuestión. En ese momento solemos buscar textos, recabar información, hacer consultas de bibliografía bastante extensas… Este momento de lectura y conocimiento es el que nos permitirá, no solo dar bases sólidas a nuestra investigación, sino también aportar nuestro granito de arena al conocimiento libre. Este es el momento de mejorar los artículos de Wikipedia relacionados con nuestro tema de interés, partiendo de los materiales ya publicados.

Seguramente llegue un momento de nuestra carrera que nos interese (por visibilidad, reconocimiento, posicionamiento en internet o simplemente “porque yo lo valgo”) tener un artículo sobre nosotros mismos o sobre nuestra investigación en Wikipedia. No caigamos en la tentación. La comunidad wikipedista es muy celosa de estos temas. No es aconsejable intentar utilizar Wikipedia en nuestro propio beneficio, sino que las aportaciones deberían ser en favor de toda la comunidad.

Lo que sí podemos hacer es sembrar para que otros puedan trabajar de forma más sencilla con nuestras investigaciones y usarlas como referencia en la construcción de artículos en Wikipedia. Las personas que editan Wikipedia no todas pueden acceder cómodamente a un artículo científico, pero sí a un resumen o explicación didáctica del mismo hecho en la web de la universidad, en el centro de investigación o que esté publicado en un medio generalista. Por otro lado, publicar un CV con un listado de artículos no siempre es una información fácil de digerir o comprender. Una narración siempre es más agradecida por el público general.

Esa forma de dar a conocer la investigación hará que quienes quieran editar en Wikipedia sobre ese tema tengan herramientas más accesibles con las que empezar a bucear. Al fin y al cabo, este trabajo de comunicación y de visibilización de la investigación se le debe a la ciudadanía. De eso va la transferencia.

Te puede interesar

Cuando X (Twitter) dice NO: Crónica de una resistencia sistemática a la transparencia

Cuando X (Twitter) dice NO: Crónica de una resistencia sistemática a la transparencia


El derecho que existe (sobre el papel)

Desde 2023, la Ley de Servicios Digitales (DSA) de la Unión Europea otorga a los investigadores un derecho esencial: acceder a los datos de las grandes plataformas digitales para estudiar riesgos sistémicos. En teoría, plataformas como X, Meta, TikTok y otras están obligadas a proporcionar «sin retraso indebido» acceso a datos públicos cuando los investigadores cumplen requisitos básicos: estar afiliados a una institución académica, investigar riesgos sistémicos para la UE, y comprometerse a publicar los resultados de forma abierta. Suena bien, ¿verdad? La realidad es otra historia.

Nuestro experimento (involuntario) con la resistencia

En el marco de una investigación del proyecto eComciencia, el Grupo Ciberimaginario y el XRCOMLAB de la URJC, solicitamos acceso a datos de X para investigar el discurso social sobre las tecnologías inmersivas (metaverso, VR, XR) en España. Nuestro objetivo: analizar narrativas, detectar desinformación y entender impactos potenciales en la opinión pública. Un proyecto legítimo, con metodología sólida y relevancia clara para los riesgos que contempla la DSA.

Lo que siguió fue una masterclass en cómo una gran plataforma puede decir «no» sin decir «no» durante tres meses.

El manual de resistencia en cinco actos

Acto 1: El silencio (28 enero – 7 febrero)

Presentamos nuestra solicitud el 28 de enero con toda la documentación requerida. Respuesta de X: silencio absoluto durante 10 días. Ni siquiera un «hemos recibido tu solicitud».

Acto 2: «Necesitamos más papeles» (7-25 febrero)

Cuando finalmente X confirmó la recepción, esperamos otros 18 días para recibir la primera sorpresa: necesitaban «documentación independiente» para verificar que nuestro proyecto era real. Solicitudes de subvenciones, páginas web departamentales, cualquier cosa que «comprobara» que no estábamos mintiendo sobre nuestra investigación.

Respondimos el mismo día enviando todo lo solicitado.

Acto 3: «Su solicitud es demasiado amplia» (14 marzo)

Un mes después, nueva objeción: nuestra solicitud era «excesivamente amplia» y aparentemente no se enfocaba en «discurso político o ideológico». X requería que pre-especificáramos nuestra metodología con un detalle que podría comprometer la validez científica del estudio.

También cuestionaron si estudiar «narrativas engañosas sobre tecnologías inmersivas» realmente contribuía a detectar riesgos para «el discurso cívico y procesos electorales». Una interpretación sorprendentemente restrictiva de lo que constituye un riesgo sistémico.

Respondimos el mismo día con clarificaciones detalladas y argumentos teóricos sólidos.

Acto 4: «No, simplemente no» (24 marzo)

Después de todas nuestras clarificaciones, X emitió un rechazo formal. Sin explicaciones detalladas, sin referencia a criterios específicos de la DSA, sin justificación real.

Contraargumentamos inmediatamente con un análisis detallado de las obligaciones de las plataformas y de los precedentes regulatorios.

Acto 5: «No, definitivamente no» (2 mayo)

La denegación definitiva llegó sin ni siquiera responder a nuestros argumentos legales. Tras 94 días, X cerró el proceso sin más explicaciones. ¡Esto es todo, amigos!

Las tres estrategias de la resistencia

Nuestro caso documenta tres técnicas claras que X, y otras plataformas, utilizan para saltarse sus obligaciones legales:

  1. Criterios extra-regulatorios: Exigencias que van más allá de lo establecido en la DSA, incluyendo interpretaciones restrictivas de conceptos como «proporcionalidad» y «riesgos sistémicos».
  2. Escalada progresiva de exigencias: Cada fase introduce nuevos requisitos no contemplados inicialmente, cambiando constantemente las reglas del juego.
  3. Dilaciones sistemáticas: Se producen períodos extensos entre comunicaciones que sugieren una estrategia deliberada para desgastar a los investigadores.

No estamos solos, desafortunadamente

Nuestro caso no es aislado. La Comisión Europea tiene procedimientos formales abiertos contra X, que es el primer caso emblemático por «deficiencias sospechosas» en dar acceso a investigadores; TikTok: Investigada por violaciones múltiples incluyendo acceso a datos; Meta, que cuenta con múltiples procedimientos, incluyendo la eliminación de CrowdTangle sin alternativa real; o AliExpress, que es el primer marketplace bajo investigación por estas violaciones de acceso.

Además, en enero de 2024, la Comisión envió solicitudes de información a 17 plataformas sobre sus prácticas de acceso a datos. Y la conclusión es clara: se trata de una resistencia sistemática.

Curiosamente, solo Wikipedia parece estar cumpliendo adecuadamente, y parece que la diferencia clave es que se trata de una organización sin ánimo de lucro con arquitectura de datos abierta, mientras que las demás tienen modelos comerciales que dependen del control de la información.

¿Por qué es importaNTE reclamar el acceso como investigadores?

Esta resistencia no es solo un problema burocrático. Ataca a un pilar fundamental de la responsabilidad democrática de las plataformas digitales. Sin investigación independiente, el sistema de mitigación de riesgos de la DSA se convierte en un ejercicio formal en el que las plataformas se autorregulan sin una supervisión real.

Las plataformas han logrado mantener su control trasladando la resistencia del «qué datos proporcionamos» al «cómo proporcionamos el acceso». Es una estrategia sofisticada que opera en las zonas grises de la regulación.

Lo que hemos aprendido en este proceso:

  1. La autorregulación no funciona: Las plataformas han desarrollado estrategias sofisticadas para evadir sus obligaciones legales explícitas.
  2. Se necesita supervisión gubernamental activa: Los marcos regulatorios futuros deben anticipar estas tácticas y abordar eficazmente las vías de resistencia.
  3. Los investigadores deben coordinarse: Documentar estos casos y compartir estrategias es crucial para presionar para que se produzcan mejorasen la regulación.
  4. La transparencia no es técnicamente imposible: Wikipedia demuestra que se puede hacer cuando hay voluntad real.

Nuestro caso forma parte de un inventario creciente de evidencias sobre las limitaciones de la regulación actual. Los datos que hemos recopilado contribuyen al debate sobre futuras reformas que fortalezcan los mecanismos de supervisión y establezcan criterios más específicos. La Comisión Europea ya está investigando formalmente a estas plataformas. Casos como el nuestro proporcionan la evidencia necesaria para demostrar que la resistencia es sistemática, no accidental.

Conclusiones

Cuando las grandes plataformas digitales pueden evadir sus obligaciones legales con impunidad, el proyecto democrático de transparencia y rendición de cuentas se ve seriamente comprometido. La DSA fue un gran paso adelante, pero su implementación muestra las limitaciones de confiar en la buena fe de las empresas que se benefician precisamente del control de la información.

La batalla por el acceso transparente a los datos de las plataformas está en sus primeras etapas. Y casos como el nuestro demuestran que es una batalla que necesitamos librar.

Este post se basa en la documentación completa de nuestro proceso de solicitud, disponible como informe técnico en Zenodo para que otros investigadores puedan aprender de nuestra experiencia y mejorar sus propias estrategias.


Referencias

Seminario Permanente: Algoritmos, visibilidad y discurso oficial: libertad de expresión y desinformación en tiempos de plataformas

Seminario Permanente: Algoritmos, visibilidad y discurso oficial: libertad de expresión y desinformación en tiempos de plataformas

Hoy, 17 de junio de 2025, se ha celebrado una nueva sesión del Seminario Permanente Ciberimaginario, organizada por el Grupo COMTEDEA y el Grupo de Investigación Ciberimaginario de la Universidad Rey Juan Carlos. En esta ocasión, el encuentro ha girado en torno a un tema de gran actualidad y relevancia: el impacto de los algoritmos en la visibilidad del discurso oficial y los límites de la libertad de expresión en plataformas digitales.

La sesión, titulada “Algoritmos, visibilidad y discurso oficial: libertad de expresión en la era de las plataformas”, ha contado con la participación del profesor Maxi Bron, de la Universidad Nacional de Córdoba en Argentina, quien ha abordado críticamente cómo las lógicas algorítmicas configuran los marcos de visibilidad de los discursos institucionales y ciudadanos.

El profesor Bron ha ilustrado estos desafíos mediante ejemplos sobre el impacto algorítmico en la comunicación política e institucional en Argentina, destacando cómo estos mecanismos están moldeando el discurso público y condicionando el acceso a la información. Su intervención ha subrayado la importancia de analizar y estudiar estos fenómenos para defender modelos de deliberación pública y democrática. El intercambio de ideas ha puesto de relieve, además, la necesidad de una alfabetización crítica en el uso de medios digitales y de una mayor transparencia en el funcionamiento de los algoritmos que median nuestra experiencia informativa.

Este encuentro se enmarca en las actividades de investigación y transferencia del conocimiento del Grupo Ciberimaginario, cuyo propósito es fomentar el debate académico y profesional sobre los retos contemporáneos de la comunicación digital, con una perspectiva interdisciplinar y comprometida con los valores democráticos.

🎥 Puedes ver la grabación completa en este vídeo, y revisar el álbum de fotos de la sesión.

Ciberimaginario participa en Purple4Life, un nuevo proyecto europeo para impulsar sistemas alimentarios sostenibles

Ciberimaginario participa en Purple4Life, un nuevo proyecto europeo para impulsar sistemas alimentarios sostenibles

El proyecto europeo Purple4Life se ha puesto oficialmente en marcha con su primera reunión presencial, celebrada los días 10 y 11 de junio de 2025 en la Universidad de Mons (UMONS), en Bélgica. Este evento inaugural reunió a representantes de las 12 instituciones participantes procedentes de siete países europeos, marcando el inicio de cuatro años de investigación e innovación colaborativa.

Durante el encuentro se trabajó en la alineación de estrategias, la revisión de los paquetes de trabajo y la definición de las primeras acciones conjuntas. Además, los asistentes tuvieron la oportunidad de visitar los laboratorios donde se llevarán a cabo partes clave del proyecto.

Purple4Life investiga el potencial de las bacterias púrpuras para revalorizar coproductos industriales y producir de forma segura compuestos de alto valor añadido como la coenzima Q10 y los carotenoides. El proyecto evaluará el impacto nutricional, medioambiental y social de estas aplicaciones, promoviendo su sostenibilidad a largo plazo y su aceptación social.

El Grupo de Investigación Ciberimaginario, de la Universidad Rey Juan Carlos (URJC), participa en el consorcio como responsable de la estrategia de comunicación y divulgación científica del proyecto, en colaboración con la Sociedade Portuguesa de Inovação (SPI). Esta labor será clave para favorecer la comprensión pública de los beneficios del uso de biotecnologías emergentes como las bacterias púrpuras y facilitar el diálogo con la ciudadanía y actores clave.

En representación de Ciberimaginario, Nerea Benítez asistió a la reunión de lanzamiento, participando activamente en las sesiones de trabajo y en la definición de acciones de comunicación alineadas con los objetivos del proyecto y los valores de sostenibilidad, transparencia y ciencia abierta que lo inspiran.

Financiado por la Circular Bio-based Europe Joint Undertaking (CBE JU) en el marco del programa Horizonte Europa, Purple4Life está coordinado por el Departamento de Proteómica y Microbiología de UMONS, con el apoyo de la Cellule Europe.

Vídeo resumen del Foro de Innovación sobre Inteligencia Artificial, Ética y Regulación en el Periodismo

Vídeo resumen del Foro de Innovación sobre Inteligencia Artificial, Ética y Regulación en el Periodismo

La Escuela de Comunicación Digital del Grupo Ciberimaginario comparte el vídeo resumen del Foro de Innovación sobre Inteligencia Artificial, Ética y Regulación en el Periodismo, celebrado el pasado 24 de abril en la sede de la Universidad Rey Juan Carlos en Madrid-Argüelles.

Este foro, organizado por la Universidad Rey Juan Carlos y El Confidencial a través del Máster en Periodismo de Investigación, Nuevas Narrativas, Datos, Fact-checking, Transparencia e Inteligencia Artificial, y en colaboración con la Cátedra URJC-OGA en Inteligencia Artificial y Desarrollo Sostenible, reunió a periodistas, investigadores y especialistas en tecnología para debatir los retos éticos y regulatorios que plantea la integración de la inteligencia artificial en la práctica periodística.

Durante la jornada se abordaron cuestiones clave como la automatización de procesos informativos, el uso de herramientas generativas (IAgen), los dilemas morales vinculados a su aplicación en redacciones y la confrontación entre modelos de regulación europeos y procesos de desregulación a escala global.

Este vídeo recoge los principales momentos del evento y permite recuperar las reflexiones compartidas por los ponentes, ofreciendo una mirada crítica y actual sobre el impacto de la IA en el periodismo y su papel en la sociedad contemporánea.

En nuestro blog

Alfabetización científica para la sostenibilidad: un reto de todos los ciudadanos

Recientemente, William D. Nordhaus y Paul M. Romer, han sido galardonados con el premio Nobel de economía por analizar las repercusiones del cambio climático y las innovaciones tecnológicas en el desarrollo económico. Frenar los...

Qué comunicamos…cuando comunicamos sobre ciencia

Dice Pol Morales en la presentación del libro Los públicos de la ciencia que “Las encuestas de opinión suelen reflejar una predilección de los ciudadanos por los temas científicos. Los datos de audiencia, en cambio, parecen...

Infografías para una comunicación científica eficiente

Las infografías son un claro ejemplo de que “Una imagen vale más que mil palabras”, su uso aplicado al campo de la comunicación y divulgación científica posibilita crear productos innovadores compatibles con el entorno digital...

El vídeo en 360 grados para comunicar resultados en proyectos de investigación

Si sumamos vídeo en 360 grados + interactividad obtenemos un resultado que explota con posibilidades para transmitir conocimiento. Este artículo presenta un producto audiovisual, con esas características, que explica un...

PISA: la evaluación de la competencia científica y su transferencia a la sociedad

Aunque los resultados para España no pueden ser imputados a un defecto general de la prueba, es decir, PISA es una prueba válida y fiable, como ya mencionamos, sería recomendable introducir y adaptar instrumentos y medidas...