Según el estudio, la verificación de datos reduce la difusión de desinformación en Facebook en aproximadamente un 8%, un efecto que se concentra exclusivamente en aquellas publicaciones calificadas como falsas. Lejos de ser un dato menor, los investigadores remarcan que se trata de un impacto positivo y estadísticamente significativo.
El análisis se basó en casi mil contenidos desinformantes revisados durante 18 meses y permitió comparar su alcance con publicaciones similares que no fueron verificadas. La conclusión fue clara: cuando una noticia falsa es señalada como tal, su recorrido en la red se acorta.
Además, el efecto es mayor cuando el chequeo se realiza con rapidez y varía según el tema. Los contenidos vinculados a conflictos bélicos, como la guerra en Ucrania, muestran una caída más pronunciada en su viralidad, mientras que el impacto es menor en áreas como salud o medio ambiente.
El cambio no lo hace el algoritmo, lo hace la gente
Uno de los puntos más relevantes del estudio es que la reducción de la desinformación no se explica únicamente por decisiones técnicas de la plataforma. Los investigadores observaron que los propios usuarios modifican su conducta.
Las publicaciones marcadas como falsas tienen más probabilidades de ser eliminadas y, además, quienes compartieron ese tipo de contenido tienden luego a difundir menos noticias falsas en el futuro. Incluso, en el corto plazo, reducen su actividad en redes sociales.
Este comportamiento voluntario refuerza una idea clave del trabajo: la verificación de datos no limita la libertad de expresión, sino que incentiva prácticas más responsables. La evidencia, señalan los autores, contradice el argumento de que el fact-checking represente una amenaza para el debate público.
Un debate que también se da en Argentina
Los resultados se alinean con investigaciones previas realizadas en distintos países. En Argentina, estudios sobre el impacto de Chequeado durante las elecciones presidenciales de 2019 mostraron que, aunque el chequeo no siempre cambia opiniones, sí reduce la propensión a compartir información falsa.
Algo similar ocurre con dirigentes políticos: investigaciones internacionales detectaron que los líderes advertidos de que sus declaraciones serían chequeadas incurrieron en menos afirmaciones falsas que aquellos que no recibieron ningún aviso.
¿Y las Notas de la Comunidad?
Mientras Meta avanza en Estados Unidos con un modelo basado en aportes de usuarios, la evidencia sobre su eficacia aún es limitada. A diferencia del sistema de verificadores independientes, los estudios disponibles indican que las Notas de la Comunidad tienen un impacto marginal para frenar la desinformación, sobre todo en contextos políticos polarizados.
Además, trabajos recientes advirtieron que este tipo de moderación no logró contener otros fenómenos, como el crecimiento del discurso de odio en X tras la compra de la plataforma por parte de Elon Musk.
En ese escenario, los verificadores independientes siguen ocupando un lugar central: son una de las fuentes más citadas incluso dentro de los sistemas comunitarios y continúan siendo una herramienta clave para aportar contexto, reducir la visibilidad de contenidos falsos y alertar a los usuarios.
El debate sigue abierto, pero la evidencia académica suma un dato difícil de ignorar: cuando la desinformación se señala con datos y evidencia, no solo circula menos, sino que también cambia la forma en que las personas usan las redes.