Los cambios en las políticas de moderación de una red social pueden tener un rol enorme en lo que ven sus usuarios. Este hecho, ya conocido, se ha podido medir por primera vez con datos cedidos por una plataforma. La desinformación etiquetada en Facebook pasó de 50 millones de visualizaciones en julio de 2020 a prácticamente cero en noviembre, días antes de aquellas elecciones de EE UU.
Un oscuro cambio en sus políticas de moderación redujo a cero las visualizaciones de contenidos falsos en las elecciones estadounidenses de 2020, pero no lo hizo en 2024
Los cambios en las políticas de moderación de una red social pueden tener un rol enorme en lo que ven sus usuarios. Este hecho, ya conocido, se ha podido medir por primera vez con datos cedidos por una plataforma. La desinformación etiquetada en Facebook pasó de 50 millones de visualizaciones en julio de 2020 a prácticamente cero en noviembre, días antes de aquellas elecciones de EE UU.
Ese cambio momentáneo se debió a medidas extremas de moderación llamadas “romper el cristal” y tenían como objetivo limitar la viralización de contenido problemático en plena campaña electoral. Y lo consiguieron. Sin embargo, este año, tras el cambio de presidente en la Casa Blanca y con Mark Zuckerberg cenando con Donald Trump en su residencia, Meta dice que ha aprendido la lección de la moderación excesiva: “Sabemos que cuando aplicamos nuestras reglas cometemos demasiados errores, lo que limita la libertad de expresión que queremos permitir. Demasiadas veces quitamos o limitamos contenido inofensivo y castigamos injustamente a demasiada gente”, escribió Nick Clegg, presidente de Asuntos Globales de Meta, el pasado 3 de diciembre.
El problema de estas prácticas es que dependen solo de la voluntad de Meta y sus dirigentes, que a su vez dependen de sus intereses, no del interés público para una democracia: “La preocupación es que estas empresas ignoren el interés público general, solo para cumplir con su objetivo de ganar dinero a corto plazo, y que también puede implicar servir sin que se note a los que mandan”, dice David Lazer, coautor de la investigación publicada en Sociological Science y profesor de la Universidad Northeastern de Boston (EE UU). El artículo pertenece a la serie de trabajos que un grupo de investigadores empezó a publicar en las revistas Science y Nature en verano de 2023 y que descubrió, por ejemplo, que la desinformación era ampliamente consumida por gente de ideología de derechas. La publicación tanto tiempo después de los hechos analizados —cuatro años— de esta nueva investigación se debe a los intrincados procesos de revisión y aceptación de los artículos en las revistas científicas.
Cada red es un mundo propio
Este acceso sin precedentes a las tripas de una red social permite probar cómo las reglas y la moderación de cada plataforma influyen en cómo se distribuye y viraliza el contenido. Las características de una red, como por ejemplo el funcionamiento de Páginas y Grupos en el caso de Facebook, y sus normas de moderación, son dos elementos clave. Y ambos pueden tener un peso potencialmente mayor que el propio algoritmo para la información que ven los usuarios.
Junto a ese hallazgo, la investigación también ha confirmado algo ya apuntado por otras investigaciones anteriores: la distribución de la desinformación depende de un grupo pequeño de usuarios muy disciplinados. “El resultado de que solo alrededor del 1% de los usuarios son responsables de la difusión de la mayoría de los mensajes etiquetados como desinformación es consistente con lo que otras investigaciones han encontrado en otras plataformas y momentos”, dice Sandra González Bailón, profesora de la Universidad de Pensilvania (EE UU) y también coautora del artículo. “Podemos generalizar este patrón según el cual una minoría es responsable de la mayoría del contenido problemático que circula por las redes”, añade.
Más allá de ese detalle, es difícil aclarar si el comportamiento que describe este artículo funcionaría igual en otras redes. X, Instagram o TikTok tienen sus propias características que provocan dinámicas distintas, además de su propia moderación.
La capacidad de influir en elecciones
Este mes Meta ha revelado que, solo en 2024, ha eliminado unas 20 operaciones secretas de influencia organizadas por Gobiernos. Rusia sigue siendo el principal responsable, seguida por Irán y China. Ninguno de estos esfuerzos tuvo éxito, según la compañía.
La capacidad de impactar en un proceso democrático en un país es mucho mayor desde los puestos directivos estas redes. El problema es que a veces la corriente puede ir a favor de una ideología, pero luego se gira. Los casos recientes de X y Telegram, influidos por sus dueños y luego por presión de las autoridades en Brasil y Francia, demuestran que la única solución razonable es que las redes sean más transparentes con sus medidas.
“A estas alturas resulta muy difícil asumir que las plataformas van a hacer lo más conveniente para proteger los procesos democráticos, la convivencia, o un intercambio de opiniones racional y deliberativo”, dice González Bailón. “La investigación, el acceso a datos, es la única manera de determinar cómo las plataformas controlan el flujo de información. Nuestro trabajo deja clarísimo que tienen la capacidad de controlarlo. Es una fuente de poder que, en sociedades abiertas, no debería poder ejercerse en la oscuridad”, añade. La esperanza de los investigadores es la regulación para forzar a las plataformas a abrir el acceso a estos datos. Europa está intentando hacer algo con su Ley de Servicios Digitales, que de momento no tiene equivalente en EE UU.
Tecnología en EL PAÍS