El 2 de noviembre de 2010, día de las elecciones legislativas en Estados Unidos, Facebook hizo un experimento sobre sesenta y un millones de personas. A unos les mostró un recordatorio en lo alto del muro: «Hoy es día de elecciones. Encuentra tu colegio electoral. He votado.» A otros, nada. Los investigadores cruzaron después los datos con los registros oficiales de votación y publicaron el resultado en Nature: el recordatorio movió, en estimación conservadora, en torno a 340.000 votos. Un solo botón. Un día. Una empresa.
Aquello quedó en la literatura académica como una curiosidad de las ciencias del comportamiento. Quince años después, ha vuelto a la mesa convertido en otra cosa muy distinta.
La novedad: el Platform Messaging Effect
El 2 de marzo de 2026, la revista PLOS One ha publicado un trabajo firmado por Robert Epstein y su equipo del American Institute for Behavioral Research and Technology (AIBRT) que pone nombre y cifra a lo que aquel experimento de Facebook insinuaba. Lo han llamado Platform Messaging Effect o PME: el efecto de los mensajes que la propia plataforma —no un anunciante, no un partido, no un usuario— envía a sus usuarios.
El experimento es metodológicamente limpio: 534 votantes estadounidenses, asignados al azar, navegando por una simulación realista de Facebook llamada Doodlebook. A unos se les intercalaban recordatorios de «ve a votar» en el feed. A otros no. Se midió antes y después si conocían la convocatoria, si pensaban votar y qué opinaban del asunto que se votaba. El resultado, con una significación estadística contundente (p < 0,001):
- Los recordatorios aumentaron la intención de voto hasta un 40% bajo ciertas condiciones.
- Extrapolado a una campaña real de varios días, los autores estiman un incremento medio del 14,9%.
- Y un dato más inquietante todavía: los recordatorios también influyeron en cómo la gente decía que iba a votar, no solo en si pensaba ir.
Si paramos un momento aquí, ya tenemos algo importante. Pero el dato verdaderamente perturbador del estudio es otro.
La cifra del 2,6%
Cuando se preguntó a los participantes al final del experimento si habían notado algo extraño, si algún elemento del feed les había parecido raro o intencionado, solo el 2,6% mencionó los recordatorios. El resto los procesó como lo que aparentaban ser: un servicio cívico de la plataforma. Mobiliario digital. Información de utilidad pública.
Esta es la firma característica de lo que Epstein lleva una década llamando «efectos invisibles»: manipulaciones que no necesitan engañar, porque el cerebro del usuario las clasifica por defecto como infraestructura neutral. No tienen el aspecto de un anuncio. No vienen firmadas por un partido. No piden voto explícito. Aparecen, hacen su trabajo y se desvanecen del feed cuando uno recarga la página.
La asimetría que cambia las reglas
La regulación electoral moderna se construyó pensando en el cartel, la pegatina, la cuña de radio, el spot de televisión y, más tarde, el anuncio en redes. Todos ellos tienen tres rasgos en común: son identificables (se sabe quién paga), son simétricos (la oposición puede comprar el mismo espacio) y son persistentes (queda un archivo que se puede auditar).
Un recordatorio de votación enviado por la propia plataforma falla en los tres frentes:
- No es identificable como mensaje político porque viene del operador de la red, no de un candidato.
- No es simétrico, porque solo Meta decide a qué usuarios de Meta se lo manda. No existe la opción de que un partido «compre» recordatorios para sus votantes objetivos: el inventario no está en venta.
- No es persistente: es contenido efímero. Aparece en el feed de unos y no en el de otros, y nadie fuera de la compañía sabe quiénes fueron los unos y quiénes los otros.
Combine usted los tres rasgos. Lo que resulta es una herramienta de movilización selectiva sin contramedida posible, ejecutable a una escala —miles de millones de usuarios— que no admite comparación con ningún medio anterior.
Lo que ya no se discute, y lo que aún se discute
Conviene separar el grano de la paja. Que los recordatorios mueven voto está demostrado desde el experimento de Bond et al. en 2012, replicado en menor escala muchas veces. El trabajo de Epstein de marzo de 2026 cuantifica con más precisión cuánto, en qué condiciones y con qué grado de invisibilidad. Esto es ciencia consolidada, igual que la influencia de Google en los resultados de las elecciones.
Lo que sigue siendo hipótesis, aunque cada vez con más peso, es si las grandes plataformas están usando este poder de manera deliberada y partidista en elecciones reales. Epstein lleva años sosteniendo que sí, con un sistema de monitorización propio que registra experiencias de usuarios voluntarios durante los procesos electorales. Otros investigadores son más cautos: pueden estar haciéndolo, o pueden simplemente tener algoritmos que produzcan ese efecto sin intención consciente. La diferencia importa moral y judicialmente, pero no tanto en términos de impacto.
Lo que es especulación, porque aún no hay datos suficientes, es cuánto de esto se traduce en votos efectivos en cada elección concreta. Una intención de voto no es un voto. Pero las elecciones cerradas —y en España y en Europa cada vez son más cerradas— se deciden por márgenes en los que un empujón del 1 o el 2% es suficiente para invertir el resultado.
Por qué esto nos atañe
Cuando estudio comunicación política en el ámbito municipal y nacional desde hace quince años, lo que veo en cada ciclo electoral es lo mismo: los partidos siguen midiendo su éxito digital por seguidores, engagement, alcance de publicaciones. Métricas de los años diez de este siglo. Mientras tanto, las plataformas en cuyas pantallas viven sus votantes han desarrollado, casi sin oposición, un repertorio de mecanismos —SEME, MEE, MPE, ahora PME— capaces de mover preferencias sin que el votante sea consciente y sin que la plataforma deje rastro auditable.
La pregunta para 2027, cuando se acerquen las próximas grandes citas electorales en España, no es si los partidos sabrán hacer mejores vídeos de TikTok. Es otra, y más incómoda: ¿qué garantía tenemos de que los recordatorios de voto, las sugerencias de búsqueda, los rankings de resultados y los órdenes de los feeds están siendo neutrales? Y, sobre todo: ¿quién tiene autoridad y capacidad técnica para comprobarlo?
A día de hoy, en Europa, la respuesta corta es nadie. El Reglamento de Servicios Digitales obliga a las grandes plataformas a permitir auditorías, pero el contenido efímero —lo que cada usuario ve en su pantalla en cada momento— sigue escapando a la auditoría tradicional. Solo sistemas de monitorización masiva con miles de voluntarios pueden hoy capturarlo. El AIBRT preservó así más de 129 millones de experiencias de usuario durante las presidenciales estadounidenses de 2024.
El experimento de Facebook de 2010 fue inocente: un grupo de científicos curioseando. El recordatorio de 2026 ya no lo es. Es un botón con cifras detrás. Con efecto del 40%. Y con una tasa de detección por parte del usuario del 2,6%.
La democracia, decía Churchill, es el peor sistema de gobierno con la excepción de todos los demás. Lo que está por ver es si sigue siendo democracia cuando la decisión de quién entra a votar la toma silenciosamente un algoritmo que nadie ha elegido.
Referencia del estudio comentado: Epstein R, Newland A, Tang LY, Edmison A. The Platform Messaging Effect (PME): A quantification of how go-vote reminders on social media platforms can influence voting intentions. PLOS One 21(3): e0343692, 2 de marzo de 2026. https://doi.org/10.1371/journal.pone.0343692




