Un par de estudios publicados el jueves en la revista Science ofrecen evidencia no sólo de que la información errónea en las redes sociales cambia de opinión, sino también de que un pequeño grupo de “supercompartidores” comprometidos, predominantemente mujeres republicanas mayores, fueron responsables de la gran mayoría de las “noticias falsas”. en el período analizado.
Los estudios, realizados por investigadores del MIT, la Universidad Ben-Gurion, Cambridge y Northeastern, se realizaron de forma independiente pero se complementan bien entre sí.
En el estudio del MIT Dirigidos por Jennifer Allen, los investigadores señalan que a menudo se ha culpado a la información errónea por las dudas sobre las vacunas en 2020 y más allá, pero que el fenómeno sigue estando mal documentado. Y es comprensible: los datos del mundo de las redes sociales no sólo son inmensos y complejos, sino que las empresas involucradas se muestran reticentes a participar en estudios que puedan presentarlos como el principal vector de desinformación y otras guerras de datos. Pocos dudan de que lo sean, pero eso no es lo mismo que una verificación científica.
El estudio muestra en primer lugar que la exposición a información errónea sobre las vacunas (en 2021 y 2022, cuando los investigadores recopilaron sus datos), en particular cualquier cosa que afirme un efecto negativo para la salud, de hecho reduce la intención de las personas de vacunarse. (Y la intención, según muestran estudios anteriores, se correlaciona con la vacunación real).
En segundo lugar, el estudio demostró que los artículos marcados por los moderadores en ese momento como información errónea tenían un mayor efecto sobre las dudas sobre las vacunas que el contenido no marcado, así que, bien hecho, marcar. Excepto por el hecho de que el volumen de información errónea no denunciada era muchísimo mayor que el material señalado. Entonces, aunque tuvo un efecto menor por pieza, su influencia general probablemente fue mucho mayor en conjunto.
Este tipo de información errónea, aclararon, se parecía más a los grandes medios de comunicación que publicaban información engañosa que caracterizaba erróneamente riesgos o estudios. Por ejemplo, ¿quién recuerda el titular “Un médico sano murió dos semanas después de recibir la vacuna COVID; Los CDC están investigando por qué” del Chicago Tribune. Como señalan los comentaristas de la revista, no había pruebas de que la vacuna tuviera algo que ver con su muerte. Sin embargo, a pesar de ser muy engañoso, no se marcó como información errónea y, posteriormente, el titular fue visto unos 55 millones de veces, seis veces más personas que el número total de personas que vieron todos los materiales marcados.
“Esto entra en conflicto con la sabiduría popular de que las noticias falsas en Facebook fueron responsables de la baja aceptación de las vacunas en Estados Unidos”, dijo Allen a TechCrunch. “Podría darse el caso de que el uso de Facebook esté correlacionado con una menor aceptación de vacunas (como han descubierto otras investigaciones), pero podría ser que sea este contenido de ‘área gris’ el que impulse el efecto, no las cosas extravagantemente falsas”.
El hallazgo, entonces, es que si bien reprimir información descaradamente falsa es útil y está justificado, terminó siendo solo una pequeña gota en el cubo del fárrago tóxico en el que nadaban los usuarios de las redes sociales.
¿Y quiénes eran los nadadores que más difundían esa información errónea? Es una pregunta natural, pero está más allá del alcance del estudio de Allen.
En el segundo estudio Publicado el jueves, un grupo multiuniversitario llegó a la sorprendente conclusión de que 2.107 votantes estadounidenses registrados representaron la difusión del 80% de las “noticias falsas” (término que adoptan) durante las elecciones de 2020.
Es una afirmación amplia, pero el estudio recortó los datos de manera bastante convincente. Los investigadores observaron la actividad de 664.391 votantes emparejados con usuarios activos de X (luego Twitter) y encontraron un subconjunto de ellos que estaban enormemente sobrerrepresentados en términos de difusión de información falsa y engañosa.
Estos 2.107 usuarios ejercieron (con ayuda algorítmica) un efecto de red enormemente descomunal al promover y compartir enlaces a noticias falsas con sabor político. Los datos muestran que 1 de cada 20 votantes estadounidenses siguió a uno de estos supercompartidores, colocándolos enormemente por delante de los usuarios promedio a su alcance. En un día determinado, alrededor del 7% de todas las noticias políticas estaban vinculadas a sitios de noticias engañosos, pero el 80% de esos vínculos procedían de estas pocas personas. También era mucho más probable que las personas interactuaran con sus publicaciones.
Sin embargo, no se trataba de plantas patrocinadas por el estado ni de granjas de robots. “El volumen masivo de Supersharers no parecía automatizado, sino que se generaba mediante retuiteos manuales y persistentes”, escribieron los investigadores. (El coautor Nir Grinberg me aclaró que “no podemos estar 100% seguros de que los supercompartidores no sean títeres, pero al usar herramientas de detección de bots de última generación, analizar patrones temporales y el uso de aplicaciones, no parecen automatizados. ”)
Compararon a los supercompartidores con otros dos grupos de usuarios: un muestreo aleatorio y los que más comparten noticias políticas no falsas. Descubrieron que estos vendedores de noticias falsos tienden a encajar en un grupo demográfico particular: mayores, mujeres, blancos y abrumadoramente republicanos.
![](https://techcrunch.com/wp-content/uploads/2024/05/sharers-figure.png?w=680)
Los supercompartidores eran sólo un 60% de mujeres en comparación con la división equitativa del panel, y significativamente, aunque no mucho, más propensos a ser blancos en comparación con el grupo, que ya era mayoritariamente blanco en general. Pero eran mucho mayores (58 en promedio versus 41 en total) y alrededor del 65% eran republicanos, en comparación con alrededor del 28% en la población de Twitter en ese momento.
Los datos demográficos son ciertamente reveladores, aunque hay que tener en cuenta que ni siquiera una mayoría grande y muy significativa lo es todo. Millones, no 2.107, retuitearon ese artículo del Chicago Tribune. E incluso los supercompartidores, el artículo de comentario de ciencia señala, “son diversos, incluidos expertos políticos, personalidades de los medios, contrarios y antivacunas con motivos personales, financieros y políticos para difundir contenido no confiable”. Que no es justo mujeres mayores en estados rojos, aunque ocupan un lugar destacado. Muy destacado.
Como Baribi-Bartov et al. Concluye sombríamente: “Estos hallazgos resaltan la vulnerabilidad de las redes sociales para la democracia, donde un pequeño grupo de personas distorsiona la realidad política para muchos”.
Uno recuerda el famoso dicho de Margaret Mead: “Nunca dudes de que un pequeño grupo de ciudadanos reflexivos y comprometidos puede cambiar el mundo. De hecho, es lo único que lo ha hecho”. De alguna manera dudo que esto sea lo que ella tenía en mente.