Meta ha corregido el error que hacía que los usuarios creyeran que la empresa había ajustado sus selecciones en una herramienta de configuración de contenido político sin su consentimiento. El problema había afectado a los usuarios tanto de Instagram como de Threads, y aparentemente restablecía la configuración de contenido de los usuarios a los valores predeterminados, lo que limita la cantidad de contenido político que los usuarios ven de personas a las que no siguen.
El miércoles, Meta confirmó que estaba investigando el problema y trabajando para solucionarlo.
Más tarde el miércoles por la noche, el director de Meta Communication, Andy Stone Anunciado en una publicación de Threads que el problema se había resuelto. También compartió más información sobre la naturaleza del error, diciendo que Meta no había cambiado la configuración del contenido político de las personas en el back-end, solo parecía haberlo hecho. Esto hizo que pareciera que las selecciones de las personas se habían restablecido en la configuración, “aunque en realidad no se había realizado ningún cambio”, escribió Stone en Threads.
La compañía no compartió más información sobre cómo surgió el error en primer lugar, pero Stone alentó a los usuarios a verificar para asegurarse de que su configuración ahora refleje sus preferencias.
Puede hacerlo desde la Configuración de Instagram, donde se desplazará hacia abajo hasta “Preferencias de contenido” y luego seleccionará “Contenido político”. Desde aquí, puedes elegir si deseas limitar o no el contenido político de las personas que sigues. La configuración afecta las sugerencias que aparecen en Explorar, Carretes, Recomendaciones de feeds y Usuarios sugeridos, explica la página, y también se aplica a los Temas.
El hecho de que Meta tenga incluso una configuración de contenido político demuestra el poder de las aplicaciones sociales impulsadas por algoritmos, donde el contenido se muestra en función de muchos factores, en lugar de ser simplemente un feed cronológico inverso de personas que los usuarios han optado por seguir. Otras empresas emergentes como Bluesky y otras redes federadas están buscando nuevos modelos para la forma en que se debe moderar o bloquear el contenido en las plataformas sociales. Bluesky, por ejemplo, permite a los usuarios crear sus propios feeds y suscribirse a servicios de moderación. Sin embargo, la aplicación 5,9 millones y más La base de usuarios no es tan grande como los 170 millones de usuarios activos mensuales de Threads o los de Instagram. Más de 2 mil millones de usuarios mensuales.
El nuevo control se anunció por primera vez a principios de este año y sirve como una forma de desvincular a Meta de la culpa en lo que respecta al poder que tienen sus aplicaciones para influir en las personas, algo de lo que Meta no quería ser acusada en el período previo a las elecciones estadounidenses.
La medida no sorprende, dado que el gigante tecnológico ha enfrentado críticas de ambos lados del espectro político estadounidense, habiendo sido acusado por los republicanos de censurar la libertad de expresión y por los demócratas de ser demasiado blando con la información errónea y la desinformación. Solo unas semanas después del lanzamiento de su competidor X, Threads, el presidente del Comité Judicial de la Cámara de Representantes, Jim Jordan (republicano por Ohio), escribió al director ejecutivo de Meta, Mark Zuckerberg, con preguntas sobre las políticas de moderación de contenido de la aplicación.
Más tarde, Meta anunció que ya no recomendaría contenido político de forma “proactiva”, lo que provocó una reacción negativa por parte de los creadores.
Afortunadamente, para quienes usan Instagram y Threads, el error se solucionó antes del primer debate presidencial de Trump y Biden el jueves por la noche.