Breaking News :

Facebook oculta los datos de desinformación más importantes

Los documentos internos filtrados sugieren que Facebook, que recientemente se renombró como Meta, es haciendo mucho peor de lo que dice para minimizar la información errónea sobre la vacuna COVID-19 en la plataforma de redes sociales de Facebook.

La información errónea en línea sobre el coronavirus y las vacunas es una gran preocupación. En un estudio, los encuestados que recibieron algunas o todas sus noticias de Facebook fueron significativamente más probabilidades de resistir la vacuna COVID-19s que aquellos que recibieron sus noticias de los principales medios de comunicación.

Como investigador que estudia medios sociales y cívicosCreo que comprender cómo se propaga la información errónea en línea es fundamental. Pero esto es más fácil decirlo que hacerlo. El simple hecho de contar los casos de información errónea que se encuentran en una plataforma de redes sociales deja dos preguntas clave sin respuesta: ¿Qué posibilidades hay de que los usuarios encuentren información errónea y es probable que ciertos usuarios se vean especialmente afectados por la información errónea? Estas preguntas son el problema del denominador y el problema de la distribución.

El estudio de desinformación COVID-19 “Algoritmo de Facebook: una gran amenaza para la salud pública, ”Publicado por el grupo de defensa del interés público Avaaz en agosto de 2020, informó que las fuentes que frecuentemente compartían información errónea sobre la salud (82 sitios web y 42 páginas de Facebook) tenían un alcance total estimado de 3.800 millones de visitas en un año.

A primera vista, es un número asombrosamente grande. Pero es importante recordar que este es el numerador. Para comprender lo que significan 3.800 millones de visitas en un año, también debe calcular el denominador. El numerador es la parte de una fracción por encima de la línea, que se divide por la parte de la fracción por debajo de la línea, el denominador.


Un posible denominador es 2.9 mil millones de usuarios activos mensuales de Facebook, en cuyo caso, en promedio, cada usuario de Facebook ha estado expuesto a al menos una pieza de información de estas fuentes de información errónea sobre la salud. Pero el numerador es 3.8 mil millones vistas de contenido, no usuarios discretos. ¿Cuántas piezas de información encuentra el usuario medio de Facebook en un año? Meta no divulga esa información.

Los investigadores de mercado estiman que los usuarios de Facebook gastan 19 a 38 minutos al día en la plataforma. Si el 1,93 mil millones de usuarios activos diarios de Facebook ven un promedio de 10 publicaciones en sus sesiones diarias, una estimación muy conservadora, el denominador de esos 3.800 millones de piezas de información al año es 7.044 billones (1.93 billones de usuarios diarios multiplicado por 10 publicaciones diarias multiplicado por 365 días en un año). Esto significa que aproximadamente el 0,05 por ciento del contenido de Facebook consiste en publicaciones compartidas por páginas sospechosas de Facebook.

La cifra de 3.800 millones de visitas abarca todo el contenido publicado en estas páginas, incluido el contenido de salud inofensivo, por lo que la proporción de publicaciones de Facebook que son información errónea sobre la salud es menor que un 20%.

¿Es preocupante que haya suficiente información errónea en Facebook como para que todos hayan encontrado al menos una instancia? ¿O es tranquilizador que el 99,95 por ciento de lo que se comparte en Facebook no provenga de los sitios sobre los que advierte Avaaz? Ninguno de los dos.


Además de estimar un denominador, es importante considerar la distribución de esta información. ¿Es igualmente probable que todos en Facebook encuentren información errónea sobre la salud? ¿O es más probable que las personas que se identifican como anti-vacunas o que buscan información de “salud alternativa” encuentren este tipo de información errónea?

Otro estudio de redes sociales que se centra en el contenido extremista de YouTube ofrece un método para comprender la distribución de información errónea. Usando datos del navegador de 915 usuarios web, un equipo de la Liga Anti-Difamación reclutó una muestra grande y demográficamente diversa de usuarios web de EE. UU. y realizó un muestreo excesivo de dos grupos: usuarios habituales de YouTube e individuos que mostraban fuertes prejuicios raciales o de género negativos en una serie de preguntas formuladas por los investigadores. Sobremuestreo está encuestando un pequeño subconjunto de una población más que su proporción de la población para registrar mejor los datos sobre el subconjunto.

Los investigadores encontraron que el 9.2 por ciento de los participantes vio al menos un video de un canal extremista, y el 22.1 por ciento vio al menos un video de un canal alternativo, durante los meses cubiertos por el estudio. Una parte importante del contexto a tener en cuenta: un pequeño grupo de personas fue responsable de la mayoría de las visualizaciones de estos videos. Y más del 90 por ciento de las vistas de videos extremistas o “alternativos” fueron de personas que informaron un alto nivel de resentimiento racial o de género en la encuesta previa al estudio.

Aunque aproximadamente una de cada 10 personas encontró contenido extremista en YouTube y dos de cada 10 encontraron contenido de provocadores de derecha, la mayoría de las personas que encontraron tal contenido “rebotaron” y se fueron a otra parte. El grupo que encontró contenido extremista y buscó más fueron personas que presumiblemente tenían un interés: personas con fuertes actitudes racistas y sexistas.

Los autores concluyeron que “el consumo de este contenido potencialmente dañino se concentra en cambio entre los estadounidenses que ya tienen un alto resentimiento racial”, y que los algoritmos de YouTube pueden reforzar este patrón. En otras palabras, el simple hecho de conocer la fracción de usuarios que encuentran contenido extremo no le dice cuántas personas lo consumen. Para eso, también necesita conocer la distribución.


Un estudio ampliamente publicitado del grupo de defensa contra el discurso de odio Center for Counter Digital Hate titulado “Especuladores de la pandemia”Mostró que de los 30 grupos de Facebook antivacunas examinados, 12 celebridades antivacunas eran responsables del 70 por ciento del contenido circulado en estos grupos, y los tres más destacados eran responsables de casi la mitad. Pero, nuevamente, es crucial preguntar acerca de los denominadores: ¿cuántos grupos anti-vacunas están alojados en Facebook? ¿Y qué porcentaje de usuarios de Facebook encuentran el tipo de información compartida en estos grupos?

Sin información sobre denominadores y distribución, el estudio revela algo interesante sobre estos 30 grupos de Facebook anti-vacunas, pero nada sobre la desinformación médica en Facebook en su conjunto.

Este tipo de estudios plantea la pregunta: “Si los investigadores pueden encontrar este contenido, ¿por qué las plataformas de redes sociales no pueden identificarlo y eliminarlo?” El estudio “Pandemic Profiteers”, que implica que Facebook podría resolver el 70 por ciento del problema de la desinformación médica eliminando solo una docena de cuentas, aboga explícitamente por la desnaturalizando de estos traficantes de desinformación. Sin embargo, descubrí que, a fines de agosto, Facebook ya eliminó de la plataforma a 10 de los 12 influencers anti-vacunas que aparecen en el estudio.

Considere a Del Bigtree, uno de los cuatro difusores más destacados de desinformación sobre vacunación en Facebook. El problema no es que Bigtree esté reclutando nuevos seguidores anti-vacunas en Facebook; es que los usuarios de Facebook siguen a Bigtree en otros sitios web y llevan su contenido a sus comunidades de Facebook. No son 12 personas y grupos que publican información errónea sobre salud en línea; es probable que miles de usuarios individuales de Facebook compartan información errónea, con estas docenas de personas, que se encuentran en otras partes de la web. Es mucho más difícil prohibir a miles de usuarios de Facebook que prohibir a 12 celebridades anti-vacunas.

Es por eso que las preguntas sobre el denominador y la distribución son esenciales para comprender la desinformación en línea. El denominador y la distribución permiten a los investigadores preguntar qué tan comunes o raros son los comportamientos en línea y quién participa en esos comportamientos. Si millones de usuarios se encuentran cada uno con fragmentos ocasionales de información médica errónea, etiquetas de advertencia podría ser una intervención eficaz. Pero si la desinformación médica es consumida principalmente por un grupo más pequeño que busca y comparte activamente este contenido, es muy probable que esas etiquetas de advertencia sean inútiles.


Tratar de entender la desinformación contando, sin considerar denominadores ni distribución, es lo que sucede cuando las buenas intenciones chocan con las malas herramientas. Ninguna plataforma de redes sociales permite a los investigadores calcular con precisión qué tan prominente es una pieza de contenido en particular en su plataforma.

Facebook restringe a la mayoría de los investigadores a sus Crowdtangle herramienta, que comparte información sobre la participación en el contenido, pero no es lo mismo que las vistas de contenido. Twitter prohíbe explícitamente a los investigadores a partir del cálculo de un denominador, ya sea la cantidad de usuarios de Twitter o la cantidad de tweets compartidos en un día. YouTube hace que sea tan difícil averiguar cuántos videos están alojados en su servicio que Google solicita rutinariamente a los candidatos a entrevistar estimar la cantidad de videos de YouTube alojados para evaluar sus habilidades cuantitativas.

Los líderes de las plataformas de redes sociales han argumentado que sus herramientas, a pesar de sus problemas, son buenos para la sociedad, pero este argumento sería más convincente si los investigadores pudieran verificar independientemente esa afirmación.

A medida que los impactos sociales de las redes sociales se vuelven más prominentes, es probable que aumente la presión sobre las plataformas de Big Tech para que publiquen más datos sobre sus usuarios y su contenido. Si esas empresas responden aumentando la cantidad de información a la que pueden acceder los investigadores, fíjense muy de cerca: ¿Permitirán que los investigadores estudien el denominador y la distribución del contenido en línea? Y si no es así, ¿tienen miedo de lo que encontrarán los investigadores?


Esta publicación aparece por cortesía de La conversación.

Exit mobile version