¿Debería Facebook permitir que los usuarios definan noticias falsas?

Mark Zuckerberg ha asumido durante mucho tiempo la tarea de convertirse en enemigo de las “noticias falsas”. Aparte del hecho de que una parte decente de la población de EE. UU. Tiene su propia definición del concepto que contradice lo que cree otra parte (esto se conoce como politización de los medios), también está el hecho de que Facebook mismo ha tenido su parte de problemas. intentando definir qué es exactamente o no una noticia falsa. Ahora que Zuckerberg está considerando permitir que los usuarios de Facebook tomen esta determinación a través de una serie de encuestas, es hora de explorar la idea en profundidad y considerar las posibles trampas de esta estrategia.

¿Por qué dejar que los usuarios lo hagan?

Es difícil para una empresa como Facebook, con millones de publicaciones que aparecen cada hora en su sitio web, contratar personal suficiente para revisar todo el contenido de su sitio y determinar qué fuentes no son lo suficientemente confiables como para obtener una estrella de oro de aprobación. . Requeriría un esfuerzo continuo masivo que nunca terminará.

Entonces, una de las primeras soluciones a este problema que me viene a la mente es el uso de aprendizaje automático y varios algoritmos para automatizar el proceso. Este método, aunque menos costoso, puede ser contraproducente porque el aprendizaje automático aún no está lo suficientemente avanzado como para predecir de manera confiable si una historia informará cosas veraces o no.

Quizás la implementación más exitosa de la “detección de noticias falsas” fue cuando Facebook comenzó a recopilar datos de verificadores de datos de terceros para etiquetar ciertas publicaciones como “disputadas”. Esto, por supuesto, solo hizo que los usuarios fueran más propensos a hacer clic en las historias que aparecían con una bandera roja a su lado.

En 2018, Adam Mosseri, director de News Feed de Facebook, anunció que la red social está experimentando con encuestas , preguntando a los propios usuarios qué consideran de confianza.

Aquí es donde radica el problema: no sabemos cómo seleccionaron el grupo de muestra para los participantes en la encuesta.

Sesgo de confirmación de la mayoría

Hay un viejo adagio que es muy relevante aquí: “ Lo que es correcto no siempre es popular y lo que es popular no siempre es correcto.

Si puedes lograr que 299 de 300 personas estén de acuerdo en que Europa no existe, el continente no desaparecerá simplemente por eso. La mayoría de la gente confiará en una fuente de noticias sobre otra, y esa fuente puede no ser la más confiable, pero ciertamente resuena con lo que la mayoría de la población  desea que sea verdad.

Al contar una historia, la revisión por pares y el empirismo no se aplican. Estas son solo observaciones hechas por alguien que vuelve a contar la historia (en última instancia) desde su propia perspectiva, que estará contaminada con al menos una pequeña cantidad de sesgo porque somos seres humanos.

También debemos tener en cuenta que los usuarios de Facebook normalmente publican noticias para  demostrar un punto , no necesariamente para transmitir información de forma mecánica.

El punto aquí es que encuestar a las personas para determinar qué son o no noticias falsas podría no ser la mejor idea porque la única conclusión verdadera que podemos sacar de esos datos es si una fuente de noticias es popular o no.

Por otra parte…

El propósito de la encuesta era determinar lo que los usuarios encuentran familiar y confiable, y Facebook dice que los datos “ayudarán a informar la clasificación en News Feed”. Esto suena menos a que la compañía está tratando de evitar que ciertas noticias aparezcan en los feeds de las personas y más a que están tratando de mostrar una clasificación basada en lo que la mayoría de la gente encuentra confiable.

Una clasificación baja le mostraría que la mayoría de las personas no confían en lo que está viendo en sus noticias.

Sin embargo, todavía debemos mostrar cierta preocupación por el hecho de que no tenemos ni idea de los criterios de selección de los participantes de la encuesta. Facebook solo dijo que la muestra era “diversa y representativa”.

Al final, es la naturaleza humana ser subjetivo y exhibir un sesgo. Ninguna tecnología o sistema legal en este planeta puede detener eso, especialmente porque los seres humanos mismos participan en la creación de ambos.

¿Crees que alguna vez encontraremos una solución a las noticias falsas, o esto es solo parte de tener una conexión a Internet en estos días? ¡Cuéntanos tu opinión en un comentario!

¡Si te ha gustado vota con 5 Estrellas!
(Votos: 0 Promedio: 0)

Escribe Aquí Tu Comentario