Ante señalamientos de amplificar discursos de odio, desinformación y polarización, Facebook lanzó una serie de herramientas que ayudarán a los usuarios a combatir la toxicidad en la red social gestionando mejor su feed.
Estas nuevas opciones de Facebook permiten que la gente pueda definir quién comenta en los diferentes posts que se suben en su cuenta, bloqueando sólo a ciertos usuarios o eliminando la posibilidad de la publicación sea objeto de cualquier clase de respuesta.
Asimismo, Facebook liberó una “barra de filtro” la cual le da a las personas la posibilidad de cambiar la clasificación de los algoritmos de su feed (que eliminaría algunas publicaciones indeseables), además de dar la posibilidad de mostrar el contenido más actual y no el que la red social considere más relevante.
Desde hace tiempo Facebook está lidiando con la toxicidad y polarización entre sus usuarios; sin embargo, el tema se volvió más relevante a raíz de la pandemia de Covid-19, por todas las noticias falsas y posturas extremas surgieron a raíz del tema.
Dadas las normas de control un tanto laxas que maneja Facebook, muchos señalaron que este tipo de actitudes eran permitidas de manera deliberada por la red social; sin embargo, la empresa ha declarado que eso está lejos de la realidad.
Nick Clegg, vicepresidente de Asuntos Globales de Facebook, señaló que la compañía no tiene interés en las publicaciones incendiarias, mucho menos que estas se vuelvan virales, pues no les conviene en términos de reputación ni económicamente hablando.
Esto debido a que gran parte de los ingresos de Facebook se obtienen a través de la publicidad que se puede ver en todo el servicio, las marcas no querrán verse ligadas a una estructura que permita la exposición de contenido extremista; además consideran que sus usuarios no quieren ser empujados a ese aspecto.
Con información de Reuters.