por Juliana Rocha Franco
[Abstract]:
“It is well known that the idea that Facebook’s algorithm promotes filter bubbles. However, a study conducted by the University of Michigan and published in the Science journal showed how the user interferes with the way the algorithm behaves. According to the study, the order in which users view stories in the News Feed depends on many factors, including how often the viewer visits Facebook; how much they interact with certain friends, and how often users clicked on links to certain Sites in the News Feed. If the algorithms are not the most important element in filtering the content, why would embubblement happen? Our hypothesis is that certain modes of fixation of belief, as pointed out by the American philosopher Charles Peirce, stimulates the creation of bubbles, due to the cognitive inclination they promote and lead to preferring situations where the beliefs will be confirmed, thus avoiding the state of doubt.”
É já lugar comum afirmar que sites e serviços de redes sociais e ferramentas de busca nos oferecem uma visão personalizada criada através de algoritmos de empresas de tecnologia. Quando você faz uma pesquisa no Google, por exemplo, os resultados obtidos serão diferentes, dependendo do que a empresa conheça sobre você. Na maior parte do tempo, essa filtragem é útil: botânicos e cozinheiros obtêm resultados de pesquisa muito diferentes para a palavra “manga”, por exemplo.
No livro O filtro invisível, Eli Pariser (2012) utiliza o termo bolha para se referir aos algoritmos utilizados, por exemplo, pelo Facebook para filtrar e classificar as postagens que aparecem em cada timeline. Nesse caso, o que é chamado de bolha é proporcionado pelos filtros invisíveis do conteúdo que nos chega: “Mecanismos criam e refinam constantemente uma teoria sobre quem somos e sobre o que vamos fazer ou desejar seguir” (Pariser, 2012, p. 14). Continuar lendo