Manipulações ideológicas do Facebook: muito além da omissão

Rafael Evangelista - Publicado no Outras Palavras

Pesquisadores desmentem alegações da rede de Zuckerberg e afirmam: 
ela estimula bolhas de opinião que excluem pensamentos diversos



Na quinta, dia 07/05, pesquisadores do Facebook publicaram um artigo na revista Science analisando os efeitos de seu polêmico algoritmo de seleção, aquele pedaço de código que roda nas redes sociais e seleciona os amigos cujas publicações você vê ou não, quais aparecem primeiro e mais frequentemente e quais vão lá pra baixo da tela. Outros pesquisadores rapidamente apelidaram o artigo de “não é minha culpa”, dado o viés complicado na análise dos dados coletados. A conclusão principal do estudo é, basicamente, que a razão de vermos na nossa linha do tempo textos cuja tendência política é mais parecida com a nossa deriva de seleções feitas por nós mesmos. Quanto mais diversos ideologicamente os nossos amigos, mais conteúdo diverso receberíamos. O Facebook só apimentaria um pouco isso, fazendo uma retirada, em tese mínima, do que é diverso. Entre 5 a 10% do que não se alinha à visão política do usuário é omitido pelo sistema.

Os portais e jornais brasileiros rapidamente repetiram a fala oficial, provavelmente seguindo algum release.

Mas, como mostra, Zeynep Tufecki, socióloga ligada ao Berkman Center, de Harvard, o estudo tem coisas bem mais interessantes escondidas. Coisas inclusive que complicam bastante as conclusões contidas no artigo original. (Além de Tufeck muitos outros pesquisadores comentaram o artigo, o texto dela é um bom ponto de partida para outros links).

Em primeiro lugar, a amostra usada para o estudo é problemática. Foram tomados dados de um pequeno subgrupo de usuários, aqueles que se auto-identificam como liberais ou conservadores (o que na língua política brasileira corresponde mais ou menos a esquerda e direita, respectivamente). Ora, presume-se que esses que se auto-identificam claramente são mais propensos a criarem uma bolha informativa em torno de si, estão politicamente bem definidos.

Além disso, o estudo meio que esconde coisas bem interessantes – que ficam fora também do release. Uma delas é que há uma brutal variação entre a probabilidade de um link ser clicado se ele está disposto no topo da página ou lá embaixo. Ou seja, o Facebook não precisa sumir com um determinado link, basta dispô-lo no fim da linha do tempo (que “do tempo” não tem mais nada) que a chance de ser realmente visto será menor. Por exemplo, um link tem 20% de chance de ser clicado, por um conservador, se estiver no topo da página. Esse número cai para menos de 10% se estiver na décima posição e e vai a quase 5% se, além de estar em décimo, não for ideologicamente alinhado a esse leitor.

A supressão automática de posições políticas diversas à nossa, somada às regras utilizadas para o ordenamento das postagens são dois elementos que se complementam e não podem ser analisados em separado.

O fato de que evitamos de ler algo que não está politicamente alinhado a nossa visão de mundo não é exatamente uma novidade. É por isso que, idealmente, deveria haver uma variedade ideológica entre os meios de comunicação, refletindo os diferentes setores da sociedade.

O elemento novo trazido pelos algoritmos das redes sociais é que essa escolha não é mais transparente, não se trata mais de comprar o jornal A ou B, ou ver a TV B ou C. Os próprios pesquisadores, que são do Facebook e têm acesso aos códigos que rodam lá, não fizeram uma análise do algoritmo, do código, para mostrar seus efeitos. Eles trabalharam com a interação entre usuários e código, tentando ver o que emerge dali. O algoritmo em si mostra pouco, seria como tentar entender o futebol apenas lendo as regras do jogo.

Isso indica que a análise do consumo de notícias tem um problema técnico e de difícil compreensão pela frente. Um problema que envolve poder e que é agravado pela centralização da distribuição das notícias em poucas redes sociais, cuja propriedade é privada. Mais complicado ainda, em sua análise, para quem nem pode ler as regras, como nós. Um abacaxizão cibernético.

——

Nesta semana, entre os dias 13 e 15 de maio, acontece no Rio de Janeiro o III Simpósio Lavits, encontro da Rede Latino Americana de Estudos sobre Vigilância, Tecnologia e Sociedade. Em pauta estarão assuntos diversos como redes sociais e big data, criptografia, drones, o mundo pós Snowden, entre outros. É gratuito e aberto, com o objetivo de conectar o que há de mais novo na pesquisa com a sociedade e os movimentos sociais. Mais detalhes no link http://lavitsrio2015.medialabufrj.net/

Comentários

Mais Lidas

O que a mídia de celebridades faz com Anitta deveria ser crime

Guru de Marina disse que é preciso aumentar a carne e o leite

A parcialidade é o menor dos problemas da mídia golpista. Por Léo Mendes