Redes Sociais
27.10.2021
POR DENTRO DO FACEBOOK
A “alma” do Facebook está exposta em revelações feitas há alguns dias por vários jornais internacionais, a partir de audiências no Congresso americano e no Parlamento britânico. E o que já apareceu é estarrecedor. O que determina o que, como e quanto lê um usuário do Facebook depende de um algoritmo flexível e moldável. Se ele estiver preparado para prestigiar as postagens que irritaram mais os leitores, em detrimento dos neutros likes, o Facebook será um fluxo constante em prol de violência. Em 2017, a constatação de que os emojis emotivos e provocativos aumentavam a audiência, e a maior audiência significa mais lucros, o algoritmo deu a eles um peso maior. No início, a carinha de raiva valia cinco vezes mais que o dedão de positivo.
Quanto mais uma postagem irritava ou provocava os usuários do Facebook, mais era repetida, e o conjunto deles determinava a sequência que cada um recebia em sua página pessoal. Fácil imaginar as consequências. Fakenews ganhavam proeminência. O ódio, premiado. Leitores se engajavam mais com postagens raivosas — e o engajamento sempre foi a alma do negócio nas redes sociais.
Escrevi “engajavam” e “aumentavam” porque o algoritmo muda constantemente. Hoje, o Facebook sob ataque, a carinha nervosa e o like estariam com o mesmo peso, segundo algumas informações. Mas vai saber… Como escrevo no Facebook, visito uma página que me dá um feedback, chamado “insight”. É de espantar a quantidade de detalhes captados pelo algoritmo. Quantos se engajaram no meu fluxo de notas. Quanto tempo em média ficaram lendo. Vieram de onde? Do Twitter? Do Instagram? Posso também receber ajuda para atrair mais leitores. Posso turbinar um post, pagando, e escolher quantos poderei atingir. Enfim, um mundo de escolhas, dentro de um mundo selecionado pelo algoritmo, que é determinado por um grupo chamados de “cientistas” dentro do Facebook. E pensar que já fui censurado por postar um índio nu. Hipocrisia.
O jornal Washington Post desta terça-feira comenta: “O poder da promoção algorítmica minou os esforços dos moderadores de conteúdo do Facebook e equipes de integridade, que estavam lutando uma batalha difícil contra conteúdo tóxico e prejudicial.”
E mais: “O debate interno sobre o emoji irritado e as descobertas sobre seus efeitos lançaram luz sobre os julgamentos humanos altamente subjetivos que estão por trás do algoritmo de feed de notícias do Facebook — o software bizantino de aprendizagem de máquina que decide para bilhões de pessoas que tipos de posts eles verão cada vez que abrem o aplicativo.”