O design central do Facebook sabotou os esforços do gigante da mídia social para combater a desinformação que abunda na plataforma, disseram cientistas que analisam suas políticas de desinformação.
A arquitetura da plataforma recuou mesmo quando o Facebook ajustou seus algoritmos e removeu conteúdo e contas para combater a desinformação sobre vacinas, descobriram os pesquisadores da Universidade George Washington, nos EUA.
Não foi observada nenhuma redução no envolvimento com conteúdo antivacina, apesar do esforço significativo do Facebook para remover muitos desses conteúdos durante a pandemia de COVID-19, disse o estudo publicado na revista Science Advances.
Os cientistas dizem que estas consequências resultaram do que a plataforma foi concebida para fazer – permitir que os membros da comunidade se liguem em torno de interesses comuns, que incluem persuasões pró e antivacinas.
“(O Facebook) foi projetado para permitir que pessoas motivadas construam comunidades e troquem facilmente informações sobre qualquer assunto”, disse David Broniatowski, autor principal do estudo e professor associado de gerenciamento de engenharia e engenharia de sistemas.
“Indivíduos altamente motivados para encontrar e partilhar conteúdos antivacinas estão apenas a utilizar o sistema da forma como foi concebido para ser utilizado, o que torna difícil equilibrar esses comportamentos com a saúde pública ou outras preocupações de segurança pública”, disse Broniatowski.
No restante conteúdo antivacina não removido das redes sociais, os links para sites fora da plataforma, de baixa credibilidade e plataformas de redes sociais “alternativas” aumentaram em número, disseram os pesquisadores.
Este conteúdo restante também se tornou mais desinformativo, contendo falsas alegações sensacionalistas sobre os efeitos secundários das vacinas que muitas vezes eram demasiado novos para serem verificados em tempo real, descobriram.
Além disso, descobriu-se que os produtores de conteúdos antivacinas eram mais eficientes no aproveitamento da plataforma do que os produtores de conteúdos pró-vacinas, uma vez que coordenavam eficazmente a entrega de conteúdos através de páginas, grupos e feeds de notícias dos utilizadores, embora ambos os grupos tivessem grandes redes de páginas.
“Danos colaterais” na forma de remoção de algum conteúdo pró-vacina como resultado das políticas da plataforma e do discurso geral relacionado à vacina tornando-se politicamente carregado e polarizado também poderiam ter contribuído, disse o estudo.
Broniatowski destacou que a discussão sobre plataformas de mídia social e governança de inteligência artificial gira em grande parte em torno de conteúdo ou algoritmos.
“Para combater eficazmente a desinformação e outros danos online, precisamos de ir além do conteúdo e dos algoritmos para nos concentrarmos também no design e na arquitetura.
“Remover conteúdo ou alterar algoritmos pode ser ineficaz se não mudar o que a plataforma foi projetada para fazer. Você tem que mudar a arquitetura se quiser equilibrar (comportamentos antivacinas e preocupações de saúde pública)”, disse Broniatowski.
Os designers de plataformas de redes sociais poderiam desenvolver um conjunto de “códigos de construção” para as suas plataformas, baseados em evidências científicas, para reduzir os danos online e garantir a proteção dos utilizadores, disseram os investigadores.