
“Nossos resultados mostram que remover conteúdo ou alterar algoritmos pode ser ineficaz se não mudarmos o que a plataforma foi projetada para fazer; permitir que os membros da comunidade se conectem por interesses comuns e encontrem informações que os motivam procurar.”, resume David Broniatowski, autor principal do estudo “A eficácia das políticas e arquitetura de desinformação sobre vacinas do Facebook durante a pandemia de COVID-19” , desenvolvido por pesquisadores da Universidade George Washington com colaboração de cientistas da Universidade Johns Hopkins.
O estudo publicado na Science Advances é, segundo os autores, a primeira e única avaliação científica da eficácia da tentativa da maior plataforma de redes sociais do mundo de remover sistematicamente a desinformação e as contas desinformadas e chama atenção por diagnosticar que, embora o Facebook tenha feito um esforço significativo para remover muitos conteúdos antivacinas durante a pandemia da COVID-19, o envolvimento geral com conteúdos antivacinas não diminuiu além das tendências anteriores – e, em alguns casos, até aumentou.
“Essa descoberta – de que as pessoas tinham a mesma probabilidade de se envolver com a desinformação sobre vacinas antes e depois dos extensos esforços de remoção do Facebook – é incrivelmente preocupante. Ela mostra a dificuldade que enfrentamos como sociedade em remover a desinformação sobre saúde dos espaços públicos”, diz Lorien Abroms , co-autora e professor de saúde pública na Escola de Saúde Pública na Universidade George Washington.
O problema está na forma e não no conteúdo
O desafio, segundo os pesquisadores, está na arquitetura da plataforma. O Facebook foi projetado para construir comunidades em torno das coisas que interessam às pessoas. Para isso, utiliza diversos recursos arquitetônicos diferentes, incluindo páginas de fãs que promovem marcas e celebridades da comunidade, permitindo que um grupo relativamente pequeno de influenciadores alcance grandes públicos.
Estes influenciadores podem então formar grupos – que são explicitamente concebidos para construir comunidades – onde os membros da comunidade podem trocar informações, incluindo como aceder à desinformação ou a outros conteúdos atraentes fora da plataforma.
Esses membros do grupo , e especialmente os administradores do grupo (que muitas vezes são criadores de conteúdo da página ), podem então fazer uso dos algoritmos de feed de notícias do Facebook para garantir que essas informações estejam disponíveis para aqueles que desejam vê-las.
“Pense na arquitetura do Facebook como um edifício. Um aeroporto é projetado para direcionar as pessoas e leva-las para os portões de maneira fácil e segura. O mesmo ocorre em um estádio, que é projetado para reunir com segurança um grupo de pessoas para um show. Se esses edifícios não fossem projetados para equilibrar viagens e entretenimento com segurança e proteção, as pessoas poderiam se machucar rotineiramente”, diz Broniatowski. “Agora pense na estrutura do Facebook da mesma forma: ele foi projetado para permitir que pessoas motivadas construam comunidades e troquem facilmente informações sobre qualquer assunto”, conclui.
Para o pesquisador, os indivíduos que estão altamente motivados para encontrar e compartilhar conteúdo antivacina estão apenas usando o sistema da maneira como ele foi projetado para ser usado. Mais do que isso, segundo o levantamento os produtores de conteúdos antivacinas utilizaram a plataforma de forma mais eficaz do que os produtores de conteúdos pró-vacinas. Embora ambos tivessem grandes redes de páginas, os produtores de conteúdo antivacina coordenaram de forma mais eficaz a entrega de conteúdo entre páginas, grupos e feeds de notícias dos usuários.
Além disso, os pesquisadores identificaram que após as medidas de controle, o conteúdo antivacina no Facebook tornou-se mais, e não menos, desinformativo, contendo falsas alegações sensacionalistas sobre os efeitos secundários das vacinas que muitas vezes eram demasiado novos para serem verificados em tempo real.
Houve ainda “danos colaterais ” às iniciativas tomadas, uma vez que o conteúdo pró-vacina também pode ter sido removido como resultado das políticas da plataforma e, em geral, o conteúdo relacionado com a vacina tornou-se mais polarizado politicamente.
Como combater a desinformação
O trabalho de Broniatowski sugere que os designers de plataformas de redes sociais poderiam promover saúde e segurança públicas trabalhando em colaboração para desenvolver um conjunto de “códigos construtivos” para as suas plataformas que fossem baseados em evidências científicas, e assim reduzir os danos da desinformação online.
“Os arquitetos, ao projetarem uma construção, precisam equilibrar os objetivos do projeto de um edifício com o cumprimento das regras para proteger as pessoas que os utilizam”, explica ele. “Os edifícios devem ser projetados para promover a segurança pública, cumprindo os códigos de incêndio, inundação, poluição e terremotos. Eles precisam promover a segurança incorporando recursos de design, como entradas, saídas e catracas acessíveis e bem sinalizadas para evitar vandalismo, pânico , terrorismo e motins. Eles têm que promover a saúde pública, cumprindo os códigos de encanamento, saneamento e ventilação, e devem ser projetados para respeitar os códigos municipais, como ruído e outras leis sobre incômodos.”
Segundo ele, essas regras são geralmente desenvolvidas por uma parceria entre a indústria, o governo e organizações sociais, e são informadas por ciência e práticas sólidas. Assim, o mesmo poderia ser feito na construção de redes sociais.