EL PAÍS

Expulsar líderes tóxicos das mídias sociais reduz a propagação do ódio online

Tecnologia

Controlar o discurso de ódio na internet é um dos maiores desafios desta era da informação. Ninguém nega isso, mas também não se sabe como fazê-lo efetivamente. Por exemplo, eliminar quem espalha conteúdo tóxico é uma das alternativas escolhidas por algumas plataformas; Já um estudo feito internamente pelo Facebook, com 26 mil de seus usuários, mostra que excluir os líderes de comunidades extremistas é uma forma eficiente de desmantelar o discurso de ódio nas redes sociais, principalmente no longo prazo. A remoção de cem dessas contas teve um grande impacto porque negar o viva-voz aos membros principais leva à melhoria da rede geral.

Alguns estudos anteriores sugeriram que a exclusão desses perfis nocivos en plataformas como Twitter, Reddit ou o Telegram ajudou a reduzir atividades indesejadas, mesmo aquelas falas de forma geral. Mas não foi o suficiente para demonstrar a relação de causa e efeito que este estudo, realizado por pesquisadores da Meta, empresa controladora do Facebook, e publicado hoje em PNAS.

Para chegar a essas conclusões, Daniel Robert Thomas e Laila A. Wahedi analisaram os efeitos produzidos na audiência de seis comunidades, cujos representantes mais atuantes foram expulsos da tribuna. Especificamente, os pesquisadores do Meta queriam entender até que ponto esse público continuou a observar, publicar e compartilhar conteúdo odioso ou interagir com outros perfis, depois que suas referências deixaram de existir. Os resultados mostram que, em média, todos esses fatores diminuíram. “Eles reduzem o consumo e a produção de conteúdos que incitem ao ódio e interagem menos com outros membros da audiência”, afirmam no estudo..

Após as exclusões de perfil, os usuários passaram a visualizar quase metade do conteúdo odioso diariamente. Isso significa que, em média, quem viu cerca de cinco postagens com conteúdo tóxico passou a ver menos de três. Além disso, ao deixar de interagir com membros da mesma comunidade tóxica, os membros passaram a ser expostos a outros tipos de conteúdos, grupos ou comunidades, que não eram essencialmente de natureza violenta. Nenhum dos dados do estudo pode ser vinculado às contas de usuário originais, devido aos termos de proteção de privacidade do Facebook.

O público mais fiel às organizações que disseminam o ódio pode buscar outras fontes após a expulsão dos haters profissionais. No entanto, é uma reação efêmera e desacelera em apenas dois meses. O público mais distante desses líderes diminui sua interação com esse conteúdo desde o início. Segundo o estudo, isso é positivo, porque é o grupo que corre mais riscos de ser influenciado por comunidades tóxicas.

No geral, os resultados sugerem que o abate pode levar a redes sociais “mais saudáveis”. “Os esforços de remoção de líderes e rebaixamento da rede podem reduzir a capacidade das organizações de ódio de operar com sucesso na Internet”, explicam.

Não é fácil, de qualquer maneira. Ao serem banidos de plataformas populares, esses perfis poderiam facilmente criar novos e tentar construir uma nova rede. Eles também podem migrar para outras plataformas. E, além disso, outras organizações tóxicas que ainda existem poderiam substituir sua posição e cooptar apoiadores, que continuariam expostos a conteúdos nocivos. Para tornar essa estratégia de exclusão mais eficaz, os autores propõem que as exclusões sejam feitas por vários perfis ao mesmo tempo, porque “impede que as organizações reconstruam suas redes”, dificultando o reencontro dos membros, porque não há contas restantes para coordenar aqueles que retornam à plataforma.

discurso de ódio e tóxico

Se é uma decisão que fica nas mãos das plataformas, será que elas vão mesmo querer realizá-la? Silvia Majó-Vázquezpesquisador associado ao Instituto Reuters para o Estudo do Jornalismo da Universidade de Oxford e Professor e la VU University Amsterdamexplica que a moderação de conteúdo nas redes sociais deve “ser feita buscando um equilíbrio entre a liberdade de expressão e a preservação de outros direitos que possam ser lesados”, por isso é fundamental diferenciar entre discurso de ódio, discurso tóxico e discurso de ódio. .

Em termos conceituais, como explica Majó-Vázquez, a incivilidade está no nível mais brando, variando de linguagem informal que inclui desrespeito ou sarcasmo. Quando se trata de uma manifestação mais extrema e “os outros têm medo de participar de uma conversa”, nasce o discurso tóxico, que pode se tornar violento. “Do ponto de vista democrático, são muito prejudiciais, porque não permitem o ideal democrático de deliberação pública”, detalhou por e-mail.

Segundo este especialista, a suspensão de perfis deve ser feita tendo em conta estas dimensões conceptuais e com mecanismos manuais “que possam garantir que a liberdade de expressão está a ser preservada”. E esse critério também deve servir para figuras políticas. “É preciso fazer um exercício como o que faríamos fora das redes, em que o direito à liberdade de expressão do remetente da mensagem é equilibrado com a preservação dos demais direitos fundamentais da audiência. Os mecanismos automatizados de exclusão de mensagens e suspensão de contas devem ser continuamente revistos e a avaliação dessas mensagens por especialistas deve ser priorizada, como algumas plataformas já fazem com conselhos consultivos externos para os casos mais relevantes”, enfatiza.

Um de seus estudos, realizado no Reuters Institute em sete países, mostrou que a relação entre toxicidade e noivado É positivo que cada caso é um caso: depende do tema de cada discussão e da severidade do conteúdo. No contexto da pandemia e analisando o Twitter, os resultados mostraram que a toxicidade e a popularidade do conteúdo tóxico não andam de mãos dadas. Na verdade, vemos que o tweets mais tóxicos perdem popularidade com o público. No entanto, as mensagens com baixos níveis de toxicidade vêem seus níveis de popularidade crescerem”, diz Majó-Vázquez. Portanto, não é possível dizer se essa relação é resultado de uma decisão do público de “não recompensar a toxicidade” ou se é resultado das moderações realizadas pela plataforma. “É algo que não podemos responder com os dados do nosso trabalho, mas esse resultado questiona a crença de que os conteúdos tóxicos são sempre os mais populares”, conclui.

você pode seguir O PAÍS Tecnologia em Facebook y Twitter ou cadastre-se aqui para receber nossos newsletter semanal.


Com informações do EL Pais / Tecnología

Compartilhe este post
Sabores da TerraCasa da Roca e PetCitopatologista Dra JosileneAri ClinicaAfonsinho AmaranteMegalink AmaranteFinsolComercial Sousa Netoclinica e laboratorio sao goncaloCetec AmaranteEducandario Menino JesusMercadinho AfonsinhoAlternância de BannersPax Uni~ão AmarantePax Uni~ão AmaranteDr. JosiasPier RestobarPax Uni~ão AmaranteHospital de OlhosIdeal Web, em AmaranteSuper CarnesInterativa