Denunciantes acusam TikTok e Meta de permitirem conteúdos nocivos para competir por atenção dos utilizadores

Mais de uma dúzia de denunciantes, entre trabalhadores e fontes internas, acusam as empresas de redes sociais TikTok e Meta de terem tomado decisões que comprometeram a segurança dos utilizadores, permitindo a circulação de conteúdos violentos, relacionados com terrorismo ou chantagem sexual, com o objetivo de competir pela atenção nas plataformas digitais.

As revelações foram feitas à BBC no documentário “Por dentro da máquina de raiva”, que reúne testemunhos e documentos internos sobre a forma como o setor das redes sociais reagiu ao crescimento exponencial do TikTok e ao sucesso do seu algoritmo de recomendação de vídeos curtos.

Segundo um engenheiro da Meta — empresa que detém o Facebook e o Instagram — a direção executiva terá incentivado a presença de conteúdos considerados “limítrofes” nos feeds dos utilizadores. Esta expressão é utilizada pelas plataformas para descrever publicações prejudiciais, mas que permanecem dentro da legalidade, como conteúdos misóginos, racistas, sexualizados ou associados a teorias da conspiração.

De acordo com a mesma fonte, a decisão foi influenciada pela pressão financeira sobre a empresa, numa altura em que o valor das ações estava em queda.

Um funcionário do TikTok revelou ainda à BBC ter facultado acesso a painéis internos da plataforma com dados sobre reclamações de utilizadores. Segundo afirmou, os trabalhadores terão recebido instruções para dar prioridade a denúncias envolvendo figuras políticas, em detrimento de outras que envolviam conteúdos prejudiciais relacionados com menores.

De acordo com o denunciante, estas decisões terão sido tomadas para preservar relações com responsáveis políticos e evitar possíveis medidas de regulamentação ou proibições.

Em 2020, a Meta lançou a funcionalidade Instagram Reels, dedicada à criação e partilha de vídeos curtos semelhantes aos do TikTok. Matt Motyl, investigador sénior da empresa, afirmou que a ferramenta foi lançada sem medidas de segurança suficientes.

Uma investigação interna, citada pela BBC, indicava que os comentários associados aos vídeos apresentavam níveis significativamente mais elevados de bullying, assédio, discurso de ódio e incitamento à violência quando comparados com outras áreas do Instagram.

Motyl revelou ainda ter partilhado com o órgão de comunicação social britânico vários documentos internos que descreveu como investigações de alto nível sobre os efeitos das plataformas nos utilizadores. Entre eles, estariam relatórios que indicam que o Facebook tinha conhecimento de problemas associados ao funcionamento do seu algoritmo.

Em resposta às acusações, tanto a Meta como o TikTok negaram as alegações, classificando-as como “inventadas”. A empresa que detém o Facebook e o Instagram afirmou que “qualquer sugestão de que amplificamos deliberadamente conteúdos prejudiciais para obter ganhos financeiros é errada”.

O documentário inclui ainda relatos de utilizadores adolescentes que afirmam continuar a receber recomendações de conteúdos violentos ou de ódio, mesmo após utilizarem ferramentas para limitar esse tipo de publicações.

Calum, um jovem de 19 anos entrevistado pela BBC, afirmou que começou a ser exposto a conteúdos que o radicalizaram quando tinha 14 anos, através de recomendações automáticas do algoritmo.

“Os vídeos animavam-me, mas não propriamente no bom sentido. Deixavam-me bastante irritado e refletiam muito o que eu sentia, que estava zangado com as pessoas à minha volta”, relatou.

0