Mundo

Tiktok e Meta permitiram conteúdos impróprios a fim de competirem pela atenção dos utilizadores


Mundo

O Tiktok e a empresa de redes sociais Meta tomaram decisões que comprometem a segurança e a exposição dos utilizadores a conteúdos violentos, de terrorismo e que incluem chantagem sexual, para competir pelos melhores algoritmos, denunciam mais de uma dúzia de informadores, entre os quais trabalhadores e fontes internas, à BBC.

Tiktok e Meta permitiram conteúdos impróprios a fim de competirem pela atenção dos utilizadores

SOPA Images

Mais de uma dúzia de fontes internas e informadores revelaram ao documentário da BBC, “Por dentro da máquina de raiva“, que as empresas de redes sociais comprometeram a segurança em questões como a violência, chantagem sexual e terrorismo, na sua luta na ‘corrida’ dos algortimos, competindo pela atenção dos utilizadores.

Os relatos exclusivos das fontes permitiram uma visão detalhada de como o setor das redes sociais reagiu após o crescimento exponencial da rede social chinesa TikTok, cujo algoritmo altamente envolvente de recomendação de vídeos curtos deixou os concorrentes a lutar para acompanhar o ritmo.

Conteúdos misóginos e teorias da conspiração

Um engenheiro da Meta, que detém o Facebook e o Instagram, contou que a direção executiva da empresa lhe pediu para permitir conteúdos “limítrofes” de caráter nocivo — nos quais se incluia misoginia e teorias da conspiração — nos ‘feeds’ dos utilizadores, com o objetivo de competir com os resultados do TikTok.

“Conteúdo limítrofe” é o termo utilizado nas empresas de redes sociais, geralmente para descrever publicações que são prejudiciais, mas legais — incluindo publicações misóginas, racistas e sexualizadas, bem como conteúdos relacionados com teorias da conspiração.

“Eles deram a entender que isso se deve ao facto de o preço das ações estar em baixo”, disse a fonte.

No mesmo sentido, um funcionário do TikTok deu à BBC o acesso aos painéis internos da empresa relativos às reclamações dos utilizadores — bem como a outras provas de que os funcionários tinham recebido instruções para dar prioridade a vários casos que envolviam políticos em detrimento de uma série de denúncias de publicações prejudiciais que envolviam crianças.

O funcinário contou que as decisões estavam a ser tomadas para “manter uma relação forte” com figuras políticas, a fim de evitar ameaças de regulamentação ou proibições, e não pelos riscos para os utilizadores.

Em 2020, a Meta lançou o ‘Instagram Reels’, secção para criar e partilhar vídeos curtos, à semelhança do Tiktok. Um investigador sénior da Meta, Matt Motyl, relatou que a funcionalidade foi lançada sem as medidas de segurança suficientes.

Uma investigação interna partilhada com a BBC revelou que os comentários nos vídeos apresentavam uma prevalência significativamente maior de bullying e assédio, discurso de ódio e violência ou incitamento do que noutras secções do Instagram.

Facebook tinha conhecimento dos danos

Motyl partilhou com o jornal britânio uma dezena do que descreveu serem “documentos de investigação de alto nível que revelam todo o tipo de danos causados aos utilizadores nestas plataformas”. Entre estes, encontravam-se documentos que demonstram que o Facebook tinha conhecimento dos problemas causados pelo seu algoritmo.

A fonte afirmou que o Facebook poderia “optar por ficar de braços cruzados e continuar a alimentar os utilizadores com fast food, mas que isso só funciona por algum tempo”.

Gigantes negam acusações

Em resposta às alegações dos denunciantes, a Meta e o Tiktok negaram as acusações, afirmando que se tratava de “alegações inventadas”.

“Qualquer sugestão de que amplificamos deliberadamente conteúdos prejudiciais para obter ganhos financeiros é errada”, declarou a empresa que detém o Facebook e o Instagram.

Utilizadores relatam anomalias

Um conjunto de adolescentes relatou que os mecanismos que permitem indicar que os utilizadores não querem aceder a conteúdos problemáticos não estão a funcionar, e que continuam a receber recomendações de conteúdos violentos e de ódio.

Calum, adolescente de 19 anos, disse à BBC que tinha sido “radicalizado por um algoritmo” desde os 14 anos. O algoritmo mostrava-lhe conteúdos que o indignavam e o levaram a adotar visões racistas e misóginas, contou.

“[Os vídeos] animaram-me, mas não propriamente no bom sentido”, contou o adolescente. “Simplesmente deixaram-me bastante irritado. Refletiam muito bem o que eu sentia, que estava zangado com as pessoas à minha volta”, acrescentou.



SIC Noticias

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *