A Amnistia Internacional alertou hoje que a plataforma de vídeos TikTok continua sem resolver os graves riscos de danos à saúde mental e física dos jovens utilizadores, quase 18 meses depois de terem sido denunciados numa investigação da organização.
Esta investigação de 2023 concluiu que no feed “Para ti” do TikTok as crianças e jovens utilizadores corriam o risco de serem atraídas para um “buraco negro” tóxico de conteúdos relacionados com a depressão e o suicídio, problema que até agora a empresa não reconheceu nem apresentou soluções específicas, denuncia a Amnistia Internacional (AI) em comunicado.
A organização alerta mesmo para a possibilidade de haver impacto no bem-estar mental, particularmente dos utilizadores mais jovens, associado a conteúdo concentrado relacionado com dietas extremas e conteúdo relacionado com a imagem corporal.
A investigação, que recorreu a contas para simular adolescentes de 13 anos online, concluiu que 20 minutos após ser criada uma conta e sinalizado interesse em saúde mental, mais de metade dos vídeos no feed “Para ti” do TikTok se relacionavam com problemas de saúde mental.
“Vários desses vídeos recomendados numa única hora romantizavam, normalizavam ou encorajavam o suicídio”, afirma, salientando que esta foi uma das principais conclusões do projeto de investigação, publicado em novembro de 2023, sobre os riscos para os direitos das crianças e dos jovens numa das plataformas de redes sociais mais populares.
Em resposta à pergunta da AI sobre quais as mudanças implementadas desde a investigação, o TikTok enumerou medidas de bem-estar já conhecidas, a maioria em vigor quando a investigação foi realizada, sem reconhecer o problema do “buraco negro” da aplicação nem apresentar provas de novas medidas específicas.
Segundo a investigação, o modelo de negócio invasivo do TikTok rastreia tudo o que um utilizador faz na plataforma procurando prever os seus interesses, estado emocional e bem-estar, para mostrar conteúdos mais personalizados no ‘feed For you’ para que continue a navegar, mesmo que os conteúdos sejam prejudiciais.
A AI defende medidas de proteção eficazes, nomeadamente para impedir que utilizadores em risco caiam em padrões de utilização viciantes e em armadilhas de conteúdos perigosos e nocivos.