Violência nas escolas: Twitter contraria própria regra ao hesitar em tirar post do ar

Violência nas escolas: Twitter contraria própria regra ao hesitar em tirar post do ar

Um documento enviado pelo Twitter ao Ministério Público Federal de São Paulo em 2021 revela que, ao hesitar em remover vídeos que fazem apologia à violência contra crianças em escolas, a plataforma contraria suas próprias regras.

A informação consta em um inquérito aberto pelo MPF em 2021 para investigar a postura das redes sociais no enfrentamento das fake news e da violência digital.

No documento, o Twitter deixava claro que removeria conteúdos com “ameaças à segurança física de uma pessoa ou grupo” e garantiu o banimento de contas que fizessem ameaças violentas a alvos específicos.

Segundo especialistas ouvidos pela CNN, a mudança se dá pelo fato de o novo dono do Twitter, Elon Musk, ter desmobilizado os times de segurança e proteção da plataforma após se tornar dono da empresa.

Agora cabe à inteligência artificial usada pela empresa para identificar o que é nocivo — mas, sem mediação humana, o conteúdo continua circulando pela rede.

O ministro da Justiça, Flávio Dino, editou na quarta-feira (12) uma portaria que endurece as regras para plataformas como o Twitter retirarem do ar vídeos com apologia à violência nas escolas, regulando os conteúdos que contenham ameaças.

A medida foi tomada após o Twitter, em reunião com o governo, dizer que tais vídeos não contrariam seus termos de uso.

Em um longo documento enviado ao MPF, o Twitter esclarece que casos em que “há potencial risco de dano real às pessoas – a exemplo do que ocorre nos casos de integridade cívica e desinformação relacionada à saúde”, a plataforma deve remover conteúdos.

“Referências a assassinatos em massa, eventos violentos ou formas específicas de violência em que grupos protegidos que já tenham sido os principais alvos ou vítimas dessas práticas. É proibido direcionar a alguém ou a grupos conteúdo que faz referência a formas de violência ou eventos violentos em que uma categoria protegida seja o principal alvo ou a vítima, em que a intenção seja o assédio”, diz o Twitter.

Segundo Yasmin Curzi, professora e pesquisadora do Centro de Tecnologia e Sociedade da FGV Direito Rio, conteúdos maliciosos que façam referência aos massacres de Realengo e Suzano, por exemplo, dependem de uma análise de contexto para serem retirados do ar – logo, só a inteligência artificial é incapaz de fazê-lo.

“Isso não acontece só no Brasil. Na Alemanha também não há equipe para fazer moderação de conteúdo e retirar discurso de ódio do ar, por exemplo”, afirmou.

Tags: twitter
Veja também
Comentários

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *