Em março de 2019, antes de um atirador assassinar 51 pessoas em duas mesquitas em Christchurch, Nova Zelândia, ele foi ao vivo no Facebook para transmitir seu ataque. Em outubro daquele ano, um homem na Alemanha transmitiu seu próprio tiroteio em massa ao vivo no Twitch , o site de transmissão ao vivo da Amazon popular entre os jogadores.
Veja também:
No sábado, um atirador em Buffalo, NY, montou uma câmera em seu capacete e transmitiu ao vivo no Twitch enquanto matava 10 pessoas e feriu mais três em um supermercado no que as autoridades disseram ser um ataque racista. Em um manifesto postado online, Payton S. Gendron, o jovem de 18 anos que as autoridades identificaram como o atirador, escreveu que se inspirou no atirador de Christchurch e outros.
A Twitch disse que reagiu rapidamente para derrubar o vídeo do tiroteio em Buffalo, removendo a transmissão dois minutos após o início da violência. Mas dois minutos foram tempo suficiente para o vídeo ser compartilhado em outro lugar. No domingo, links para gravações do vídeo haviam circulado amplamente em outras plataformas sociais.
Um clipe do vídeo original – que trazia uma marca d’água que sugeria que havia sido gravado com um software gratuito de gravação de tela – foi postado em um site chamado Streamable e visto mais de três milhões de vezes antes de ser removido. E um link para esse vídeo foi compartilhado centenas de vezes no Facebook e no Twitter horas após o tiroteio.
Tiroteios em massa – e transmissões ao vivo – levantam questões sobre o papel e a responsabilidade dos sites de mídia social em permitir a proliferação de conteúdo violento e odioso. Muitos dos atiradores escreveram que desenvolveram suas crenças racistas e antissemitas vasculhando fóruns online como Reddit e 4chan, e foram estimulados ao assistir outros atiradores transmitirem seus ataques ao vivo.
“É um fato triste do mundo que esse tipo de ataque continue acontecendo, e a maneira como funciona agora é que também há um aspecto de mídia social”, disse Evelyn Douek, pesquisadora sênior do Knight First da Universidade de Columbia. “É totalmente inevitável e previsível nos dias de hoje. É apenas uma questão de quando.”
Questões sobre as responsabilidades dos sites de mídia social fazem parte de um debate mais amplo sobre quão agressivamente as plataformas devem moderar seu conteúdo. Essa discussão foi intensificada desde que Elon Musk, presidente-executivo da Tesla, concordou recentemente em comprar o Twitter e disse que queria fazer do discurso irrestrito no site um objetivo principal.
Especialistas em mídia social e moderação de conteúdo disseram que a resposta rápida do Twitch foi a melhor que se poderia esperar. Mas o fato de que a resposta não impediu que o vídeo do ataque fosse amplamente divulgado em outros sites também levanta a questão de saber se a capacidade de transmissão ao vivo deveria ser tão facilmente acessível.
“Estou impressionado que eles tenham feito isso em dois minutos”, disse Micah Schaffer, consultor que liderou decisões de confiança e segurança no Snapchat e no YouTube. “Mas se a sensação é que mesmo isso é demais, então você realmente está em um impasse: vale a pena ter isso?”.
Em um comunicado, Angela Hession, vice-presidente de confiança e segurança do Twitch, disse que a ação rápida do site foi um “tempo de resposta muito forte considerando os desafios da moderação de conteúdo ao vivo e mostra um bom progresso”. Hession disse que o site está trabalhando com o Global Internet Forum to Counter Terrorism, uma coalizão sem fins lucrativos de sites de mídia social, bem como outras plataformas sociais para impedir a disseminação do vídeo.
“No final, todos fazemos parte de uma única internet e sabemos agora que esse conteúdo ou comportamento raramente – ou nunca – permanecerá contido em uma plataforma”, disse ela.
Utilizando redes sociais, inclusive chat de jogos
Em um documento que parecia ter sido postado no fórum 4chan e na plataforma de mensagens Discord antes do ataque, Gendron explicou por que escolheu transmitir no Twitch, escrevendo que “era compatível com transmissão ao vivo gratuita e todas as pessoas com internet poderia assistir e gravar.” O Discord disse que estava trabalhando com a polícia para investigar.
O Twitch também permite que qualquer pessoa com uma conta entre ao vivo, ao contrário de sites como o YouTube, que exige que os usuários verifiquem sua conta para fazer isso e tenham pelo menos 50 assinantes para transmitir de um dispositivo móvel.
“Acho que transmitir ao vivo esse ataque me dá alguma motivação, pois sei que algumas pessoas estarão torcendo por mim”, escreveu Gendron. Ele também disse que foi inspirado pelo Reddit, sites de extrema direita como The Daily Stormer e os escritos de Brenton Tarrant, o atirador de Christchurch.
Em comentários no sábado, a governadora Kathy Hochul de Nova York criticou as plataformas de mídia social por seu papel em influenciar as crenças racistas de Gendron e permitir que o vídeo de seu ataque circule. “Isso se espalha como um vírus”, disse Hochul, exigindo que os executivos de mídia social avaliem suas políticas para garantir que “tudo esteja sendo feito para garantir que essa informação não seja divulgada”.
Pode não haver respostas fáceis. Plataformas como Facebook, Twitch e Twitter avançaram nos últimos anos, disseram os especialistas, na remoção mais rápida de conteúdo e vídeos violentos. Após o tiroteio na Nova Zelândia, plataformas sociais e países de todo o mundo aderiram a uma iniciativa chamada Christchurch Call to Action e concordaram em trabalhar em estreita colaboração para combater o terrorismo e o conteúdo de extremismo violento.
Um sistema ainda – muito – falho
Uma ferramenta que os sites sociais usaram é um banco de dados compartilhado de hashes, ou pegadas digitais de imagens, que podem sinalizar conteúdo impróprio e removê-lo rapidamente. Mas neste caso, disse Douek, o Facebook parecia ter falhado apesar do sistema de hash. As postagens do Facebook vinculadas ao vídeo postado no Streamable geraram mais de 43.000 interações, de acordo com a CrowdTangle, uma ferramenta de análise da web, e algumas postagens ficaram no ar por mais de nove horas.
Quando os usuários tentaram sinalizar o conteúdo como violando as regras do Facebook , que não permitem conteúdo que “glorifique a violência”, eles foram informados em alguns casos que os links não violavam as políticas do Facebook, de acordo com capturas de tela visualizadas pelo The New York Times.
Desde então, o Facebook começou a remover postagens com links para o vídeo, e um porta-voz do Facebook disse que as postagens violam as regras da plataforma. Questionado sobre por que alguns usuários foram notificados de que postagens com links para o vídeo não violavam seus padrões, o porta-voz não teve uma resposta.
O Twitter não havia removido muitas postagens com links para o vídeo de filmagem e, em vários casos, o vídeo havia sido carregado diretamente na plataforma. Uma porta-voz da empresa disse inicialmente que o site poderia remover algumas instâncias do vídeo ou adicionar um aviso de conteúdo sensível, depois disse que o Twitter removeria todos os vídeos relacionados ao ataque depois que o Times pediu esclarecimentos.
Uma porta-voz da Hopin, o serviço de videoconferência que possui o Streamable, disse que a plataforma estava trabalhando para remover o vídeo e excluir as contas das pessoas que o enviaram. Remover conteúdo violento é “como tentar tapar os dedos em vazamentos em uma represa”, disse Douek. “Vai ser fundamentalmente muito difícil encontrar, especialmente na velocidade em que essas coisas se espalham agora.”