Meta, Snapchat e TikTok trabalham juntos para combater conteúdo de automutilação

Meta, Snapchat e TikTok trabalham juntos para combater conteúdo de automutilação



Algumas das maiores empresas de mídia social estão trabalhando juntas como parte de um programa para impedir que conteúdo que aborde suicídio ou automutilação se espalhe online.

Meta, Snapchat e TikTok se inscreveram para trabalhar com a Mental Health Coalition no novo programa Thrive, que foi anunciado na quinta-feira (12 de setembro).

O esquema envolve empresas de tecnologia participantes que compartilham sinais sobre suicídio ou conteúdo de automutilação para que outras empresas possam investigar e tomar medidas caso o mesmo conteúdo esteja sendo compartilhado em suas plataformas.

“Nós da MHC estamos entusiasmados em trabalhar com a Thrive; uma colaboração única das plataformas de mídia social mais influentes que se uniram para abordar conteúdo sobre suicídio e automutilação.

“Meta, Snap e TikTok são alguns dos parceiros iniciais a se juntarem à 'troca', comprometendo-se a causar um impacto ainda maior e ajudar a salvar vidas”, disse Kenneth Cole, fundador da The Mental Health Coalition.

Se o conteúdo gerar preocupações, as empresas envolvidas receberão alertas e poderão avaliar de forma independente se devem tomar medidas.

O diretor do Thrive, Dr. Dan Reidenberg, descreveu o projeto como um “grande avanço”:

“A integração do compartilhamento de sinais, juntamente com a colaboração entre setores e moderada por um intermediário independente e neutro, representa um grande avanço na colaboração do setor e na proteção pública na crise global de saúde pública do suicídio e, em última análise, salva vidas.”

Como a tecnologia de compartilhamento de sinais funciona para lidar com conteúdo relacionado à automutilação?

A infraestrutura técnica por trás do Thrive está sendo fornecida pela Meta e é a mesma tecnologia que eles fornecem ao programa Lantern da Tech Coalition, que também permite que sinais sejam compartilhados.

“As empresas participantes começarão compartilhando hashes – códigos numéricos que correspondem a conteúdo violador – de imagens e vídeos mostrando suicídio gráfico e automutilação, e de conteúdo retratando ou encorajando desafios virais de suicídio ou automutilação”, escreve Meta no anúncio.

“Estamos priorizando esse conteúdo por causa de sua propensão a se espalhar rapidamente por diferentes plataformas. Esses sinais iniciais representam apenas conteúdo e não incluirão informações identificáveis ​​sobre quaisquer contas ou indivíduos.”





Source link

Leave a Reply

Your email address will not be published. Required fields are marked *