Outubro de 2022 – Vol. 27 – Nº 10
- Reportagem do New York Times sobre o suicídio de uma adolescente em Londres e a responsabilização de companhias como a Meta (Facebook e Instagram) e Pinterest.
- Entrevista do Professor Alexander Moreira-Almeida sobre o papel da mídia em relação ao suicídio.
- A campanha da Associação Brasileira de Psiquiatria Setembro Amarelo com extenso material para download e as URLs dos mesmos.
Começamos com a reportagem do NYT feita por Adam Soriano
(Oct. 1, 2022 (British Ruling Pins Blame on Social Media for Teenager’s Suicide – The New York Times (nytimes.com)
Decisão britânica culpa as redes sociais pelo suicídio de adolescente
A internet, de acordo com a decisão, “afetou sua saúde mental de maneira negativa e contribuiu para sua morte de maneira mais do que mínima”.
Sentado no banco das testemunhas de um pequeno tribunal de Londres esta semana, um executivo da Meta (Facebook e Instagram) enfrentou uma pergunta desconfortável: sua empresa contribuiu para o suicídio de uma jovem de 14 anos chamada Molly Russell?
Vídeos e imagens de suicídio, automutilação e conteúdo depressivo que a adolescente viu nos meses antes de morrer em novembro de 2017 apareceram em uma tela no tribunal. A executiva leu uma postagem que Molly gostou ou salvou do Instagram e ouviu como ela foi copiada quase literalmente em uma nota cheia de palavras de auto aversão encontradas mais tarde por seus pais.
“Este é o Instagram literalmente dando ideias a Molly”, disse Oliver Sanders, advogado que representa a família, com raiva durante um momento da conversa.
Inclinando-se para a frente na cadeira de testemunha, a executiva, Elizabeth Lagone, que lidera a política de saúde e bem-estar da empresa, respondeu: “Não posso falar sobre o que estava acontecendo na mente de Molly”.
O legista que supervisiona o caso, que na Grã-Bretanha é uma figura semelhante a um juiz com ampla autoridade para investigar e determinar oficialmente a causa da morte de uma pessoa, foi muito menos cauteloso. Na sexta-feira, ele decidiu que o Instagram e outras plataformas de mídia social contribuíram para a morte dela – talvez a primeira vez em qualquer lugar que empresas de internet foram legalmente culpadas por um suicídio.
“Molly Rose Russell morreu de um ato de automutilação enquanto sofria de depressão e os efeitos negativos do conteúdo online”, disse o legista Andrew Walker. Em vez de classificar oficialmente sua morte como suicídio, ele disse que a internet “afetou sua saúde mental de maneira negativa e contribuiu para sua morte de maneira mais do que mínima”.
O julgamento imparcial e declarativo encerrou uma batalha legal que colocou a família Russell contra algumas das maiores empresas do Vale do Silício. Aprofundando os piores medos de muitos pais sobre a influência da internet e das mídias sociais em seus filhos, o caso repercutiu na Grã-Bretanha e além. Uma multidão de câmeras de televisão e fotógrafos se reuniram do lado de fora do tribunal quando a decisão foi anunciada.
Milhares de imagens, vídeos e outros materiais de mídia social das contas de Molly foram revelados durante a investigação, uma das maiores divulgações públicas do gênero. Isso forneceu o tipo de detalhe que os pesquisadores que estudam os efeitos da mídia social na saúde mental há muito reclamam que plataformas como a Meta, dona do Facebook e do Instagram, retêm por motivos de privacidade e ética.
O uso de mídia social de Molly incluiu material tão perturbador que um funcionário do tribunal saiu da sala para evitar ver uma série de vídeos do Instagram retratando suicídio. Um psicólogo infantil que foi chamado como testemunha especialista disse que o material era tão “perturbador” e “angustiante” que o fez perder o sono por semanas.
As empresas não enfrentam nenhuma penalidade financeira ou outra por causa da decisão. A família disse que buscou o caso como uma forma de justiça para Molly e para aumentar a conscientização sobre o suicídio de jovens e os perigos das mídias sociais.
Mas já, um projeto de lei parcialmente inspirado pela morte de Molly, para forçar as empresas de mídia social a adotar novas proteções de segurança infantil ou arriscar multas pesadas, está sendo aprovado no Parlamento britânico. Instagram e Pinterest restringiram o acesso a alguns conteúdos de suicídio e automutilação. E advogados que representam famílias americanas que estão processando TikTok e Meta por contribuir para a morte de seus filhos estão apontando o resultado como um novo precedente.
“Estes eram David e Golias”, disse Beeban Kidron, membro da Câmara dos Lordes e fundador da 5Rights, uma organização sem fins lucrativos que pressiona por leis mais rígidas de segurança infantil online. “A família Russell lutou por cinco anos para colocar as empresas em um ambiente onde, sob juramento, elas teriam que prestar contas de suas ações.”
A Meta, que disse durante o inquérito que nunca estudou os efeitos do conteúdo suicida e depressivo do Instagram em seus usuários mais jovens, disse em comunicado posteriormente que seus “pensamentos estão com a família Russell” e que estava “comprometido em garantir que o Instagram é uma experiência positiva para todos, principalmente para os adolescentes.”
A família Russell tinha uma vida “quase chata” em um subúrbio ao norte de Londres, disse Ian Russell, pai de Molly, em uma entrevista em julho antes do inquérito. Preocupado com o uso da tecnologia por suas três filhas, ele e sua esposa, Janet, frequentaram aulas de segurança eletrônica em sua escola e tentaram manter o controle em suas contas de mídia social. Telefones foram proibidos na mesa de jantar.
Molly, como suas duas irmãs mais velhas, ganhou um telefone básico aos 11 anos, quando muitas crianças britânicas começam a ir para a escola de forma independente. Ela recebeu um iPhone como presente de aniversário de 13 anos, pouco depois de ter criado uma conta no Instagram com a permissão de seus pais.
Molly, que gostava de andar a cavalo e de música pop, começou a passar mais tempo em seu quarto, mas nada deu alarme. Russel disse que ela raramente postou algo publicamente nas redes sociais, mas não era incomum encontrá-la sentada em sua cama assistindo Netflix em um iPod Touch enquanto trocava mensagens com seus amigos em outro dispositivo.
“Ela era uma adolescente; quase seria preocupante se ela não o fizesse”, disse Russell. “Como você separa essas coisas do comportamento normal e talvez algo preocupante, eu realmente não sei se você pode.”
Nos dias após a morte de Molly, disse Russell, a família lutou para entender o que havia dado errado. Ela estava um pouco deprimida por partes do ano passado, mas se animou ultimamente. A família atribuiu as mudanças de humor ao comportamento normal do adolescente.
Na noite anterior à sua morte, a família assistiu a um reality show juntos, e Molly pediu ajuda ao Sr. Russell para um projeto de experiência de trabalho. Ela estava animada com os ingressos para ver “Hamilton” e fazer um papel principal em uma peça da escola.
Foi só quando o Sr. Russell se sentou com o computador da família que as peças começaram a se encaixar. Depois que ele obteve acesso à conta dela no Instagram, ele encontrou uma pasta intitulada “Coisas sem importância” com dezenas de imagens e citações preocupantes. “Quem amaria uma garota suicida?” um disse.
Ele quase se engasgou enquanto revisava a caixa de entrada de e-mail de Molly, onde encontrou uma nota do Pinterest que chegou cerca de duas semanas após a morte dela. “Pins de depressão que você pode gostar”, dizia.
Em janeiro de 2019, o Sr. Russell veio a público com a história de Molly. Indignado com o fato de sua filha poder ver um conteúdo tão sombrio com tanta facilidade e convencido de que isso teve um papel na morte dela, ele se sentou para uma entrevista de TV com a BBC que resultou em matérias de primeira página nas bancas britânicas.
Russell, um diretor de televisão, pediu ao legista que analisa o caso de Molly para ir além do que geralmente é um processo de fórmula e explorar o papel das mídias sociais. O Sr. Walker concordou depois de ver uma amostra do histórico de mídia social de Molly.
Isso resultou em um esforço de um ano para obter acesso aos dados de mídia social de Molly. A família não sabia a senha do seu iPhone, mas a polícia de Londres conseguiu ignorá-la para extrair 30.000 páginas de material. Após uma longa batalha, Meta concordou em fornecer mais de 16.000 páginas de seu Instagram, um volume que atrasou o início do inquérito. Merry Varney, advogado do escritório de advocacia Leigh Day que trabalhou no caso por meio de um programa de assistência jurídica, disse que foram necessárias mais de 1.000 horas para revisar o conteúdo.
O que descobriram foi que Molly tinha vivido uma espécie de vida dupla. Enquanto ela era uma adolescente comum para a família, amigos e professores, sua existência online era muito mais sombria.
Nos seis meses antes de Molly morrer, ela compartilhou, curtiu ou salvou 16.300 conteúdos no Instagram. Cerca de 2.100 dessas postagens, ou cerca de 12 por dia, estavam relacionadas a suicídio, automutilação e depressão, segundo dados que Meta divulgou à família. Muitas contas com as quais ela interagia eram dedicadas a compartilhar apenas material depressivo e suicida, muitas vezes usando hashtags vinculadas a outros conteúdos explícitos.
Muitas postagens glorificavam a luta interior, escondendo a pressão emocional e dizendo aos outros “estou bem”. Molly passou a gostar e salvar representações gráficas de suicídio e automutilação, uma vez depois das 3 da manhã, de acordo com uma linha do tempo de seu uso do Instagram.
“É um gueto do mundo online que, uma vez que você cai nele, o algoritmo significa que você não pode escapar dele e continua recomendando mais conteúdo”, disse Russell durante depoimento.
Molly não falou sobre suas lutas com a família, mas buscou consolo de influenciadores online que postavam regularmente sobre tristeza e suicídio. De uma conta anônima no Twitter que sua família descobriu mais tarde, Molly havia contatado pelo menos um influenciador sobre seu desespero – mensagens que nunca receberam resposta.
Jud Hoffman, chefe de operações comunitárias do Pinterest, disse que “lamenta profundamente” que Molly tenha visto material explícito que ele não gostaria que seus próprios filhos vissem. “Sinto muito”, disse ele.
Meta reconheceu que Molly tinha visto algum conteúdo que violava suas políticas, mas defendeu suas práticas em geral como um equilíbrio entre liberdade de expressão e segurança. A empresa adicionou novas proteções em 2019, depois que a família tornou pública a experiência de Molly, incluindo a proibição de imagens gráficas de automutilação, como cortes, e o fornecimento de links para recursos para quem vê material triste ou depressivo.
A Sra. Lagone, que tem formação em saúde pública e foi contratada pela Meta em 2020, disse que, embora lamentasse que Molly tivesse visto um conteúdo tão angustiante, era importante dar às pessoas espaço para expressar tristeza abertamente como “um pedido de ajuda”.
Depois que a decisão final no caso foi anunciada na sexta-feira, o Sr. Russell ainda estava preocupado com um comentário feito pela Sra. Lagone durante seu depoimento de que parte do material visto por Molly estava seguro.
“Se essa trilha demente de conteúdo sugador de vida fosse segura”, disse ele, “minha filha Molly provavelmente ainda estaria viva”.