sábado, 20 de setembro de 2014

Redes sociais são criticadas por pouca transparência na remoção de conteúdo


Imagem: Dado Ruvic/Reuters
Michael Letwin, um advogado que vive em Nova York, fazia o login em sua conta do Facebook, como faz quase diariamente, quando recebeu uma mensagem surpreendente –e desagradável.

"Sua conta foi desativada", ela dizia. "Se você tem alguma dúvida ou preocupação, você pode visitar nossa página de perguntas mais frequentes." Letwin, que além de sua página pessoal também ajuda a administrar uma página no Facebook para o grupo Judeus pelo Direito de Retorno dos Palestinos, clicou na página de perguntas mais frequentes e encontrou uma referência aos padrões da comunidade do Facebook, nenhum dos quais ele sentiu que tinha violado, juntamente com a opção de apelação.


Ele a fez. E então esperou. E esperou.

Observador ou curador

A situação de Letwin não é incomum e nem nova. A questão de que papel as empresas de rede social devem exercer –um observador que apenas intervém em circunstâncias extremas, ou de curador que decide o que fica e o que sai– há muito é debatida.

Recentemente, o Twitter se recusou a permitir postagens com links para os vídeos da decapitação do jornalista americano James Foley. O Facebook está envolvido em uma batalha com drag queens que tiveram suas contas desativadas porque usavam seus nomes de palco em seus perfis. Usar qualquer coisa que não seja seu nome real é uma violação das regras da empresa. O furor levou nesta semana a uma reunião com representantes do Facebook e a uma coletiva de imprensa convocada por um supervisor de San Francisco.

Leia também: 

Pouco controle

Mas poucos usuários, até se verem em uma situação semelhante, estão cientes de quão pouco controle eles têm sobre algo que consideram deles –suas páginas, suas postagens, suas fotos.

"Quando o Facebook toma uma decisão de cancelamento, isso tem o potencial de alterar a vida de algumas pessoas", disse Eric Goldman, um professor de direito da Universidade de Santa Clara, na Califórnia, e codiretor do Instituto de Direito de Alta Tecnologia de lá. "Ele corta o acesso às comunidades delas" e possivelmente aos clientes delas.

Isso não quer dizer que Goldman acredita que as plataformas de rede social devam ser completamente não reguladas. E, ele disse, o Facebook e outras empresas de rede social realizam em grande parte um bom trabalho de monitoramento de tantos usuários e postagens.

A principal crítica dele e de outros se concentra na transparência.

"O palanque do cidadão comum agora é digital, e agora estamos em um mundo onde as grandes empresas de rede social têm a habilidade de um governo de estabelecer as normas sociais", disse Lee Rowland, um advogado da União Americana pelas Liberdades Civis. "É um poder imenso e que vem acompanhado de responsabilidade."

Essas questões surgem em todas as redes sociais, mas o relacionamento dos usuários com o Facebook é particularmente passional, disse Goldman. Apesar de alguns dizerem que seu impacto está diminuindo, ele ainda fornece para 1,3 bilhão de pessoas –em comparação, digamos, aos 271 milhões de usuários mensais ativos do Twitter– acesso a notícias sobre seus amigos e grupos comunitários.

"Nossa meta sempre foi chegar ao equilíbrio apropriado entre os interesses das pessoas que querem se expressar e os interesses de outros que não querem ver certo tipo de conteúdo", escreveu Monika Bickert, chefe de gestão de políticas globais do Facebook, em um e-mail.

Direito de remover conteúdo

As empresas de rede social têm todo o direito de remover conteúdo ou expulsar alguém, disse Danielle Citron, uma professora de direito da Escola de Direito da Universidade de Maryland. Como entidades privadas, elas não estão limitadas pela Primeira Emenda. Elas também têm imunidade de responsabilidade segundo a Lei de Decência nas Comunicações federal.

O Facebook, como outras empresas de rede social, tem uma lista de padrões que os usuários concordam em seguir quando criam suas contas, mesmo que nunca tenham lido os padrões.

Entre outras coisas, eles proíbem a postagem de discurso de ódio (o que significa que indivíduos ou grupos não podem atacar outros com base em raça, etnia, origem nacional, religião, sexo, gênero, orientação sexual, invalidez ou condição médica), encorajamento a pessoas causarem mal a si mesmas, conteúdo explícito ou ameaças de violência. E o nome verdadeiro do usuário deve ser usado.

Qualquer pessoa pode facilmente prestar uma queixa contra um usuário. E o Facebook tem centenas de pessoas trabalhando 24 horas ao redor do mundo, em 30 línguas, lendo e respondendo às denúncias de violações.

Obviamente, muitas dessas categorias estão abertas a interpretação. O aleitamento materno, por exemplo, é algo que o Facebook já enfrentou no passado –basicamente, quanto do seio pode ser mostrado sem que se torne explícito?

Se o Facebook decide remover conteúdo, ele envia um alerta ao usuário sobre a ação. As pessoas também podem ser desabilitadas temporariamente por poucos dias ou uma semana. A base para desabilitação imediata de uma conta inclui o uso de nome falso ou a promoção de exploração infantil.

Leis regionais

Apesar dos padrões da comunidade serem globais, a empresa obedece as leis de um país.

Por exemplo, insultar visual ou verbalmente o primeiro presidente da Turquia, Mustafa Kemal Ataturk, é ilegal na Turquia, de modo que se o Facebook é notificado sobre uma postagem dessas, ele limita imediatamente a visibilidade dessa postagem na Turquia. O mesmo com a negação do Holocausto em países onde isso é contra a lei.

O Facebook não divulga o número de queixas que recebe nem quanto conteúdo é removido. Ele também não diz quantas contas são suspensas ou desativadas. Mas basta uma rápida busca pela Internet para ver que muitos usuários ficam confusos quando tentam fazer o login e descobrem que não podem.

Isso incluiu a União Americana pelas Liberdades Civis (ACLU, na sigla em inglês). A organização postou no ano passado uma foto de uma estátua de mulher com os seios nus em um artigo em sua página no Facebook sobre arte pública controversa no Kansas.

O Facebook removeu a postagem, dizendo à organização que ela tinha violado os padrões da comunidade do Facebook. Ele então impediu a ACLU de postar por 24 horas, argumentando que ela tinha postado novamente, o que não fez.

Assim que a ACLU contatou o gerente de políticas públicas do Facebook, pedidos de desculpa foram feitos e a postagem foi autorizada a voltar. Tudo tinha sido um erro. Mas como disse Rowland, "nosso sucesso no final não serve como conforto para qualquer um que tenha mais dificuldade em ter seus e-mails respondidos do que a ACLU".

Normas aplicadas sem aviso

Citron, autora de "Hate Crimes in Cyberspace" (Crimes de ódio no ciberespaço, em tradução livre), disse sobre o Facebook: "Eu acho que é positivo que possam estabelecer normas da comunidade". O problema é uma falta do "devido processo tecnológico".

"Eles deveriam lhe dar um aviso significativo, para você saber o que fez de errado e ter um processo de apelação significativo", disse Citron.

Bickert, do Facebook, reconheceu que "uma área onde estamos focados é melhorar a informação que compartilhamos com as pessoas sobre os padrões de nossa comunidade e quando agimos com base em conteúdo denunciado".

Para Letwin, isso já vem tarde. Um mês após sua conta ter sido desativada, ele recebeu um e-mail pedindo desculpas, dizendo que tudo tinha sido um erro por parte do Facebook.

Um porta-voz do Facebook disse que uma denúncia foi feita contra Letwin por uso de nome falso, o que ele não tinha feito, e um revisor que verificou sua conta então achou erroneamente que ela violava os padrões do Facebook em relação à promoção de violência e terrorismo. Mas o processo demorou muito mais do que deveria, ele reconheceu, dizendo que, tipicamente, uma apelação deve ser respondida em poucos dias.

"Foi algo kafkiano", disse Letwin. "Você não sabe se postou demais, se obteve 'curti' demais. As regras mudam constantemente."

Alina Tugend
UOL
Comentários
0 Comentários

Nenhum comentário:

Postar um comentário

UOL Cliques / Criteo

Related Posts Plugin for WordPress, Blogger...