Pavel Durov, CEO e fundador do aplicativo de mensagens Telegram, foi detido em Paris no sábado como parte de uma investigação francesa em andamento sobre crimes financeiros e cibernéticos. Na segunda-feira, as autoridades francesas disseram que ele continua preso, embora não tenha sido acusado de nenhum crime;
O presidente francês Emmanuel Macron negou a prisão tenha sido motivada politicamente. Durov tem cidadania francesa e dos Emirados Árabes Unidos, mas é originário da Rússia; a França tem sido altamente crítica em relação à invasão da Ucrânia pela Rússia e impôs sanções à sua economia;
Os detalhes sobre o que exatamente levou à prisão são limitados. No entanto, de acordo com os promotores franceses, Durov está sendo mantido como parte de uma investigação francesa mais ampla. O New York Times informou que os promotores disseram que estão investigando uma “pessoa não identificada” que, segundo eles, pode ter cometido uma extensa lista de crimes – aparentemente com a ajuda do Telegram – que inclui a distribuição de material de abuso sexual infantil, lavagem de dinheiro e tráfico de drogas. O Washington Post informou que a polícia francesa sugeriu que os “crimes sexuais contra crianças” são uma área de foco especial para as autoridades.
Não está claro qual é o relacionamento de Durov, se é que existe algum, com a “pessoa não identificada”. A menos que seja formalmente acusado, Durov só poderá ser detido até quarta-feira.
Essa não é a primeira vez que o Telegram é ligado a atividades ilegais. É uma plataforma mundialmente popular que oferece canais de transmissão (nos quais os usuários podem enviar texto e mídia para grandes grupos de pessoas) e bate-papos de usuário para usuário. Ele também oferece o que chama de conversas de “bate-papo secreto” que são criptografadas de ponta a ponta, o que significa que as mensagens enviadas só podem ser decifradas pelos participantes da conversa e que ninguém mais, nem mesmo o Telegram, pode ver o conteúdo;
Esse recurso, bem como outros recursos de privacidade, como a exclusão automática de mensagens, tornam o aplicativo extremamente útil para dissidentes políticos e jornalistas que tentam trabalhar sob regimes repressivos ou proteger fontes. Mas o aplicativo também se tornou, ao longo dos anos, um espaço onde extremistas podem radicalizar os usuários e organizar ataques terroristas;
Isso levou a uma certa pressão por parte dos governos para que o Telegram seja mais colaborativo nos dados que compartilha com as autoridades. Apesar disso, no entanto, o Telegram tem conseguido evitar confrontos legais dramáticos – até agora.
A prisão de Durov está renovando o escrutínio sobre o aplicativo e reacendendo as questões muito debatidas sobre liberdade de expressão e os desafios da moderação de conteúdo nas mídias sociais.
Telegram e o problema da moderação de conteúdo
Durov e seu irmão Nikolai fundaram o Telegram para oferecer um aplicativo que centralizasse a privacidade do usuário após a “Revolução da Neve” da Rússia em 2011 e 2012, quando fraudes eleitorais flagrantes desencadearam meses de protestos, culminando em uma repressão governamental severa e em constante evolução. Anteriormente, Durov brigou com as autoridades russas que queriam suprimir o discurso no serviço semelhante ao Facebook que ele fundou, chamado VKontakte;
Nos anos que se seguiram à sua fundação, o Telegram supostamente possibilitou alguns crimes realmente chocantes. Talvez o mais infame seja o fato de ter sido usado para coordenar os ataques do ISIS em Paris e Berlim. Após esses ataques, o Telegram reprimiu as atividades baseadas no ISIS no aplicativo, mas suas políticas de moderação de conteúdo foram alvo de muito escrutínio.
Como a Vox observou, essas políticas são mais frouxas do que as de outros grupos de mídia social, e veículos como o Washington Post relataram que o Telegram foi palco de uma variedade de conteúdo criminoso, incluindo pornografia infantil. Manter esse tipo de material fora de uma plataforma é uma tarefa árdua, mas não impossível, disse Alessandro Accorsi, pesquisador do International Crisis Group, à Vox;
“A eficácia da moderação de conteúdo depende em grande parte da plataforma e dos recursos que ela aloca para a segurança”, disse Accorsi. “As empresas de mídia social geralmente são reativas. Elas querem limitar os recursos financeiros dedicados à moderação, bem como as possíveis dores de cabeça legais, políticas e éticas. Portanto, o que geralmente acontece é que elas concentram seus esforços em alguns grupos ou questões para os quais a inação de sua parte acarreta custos legais ou de reputação.”
Por exemplo, quando o ISIS usa um serviço para ataques terroristas, esse serviço se concentra em impedir que o ISIS use seus produtos;
Nas comunicações que não são criptografadas de ponta a ponta, as empresas de tecnologia usam uma combinação de investigadores humanos e programas acionados por algoritmos para classificar o conteúdo. O tipo de criptografia de ponta a ponta usada nos “chats secretos” do Telegram, no entanto, torna esse tipo de moderação praticamente impossível.
O que também complica as coisas é a natureza variada da legislação da Internet em todo o mundo. Nos Estados Unidos, os editores geralmente são legalmente protegidos de responsabilidade sobre o que os usuários publicam. Mas esse não é o caso universal; muitos países têm estruturas legais muito mais rígidas em relação à responsabilidade de intermediários. A Lei SREN da França é extremamente rigorosa e pode cobrar multas dos editores por violações de conteúdo.
“É algo realmente difícil de fazer, especialmente em um contexto comparativo, porque o que é discurso de ódio, extremo ou radical em um lugar como os EUA será diferente de Mianmar, Bangladesh ou outros países”, disse David Muchlinski, professor de assuntos internacionais da Georgia Tech, à Vox. Isso torna a moderação de conteúdo “uma ferramenta desajeitada, na melhor das hipóteses”.
O Telegram, em resposta à recente pressão externa, empregou alguma moderação de conteúdo, disse Accorsi à Vox. Ele baniu canais associados a um punhado de organizações (mais recentemente o Hamas e grupos de extrema direita no Reino Unido), mas milhares de grupos problemáticos ainda estão presentes;
A investigação da França sugere que o Telegram pode não estar fazendo o suficiente para impedir que agentes mal-intencionados usem a plataforma para cometer crimes;
Fonte: iNoticias