Por que o CEO do Telegram foi preso na França

Por Redação
8 Min
Steve Jennings/Getty Images for Tech Crunch
Pavel Durov, CEO e cofundador do Telegram, fala no palco durante o primeiro dia do TechCrunch Disrupt em 21 de setembro de 2015, em São Francisco, Califórnia. | Steve Jennings/Getty Images for Tech Crunch

Pavel Durov, CEO e fundador do aplicativo de mensagens Telegram, foi detido em Paris no sábado como parte de uma investigação francesa em andamento sobre crimes financeiros e cibernéticos. Na segunda-feira, as autoridades francesas disseram que ele continua preso, embora não tenha sido acusado de nenhum crime;

O presidente francês Emmanuel Macron negou a prisão tenha sido motivada politicamente. Durov tem cidadania francesa e dos Emirados Árabes Unidos, mas é originário da Rússia; a França tem sido altamente crítica em relação à invasão da Ucrânia pela Rússia e impôs sanções à sua economia;

Os detalhes sobre o que exatamente levou à prisão são limitados. No entanto, de acordo com os promotores franceses, Durov está sendo mantido como parte de uma investigação francesa mais ampla. O New York Times informou que os promotores disseram que estão investigando uma “pessoa não identificada” que, segundo eles, pode ter cometido uma extensa lista de crimes – aparentemente com a ajuda do Telegram – que inclui a distribuição de material de abuso sexual infantil, lavagem de dinheiro e tráfico de drogas. O Washington Post informou que a polícia francesa sugeriu que os “crimes sexuais contra crianças” são uma área de foco especial para as autoridades.

Não está claro qual é o relacionamento de Durov, se é que existe algum, com a “pessoa não identificada”. A menos que seja formalmente acusado, Durov só poderá ser detido até quarta-feira.

Essa não é a primeira vez que o Telegram é ligado a atividades ilegais. É uma plataforma mundialmente popular que oferece canais de transmissão (nos quais os usuários podem enviar texto e mídia para grandes grupos de pessoas) e bate-papos de usuário para usuário. Ele também oferece o que chama de conversas de “bate-papo secreto” que são criptografadas de ponta a ponta, o que significa que as mensagens enviadas só podem ser decifradas pelos participantes da conversa e que ninguém mais, nem mesmo o Telegram, pode ver o conteúdo;

Esse recurso, bem como outros recursos de privacidade, como a exclusão automática de mensagens, tornam o aplicativo extremamente útil para dissidentes políticos e jornalistas que tentam trabalhar sob regimes repressivos ou proteger fontes. Mas o aplicativo também se tornou, ao longo dos anos, um espaço onde extremistas podem radicalizar os usuários e organizar ataques terroristas;

Isso levou a uma certa pressão por parte dos governos para que o Telegram seja mais colaborativo nos dados que compartilha com as autoridades. Apesar disso, no entanto, o Telegram tem conseguido evitar confrontos legais dramáticos – até agora.

A prisão de Durov está renovando o escrutínio sobre o aplicativo e reacendendo as questões muito debatidas sobre liberdade de expressão e os desafios da moderação de conteúdo nas mídias sociais.

Telegram e o problema da moderação de conteúdo

Durov e seu irmão Nikolai fundaram o Telegram para oferecer um aplicativo que centralizasse a privacidade do usuário após a “Revolução da Neve” da Rússia em 2011 e 2012, quando fraudes eleitorais flagrantes desencadearam meses de protestos, culminando em uma repressão governamental severa e em constante evolução. Anteriormente, Durov brigou com as autoridades russas que queriam suprimir o discurso no serviço semelhante ao Facebook que ele fundou, chamado VKontakte;

Nos anos que se seguiram à sua fundação, o Telegram supostamente possibilitou alguns crimes realmente chocantes. Talvez o mais infame seja o fato de ter sido usado para coordenar os ataques do ISIS em Paris e Berlim. Após esses ataques, o Telegram reprimiu as atividades baseadas no ISIS no aplicativo, mas suas políticas de moderação de conteúdo foram alvo de muito escrutínio.

Como a Vox observou, essas políticas são mais frouxas do que as de outros grupos de mídia social, e veículos como o Washington Post relataram que o Telegram foi palco de uma variedade de conteúdo criminoso, incluindo pornografia infantil. Manter esse tipo de material fora de uma plataforma é uma tarefa árdua, mas não impossível, disse Alessandro Accorsi, pesquisador do International Crisis Group, à Vox;

“A eficácia da moderação de conteúdo depende em grande parte da plataforma e dos recursos que ela aloca para a segurança”, disse Accorsi. “As empresas de mídia social geralmente são reativas. Elas querem limitar os recursos financeiros dedicados à moderação, bem como as possíveis dores de cabeça legais, políticas e éticas. Portanto, o que geralmente acontece é que elas concentram seus esforços em alguns grupos ou questões para os quais a inação de sua parte acarreta custos legais ou de reputação.”

Por exemplo, quando o ISIS usa um serviço para ataques terroristas, esse serviço se concentra em impedir que o ISIS use seus produtos;

Nas comunicações que não são criptografadas de ponta a ponta, as empresas de tecnologia usam uma combinação de investigadores humanos e programas acionados por algoritmos para classificar o conteúdo. O tipo de criptografia de ponta a ponta usada nos “chats secretos” do Telegram, no entanto, torna esse tipo de moderação praticamente impossível.

O que também complica as coisas é a natureza variada da legislação da Internet em todo o mundo. Nos Estados Unidos, os editores geralmente são legalmente protegidos de responsabilidade sobre o que os usuários publicam. Mas esse não é o caso universal; muitos países têm estruturas legais muito mais rígidas em relação à responsabilidade de intermediários. A Lei SREN da França é extremamente rigorosa e pode cobrar multas dos editores por violações de conteúdo.

“É algo realmente difícil de fazer, especialmente em um contexto comparativo, porque o que é discurso de ódio, extremo ou radical em um lugar como os EUA será diferente de Mianmar, Bangladesh ou outros países”, disse David Muchlinski, professor de assuntos internacionais da Georgia Tech, à Vox. Isso torna a moderação de conteúdo “uma ferramenta desajeitada, na melhor das hipóteses”.

O Telegram, em resposta à recente pressão externa, empregou alguma moderação de conteúdo, disse Accorsi à Vox. Ele baniu canais associados a um punhado de organizações (mais recentemente o Hamas e grupos de extrema direita no Reino Unido), mas milhares de grupos problemáticos ainda estão presentes;

A investigação da França sugere que o Telegram pode não estar fazendo o suficiente para impedir que agentes mal-intencionados usem a plataforma para cometer crimes;

Fonte: iNoticias

Compartilhe Isso