Theme Layout

Boxed or Wide or Framed

Theme Translation

Display Featured Slider

no

Featured Slider Styles

Yes

Display Trending Posts

Display Instagram Footer

0

Dark or Light Style

Light
Todos os direitos reservados para HVSK advocacia e consultoria. Tecnologia do Blogger.

Entre a Imunidade e a Responsabilidade das Plataformas pelo Conteúdo Publicado por Terceiros


 

INTRODUÇÃO

A importância central adquirida pelas plataformas na última década, associada a uma série de escândalos mais recentes, levou legisladores de diversos países a rediscutir a responsabilidade de empresas como Google, Facebook e Twitter na propagação do terrorismo e de discursos de ódio, no assédio virtual e na difusão de campanhas de desinformação e manipulação eleitoral. Há uma pressão crescente por maior regulação.

Entre a Responsabilidade e a Imunidade das Plataformas


Casos como o Cambridge Analytica (The New York Times, 2018) parecem ter colocado uma pá de cal à era romântica da internet, revelando ao grande público que a mesma tecnologia apta a se apresentar como catalizadora da liberdade de expressão e da participação popular também pode contribuir para a manipulação de comportamentos e eleições, para a censura e a criação de bolhas de informação, para o controle do discurso, para invasões à privacidade e para o bullying (LAIDLAW, 2015) .

Nos últimos anos, leis que impõem novas obrigações aos provedores de aplicação na internet têm sido aprovadas por diferentes parlamentos e a pressão da sociedade e de governos para que as plataformas assumam um papel mais ativo na moderação e na retirada de conteúdo é cada vez maior.

No centro das diversas frentes por maior regulação, está a revisão do sistema de responsabilidade ao qual os intermediários estão sujeitos em virtude do conteúdo criado e compartilhado pelos usuários. Por mais que haja receios de que a imposição de novas responsabilidades possa ter como efeito colateral o cerceamento à inovação e à liberdade de expressão, é cada vez mais improvável que o sistema de imunidade se mantenha intacto, da maneira como inicialmente criado.

Considerado o quadro, o presente artigo tem por objetivo expor o que está em jogo nas discussões sobre eventuais alterações no sistema de responsabilidade civil e como essas mudanças podem impactar a proteção de direitos fundamentais. O texto trata essencialmente do debate relacionado à responsabilidade de mecanismos de busca e de redes sociais em virtude de atos praticados por terceiro.

Não é o foco deste artigo a regulação da responsabilidade civil de plataformas como fintechs, voltadas à prestação de serviços de saúde, transporte e acomodação ou destinadas à criação de Marketplaces para a venda de produtos, tendo em vista que a prestação desses serviços levanta questões diversas sobre riscos e obrigações envolvidos.  Igualmente, o artigo não cuida da responsabilidade das plataformas pela prática de atos próprios, como aquela decorrente do mau uso de dados pessoais do respectivo usuário.

2. UMA BREVE HISTÓRIA SOBRE O REGIME DE RESPONSABILIDADE DAS PLATAFORMAS POR ATOS PRATICADOS POR TERCEIROS

As gigantes da internet gostam de ver o respectivo sucesso como fruto exclusivo do brilhantismo de seus fundadores. Boa parte dos economistas, contudo, enxergam que o rápido crescimento dessas empresas também decorre de outros fatores, tais como os efeitos de rede[1] e de um sistema jurídico único de responsabilidade criado na década de 90, o qual, em linhas gerais, torna as plataformas imunes por eventuais danos causados a partir da utilização de seus serviços

Em 1996, os Estados Unidos foram o primeiro país do globo a editar uma lei tratando da responsabilidade civil dos provedores de internet em virtude de conteúdo gerado pelos usuários (CDA,1996)[2]. Ao lado das normas que dispensavam os provedores de monitorar e filtrar vídeos, músicas e textos publicados pelos usuários, havia ainda um conjunto de regras que conferia aos provedores um porto seguro (safe harbor) contra pedidos de indenização, desde que desconhecessem os ilícitos praticados em suas redes e sites.

O mote para a edição da Seção n° 230 do Comunication Decency Act – CDA[3] foi uma ação ajuizada por uma firma de investimento contra a Prodigy, uma das primeiras prestadoras de serviços on-line, alegando que a empresa havia sido gravemente difamada em um dos fóruns de discussão presentes no site da plataforma[4]. A Suprema Corte de Nova York considerou o provedor responsável, entendendo que, ao publicar para os usuários os termos de uso de seus serviços e buscar moderar e retirar das salas de debate mensagens que não se enquadrassem nas regras divulgadas para a comunidade, a Prodigy exercia atividade editorial semelhante à de um jornal.

Em resposta, o Congresso Americano editou normas destinadas a criar um porto seguro para as plataformas, o que, segundo os legisladores, constituía um meio para assegurar a liberdade de expressão na internet bem como para proteger um enorme conjunto de novas empresas de ações judiciais potencialmente desastrosas.

A justificativa do parlamento estadunidense restou fundada na crença de que as regras tradicionais sobre responsabilidade civil, em virtude de atos ilícitos praticados por terceiros, eram simplesmente inadequadas para um ambiente no qual uma quantidade enorme de conteúdo presente nas plataformas era gerada pelos próprios usuários. Os maiores riscos seriam em referência à inovação e à liberdade de expressão.

Dois anos depois, a Europa, em linhas gerais[5], seguiu a política adotada pelos americanos prevendo princípios semelhantes nos artigos 12 a 15 da eCommerce Directive (EC 2000/31). A partir de então, diversos países adotaram a política, formando-se para os provedores de internet um sistema global fundado na responsabilidade subjetiva, como regra geral.

A Corte Europeia de Justiça confirmou diversas vezes esse sistema, resistindo inclusive à pressão exercida por grandes empresas titulares de direitos autorais. Reiteradamente, afirmou não serem os provedores de internet obrigados nem a realizar prévio monitoramento de conteúdo nem a aplicar filtros voltados a identificar antecipadamente conteúdos ilícitos postados por terceiros, tendo em vista a legislação da União Europeia. (FROSIO, 2017)[6]

A criação de um porto seguro para as plataformas digitais permitiu a publicação de uma enorme quantidade de conteúdo, fazendo muitos defenderem que a internet não se tornaria um ambiente extraordinário para o exercício do debate público nem seria tão dinâmica se não fosse o modelo de responsabilidade criado. A imunidade conferida aos intermediários constituiu elemento essencial para a rápida expansão da rede gerada pelas empresas de tecnologia, o que fez alguns defenderem que nenhum outro artigo do Código dos EUA contribuiu mais para a geração de riqueza do que a Seção n° 230 do CDA (POST, 2015)[7]

Além disso, há ainda o justo receio de que a imposição de responsabilidade civil em virtude do conteúdo publicado por terceiros faria com que os intermediários acabassem cedendo à tentação de se tornarem censores privados.

Como bem ressalta Daphne Keller (2018), se mesmo cortes constitucionais divergem sobre os limites da liberdade de expressão em boa parte dos casos relacionados à difamação, direito autoral, privacidade, segurança, defesa nacional entre outros temas, bem como decidem com base em maiorias apertadas, não é possível esperar que as plataformas digitais consigam realizar uma moderação de conteúdos isenta de erros ou críticas. Por melhor que fosse a tecnologia, assim, não caberia a essas empresas se anteciparem ao julgamento da audiência, usando monitoramento geral e filtragem para praticar uma espécie de censura prévia.

2.1 O regime de responsabilidade para casos relacionados à violação à propriedade intelectual

Paralelamente ao regime geral de imunidade civil, Estados Unidos e especialmente a Europa adotaram sistemas de responsabilidade específicos para as plataformas, relacionados ao serviço prestado e à categoria de conteúdo publicado pelos usuários.

Nos Estados Unidos, os ilícitos relacionados à propriedade intelectual são regulados pelo Digital Millenium Copyright Act (DMCA), de 1998, o qual criou um sistema de responsabilidade comumente chamado de notice and takedown. Nesse sistema, os provedores gozarão da imunidade civil se: a) não tiverem conhecimento sobre a ilicitude do conteúdo postado; b) não receberem benefício financeiro a partir da atividade infringente e c) a partir do conhecimento da ilicitude, agirem imediatamente para remover o conteúdo ou bloquear o respectivo acesso.

Assim como ocorre no regime geral, não há obrigação de monitoramento de conteúdo ou filtragem. Apesar disso, grandes plataformas já adotam mecanismos de filtragem de maneira voluntária. O Google instalou no Youtube em 2008 o Content ID e a Vimeo lançou o Copyright Match em 2014. Os dois algoritmos buscam comparar o vídeo postado pelo usuário com vídeos e imagens constantes em uma base de dados previamente fornecida pelos titulares de direitos autorais, partindo do princípio de que cada conteúdo digital possui uma identidade única.

A lei americana ainda determina que o conhecimento sobre a ilicitude ocorre a partir da notificação extrajudicial[8]. Ao recebê-la, o provedor deve retirar o material indicado como infringente da rede e avisar o usuário que o publicou. Se fizer isso, mantém a imunidade. Se a pessoa que publicou o conteúdo se opuser à notificação, o provedor poderá republicar o material e caberá ao titular da propriedade intelectual iniciar uma demanda contra o usuário, ficando o provedor de internet excluído de qualquer litígio.

Ao contrário do DMCA, o art. 14 da eCommerce Directive (EC 2000/31) não estabelecia um marco para definir o conhecimento da plataforma sobre a ilicitude, fazendo com que os estados-membros adotassem critérios distintos.[9]

Em abril de 2019, seguindo a tendência de estabelecer maiores obrigações aos provedores de aplicação, o Conselho Europeu aprovou a intitulada Directive on Copyrigt on the Digital Single Market (Diretiva 2019/790), com a criação de novas exigências para que as plataformas pudessem manter a imunidade em decorrência da publicação e do compartilhamento pelos usuários de conteúdos protegidos por direito autoral.

Dentre todas as polêmicas alterações promovidas pela norma, talvez a principal tenha sido considerar que, a partir do upload de conteúdo pelos usuários, as plataformas também fazem um ato de comunicação e uma execução pública das obras protegidas, precisando em razão dessa nova qualificação jurídica: a) obter uma licença dos titulares de direitos autorais, assim como tradicionalmente já fazem as rádios e televisões, ou b) adotar mecanismos para impedir a publicação e o compartilhamento de conteúdo autoral em seus serviços.

Além disso, a Directive on Copyrigt on the Digital Single Market estabeleceu que, para manter a imunidade civil, as plataformas precisam adotar procedimentos para minimizar os riscos de que conteúdos protegidos pelo fair use ou polêmicos, mas não ilícitos, sejam filtrados ou retirados, o que basicamente, ocorre por meio da criação de canais de comunicação que permitam a formalização e análise célere de reclamações contra eventual bloqueio[10] ou retirada de conteúdo. As razões das mudanças serão detalhadas nos tópicos seguintes.

2.2 O combate à pornografia infantil

Desde 2008, nos Estados Unidos, uma lei federal autoriza o Centro Nacional para Crianças Desaparecidas a compartilhar com os provedores uma base de dados com os hashes de imagens relacionadas à pornografia infantil. Embora não haja obrigatoriedade de prévio monitoramento pelas plataformas, os hashes são usados por elas para encontrar, deletar e informar às autoridades sobre casos de pornografia infantil na internet.

Na Europa, além da existência de canais de comunicação semelhantes entre os Estados-membros e a indústria, a Diretiva 2011/93/EU obriga que os Estados-membros adotem medidas preventivas para combater a exploração e o abuso sexual de crianças e adolescentes, exigindo a pronta retirada ou o bloqueio – quando localizados fora do território europeu de sites contendo ou disseminando pornografia infantil.

Estudo produzido pelo parlamento europeu revela que, para dar cumprimento à diretiva, metade dos Estados-membros prevê, nas respectivas legislações nacionais, a possibilidade de bloqueio de plataformas a partir de uma ordem judicial ou determinação de outra autoridade, sendo comum também o compartilhamento entre os estados de hashes e listas com URLs nas quais constam o material ilícito. Os provedores de hospedagem, uma vez informados sobre o conteúdo, podem ainda ser responsabilizados caso não atuem prontamente para retirá-lo. (BERTOLINI, 2021)

Conforme ainda o relatório, a política pública adotada mostra bons resultados, já que 93% do conteúdo identificado tem o respectivo acesso bloqueado ou retirado da internet europeia em menos de 72 horas.

2.3 O combate ao discurso de ódio e à desinformação

O combate ao discurso de ódio na Europa ocorre com suporte na Decisão-Quadro do Conselho da União Europeia n° 2008/913/JHA, mas não há no documento regras específicas sobre o combate na internet. Há, contudo, mecanismos de cooperação.

Em maio de 2016, a Comissão Europeia e as maiores empresas de tecnologia – Google, Twitter, Facebook e Microsoft – anunciaram a adoção de um código de conduta que inclui uma série de compromissos a serem assumidos pelas empresas de forma a diminuir a disseminação do discurso de ódio na internet, o que inclui o uso de filtragem de conteúdo.[11]

Em nível nacional, a Alemanha aprovou em 2007 uma lei contra a prática de crimes de ódio e fake news nas redes sociais (Network Enforcement Act – NetzG), a qual obriga as plataformas a retirar conteúdos que sejam evidentes ilícitos em 24 horas a partir da notificação do usuário, conferindo o prazo de 7 dias para investigação e retirada do conteúdo quando a ilicitude não for evidente. O não cumprimento dessas obrigações pode gerar multas de até 50 milhões de euros.

A lei exige que as plataformas disponibilizem um mecanismo simples para reclamações, bem como um procedimento para que o usuário afetado pela retirada do conteúdo possa ajuizar um pedido de revisão, cujo prazo é de 15 dias para a formalização. A lei é aplicável a qualquer rede social que tenha mais de 2 milhões de usuários registrados na Alemanha. As redes são também obrigadas a apresentar relatórios de transparência, se receberem mais de 100 reclamações por ano.

Em junho de 2020, a França aprovou a Lei n° 2020-766 para combater crimes de ódio e violência contra racismo e preconceito religioso. A lei, assim como na Alemanha, estabelecia o prazo de 24 horas para a retirada de conteúdo evidentemente ilícito. Foi, contudo, invalidada pelo Conselho Constitucional, que consignou a existência de ofensa à liberdade de expressão dos usuários, a transformação das plataformas digitais em juízes para julgar a licitude ou ilicitude do conteúdo publicado e a concessão de prazo excessivamente reduzido para a análise do material, em especial quando considerado o risco de haver um elevado número de reclamações. (BERTOLINI, 2021)[12]

 Não há uma específica Diretiva sobre o combate à desinformação na União Europeia, mas, em 2018, os principais representantes das plataformas, redes sociais e anunciantes acordaram na adoção de um código de boas práticas, mediante o qual se comprometeram: a interromper a publicidade e incentivos de monetização para conteúdos falsos, assegurar que os anúncios sejam claramente distinguíveis do conteúdo editorial, permitir a identificação da origem da publicidade relacionada a propaganda política e a conteúdo específico.

Além disso, as plataformas devem implementar políticas sobre identidade dos usuários e uso indevido de bots automatizados, tornando claro o teor dessa política para os usuários, bem como investir em meios para priorizar informações relevantes, autênticas e confiáveis.

 Na França, também em 2018, foi aprovada a Lei n° 2018-1202 que impôs obrigações específicas às plataformas durante o período eleitoral. Dentre outras obrigações, as plataformas devem: a) oferecer informações que permitam aos usuários identificar quem paga para promover determinado conteúdo e quem usa seus dados pessoais para promover conteúdos informativos relacionados ao debate de interesse público; b) implementar medidas para combater a disseminação de informações falsas, tais como um mecanismo que permita aos usuários realizarem denúncias, em especial quando se trata de conteúdo promovido em nome de terceiros. O descumprimento dessas obrigações pode sujeitar as plataformas a multas.

2.4 Terrorismo

Na União Europeia, o art. 21 da Diretiva 2017/541 EU estabelece que os Estados-membros devem adotar medidas para a remoção ou bloqueio imediato – quando a plataforma estiver localizada fora do território europeu – de conteúdo terrorista, competindo aos países estabelecerem procedimentos transparentes e que respeitem o devido processo legal.

Embora não imponha o uso de filtros ou o monitoramento de conteúdo, a Diretiva incentiva a indústria a tomar medidas voluntárias para impedir o mau uso dos respectivos serviços ou auxiliar os Estados-membros. Em 2016, Facebook, Twitter, Microsoft e Youtube anunciaram a criação de um banco de dados comum – a partir de hashes compartilhados para ajudar na filtragem de conteúdo terrorista disseminado na internet.

Lançado em 2017, o banco de dados já acumulou 40 mil hashes de vídeos e imagens. Além disso, as grandes plataformas continuam a desenvolver bots para a identificação e remoção automática de conteúdo on-line. De acordo com o Youtube, cerca de 150 mil vídeos foram removidos desde 2017. Já o Facebook informa que, em 83% dos casos, consegue remover o upload de arquivos em sua rede até uma hora depois de notificado sobre determinado vídeo ou imagem de conteúdo terrorista.

3. PLATAFORMAS E REDES SOCIAIS NÃO SÃO MEROS INTERMEDIÁRIOS, MAS PODEM SER EQUIPARADOS A JORNAIS E TELEVISÕES?

Em 2017, a E-ventures Worldwide, uma empresa de tecnologia dedicada a melhorar o ranking e a visibilidade de websites em listas de resultados, processou o Google em uma Corte no estado da Flórida, afirmando que a companhia havia desindexado manualmente de sua lista de resultados 231 sites que pertenciam a seus clientes. Sustentou que a desindexação manual pelo Google constituía abuso de poder econômico, bem como uma espécie de censura[13]. Argumentou ainda que a desindexação manual era também uma atitude falsa e enganosa em relação aos consumidores, tendo em vista as frequentes alegações do Google no sentido de que a lista de resultados em seu site de busca representava um mero reflexo do conteúdo público disponível na internet.

O Google respondeu que, independentemente das alegações de abuso de poder econômico, a empresa tinha direito de realizar escolhas editoriais sobre a sua própria lista de resultados, tendo em vista o direito à liberdade de expressão assegurado pela primeira emenda. A Corte concordou com o Google, praticamente equiparando-o a um jornal e consignando que a possibilidade de a empresa desindexar manualmente resultados de sua lista é um direito assegurado pela liberdade editorial, não importando se o ato é justo ou injusto.[14] Consequentemente, não houve a imposição de qualquer responsabilidade ao site de busca.[15]

Na Europa, outro caso no qual se buscava condenação do Google levou a empresa a apresentar argumentos opostos. Um cidadão italiano processou o Google por difamação porque, quando o seu nome era digitado na caixa de busca, o site automaticamente sugeria expressões como “vigarista” e “fraude” para completar as palavras a serem utilizadas na pesquisa.

Em sua defesa, ao contrário da apresentada na Flórida, o Google sustentou que as sugestões dadas pela função autocomplete ou pelos links disponibilizados na lista de resultados não derivam de suas próprias crenças ou escolhas editoriais, mas são consequência de meros cálculos matemáticos fundados nas pesquisas previamente realizadas por outros usuários, dentre inúmeros fatores usados pelos algoritmos para conferir relevância a determinados sites. (MEYER, 2011) A Corte de Milão, no entanto, condenou a empresa.

Considerados esses dois exemplos, como o Google e outras plataformas devem ser tratados pela regulação? Como um jornal, que possui discursos e opiniões próprias, ou como um mero intermediário do discurso de terceiros? Sites de busca e redes sociais, afinal, são empresas de mídia ou simples plataformas de tecnologia? Atuam praticamente como as antigas empresas de telefone, as quais não tinham qualquer controle em relação ao discurso transmitido pelos usuários?

Não são de todo sem razão os argumentos de empresas como o Google quando sustentam a impossibilidade de equipará-lo a jornais e revistas.  Apesar de semelhanças, há distinções bastante significativas entre a atividade de redes sociais e aplicativos de busca, de um lado, e de jornais e revistas de outro lado.

Heather Whitney (2018) destaca que a primeira grande diferença é o fato de empresas como Google, Facebook e Twitter não se apresentarem para o público como editores. Enquanto jornais e revistas se apresentam como editores e fazem questão de afirmar que defendem a correção dos fatos publicados em suas páginas, bem como as opiniões expostas por seus colunistas, as empresas de tecnologia fazem de tudo para que, em relação a elas, o público pense exatamente o contrário.  Embora a percepção de parte do público possa ter começado a mudar, a grande maioria das pessoas não vinculam os links apresentados em aplicativos de busca ou no trending topics de redes sociais à imagem dessas empresas ou à ideologia por elas defendida.

Uma livraria, por exemplo, seleciona quais livros irá vender e quais obras receberão maior destaque nas respectivas prateleiras. No entanto, ao organizar e vender os livros, não se torna responsável pelo conteúdo de cada obra, ainda que a escolha do livreiro sobre quais livros receberão maior destaque transmita algum tipo de informação aos clientes. Mesmo um supermercado, ao organizar os produtos nas prateleiras, transmite uma enorme quantidade de informações aos clientes, havendo boas razões para que algumas mercadorias fiquem no fundo da loja enquanto outras, perto do caixa. Ainda assim, não é possível equiparar as escolhas do supermercado sobre a organização dos produtos, sobre o que mostrar e não mostrar e sobre o que conferir mais destaque aos clientes, às escolhas feitas por editores de jornais e revistas.

Em síntese, as plataformas basicamente atuam como veículo para transmitir o discurso de terceiros. Não exercem controle editorial rígido sobre o que publicam nem assumem a responsabilidade pelo conteúdo publicado da mesma forma que jornais e revistas. Há ainda uma enorme diferença em relação à escala do que é publicado por qualquer grande plataforma e um grande jornal. Conforme destacam Jameel Jaffer e Scott Wilkens, talvez, e exatamente em razão dessas diferenças, o direito fundamental à liberdade de expressão não possa ser aplicado às plataformas de forma idêntica à maneira como aplicado a jornais e revistas.[16]

De outro lado, é falsa a ideia de que as plataformas atuam como meras empresas de telefone ou de correios, as quais não detinham qualquer controle sobre o conteúdo do discurso realizado por terceiros no canal disponibilizado para comunicação.

Durante muito tempo, as plataformas se esforçaram para transmitir ao público que o conteúdo revelado na tela é decorrente de um mero cálculo matemático aplicado ao que está sendo produzido e procurado pelos próprios usuários da rede. Várias delas, aliás, sempre fizeram questão de afirmar que não são empresas de comunicação, mas meras empresas de tecnologia.

Plataformas, porém, não apenas mediam o discurso público, mas o influenciam drasticamente. A moderação de conteúdo feita por elas não é ocasional, mas representa a essência do negócio. A moderação do discurso de terceiros representa a essência do que as plataformas fazem e é o principal serviço oferecido por elas. Aliás, é exatamente na editoração que elas dedicam a maior parte de seu tempo, além de recursos materiais e humanos. (GILLESPIE, 2018)

Ao mesmo tempo em que não se pode responsabilizar diretamente as plataformas porque algumas pessoas desejam publicar vinganças pornográficas, fazer bullying, propagar terrorismo ou praticar discursos de ódio, atualmente, já há muita informação sobre as maneiras como elas facilitam, amplificam e exacerbam determinados tipos de conteúdo, bem como direcionam o usuário.

Como destaca Tarleton Gillespie   (2018), no momento em que as redes sociais criaram perfis e tópicos de discussão, maneiras de destacar, organizar e categorizar o que os usuários postam na web ou de indicar o que é popular e está em destaque; no momento em que as plataformas criaram estratégias fundadas em estudos psicológicos para incentivar o engajamento do usuário e mantê-lo por mais tempo na rede; no momento em que começaram a  usar robôs falando como se fossem seres humanos e a moderar discurso de forma distinta de meramente listar usuários e colocar as respectivas mensagens em ordem cronológica, as plataformas deixaram de simplesmente exercer a função de portadores de mensagens – common carriers para passar a exercer certa função editorial, ainda que essa editoração seja de natureza bastante distinta da realizada por jornais, revistas, rádios ou redes de televisão.

A criação de um conteúdo interessante para o usuário requer alguma forma de moderação pela plataforma, ainda que não seja a mesma forma de editoração feita por um jornal. Imagine, por exemplo, que o conteúdo publicado na tela do Instagram observasse somente o parâmetro cronológico. Rapidamente, o usuário da rede ver-se-ia fatigado com uma enorme quantidade de mensagens que para ele são completamente irrelevantes, perdendo o interesse. Plataformas, assim, não são definidas apenas pelo que elas permitem e proíbem, mas pelas formas como elas moderam. Isto representa uma característica essencial para diferenciar qualquer rede social da open web (GILLESPIE, 2018).

Cada plataforma, desse modo, elege uma enorme quantidade de parâmetros para determinar o que deve aparecer no feed de notícias, escolhendo alguns critérios dentre muitos possíveis. Qualquer um pode criar um site no qual qualquer usuário pode postar o que quiser, sem regras ou formas de moderação. No entanto, é bastante provável que esse site se torne rapidamente um poço de tédio, sendo abandonado pela maioria dos usuários. Um certo nível de atividade editorial é essencial para que qualquer provedor possa desempenhar o seu serviço de maneira eficiente e interessante, ajudando o usuário a encontrar o que procura na rede.

A moderação é fundamental para que o usuário tenha uma boa experiência e ela é feita pela retirada, filtragem e amplificação de determinados tipos de conteúdo em detrimento de outros. Igualmente, é feita pelas recomendações e sugestões personalizadas, mediante as trending lists e as propagandas que surgem na primeira página, tudo de modo a incentivar o engajamento dos usuários e mantê-los pelo maior tempo possível conectados às redes, gerando uma sensação agradável e um sentimento de pertencimento.

Além disso, não há como uma plataforma ser completamente neutra. Seja classificando o conteúdo cronologicamente, alfabeticamente, por tamanho ou por alguma outra métrica, isso inevitavelmente impõe hierarquia de algum tipo. O conceito de neutralidade ainda pode assumir diferentes significados, a depender do valor priorizado. Para um defensor da primeira emenda – concepção estadunidense da liberdade de expressão a neutralidade pode significar não excluir qualquer conteúdo, não importa o quão ofensivo. Para um especialista em competição, neutralidade pode significar concorrência justa na classificação dos resultados de busca, o que implicaria a exclusão daqueles decorrentes do abuso do poder de mercado (KELLER, 2018). Uma rede social dedicada a conectar profissionais que atuam em diferentes mercados pode resolver excluir ou filtrar qualquer post que não seja relacionado ao trabalho, ainda que não haja nada de ilícito na publicação. A questão então não parece ser a retirada ou a filtragem de determinados tipos de conteúdo, mas quais são os critérios legais, contratuais e proporcionais para fazê-lo, preservando ao máximo os direitos fundamentais.

Plataformas, assim, não são como jornais, rádios e televisões, mas, igualmente, não podem ser equiparadas aos correios ou às empresas de telefone. Elas se tornaram um híbrido, pois, não apenas possibilitam a comunicação, mas a armazenam, organizam e tornam rastreável, selecionando o que irá para a primeira página e a publicidade relacionada. Tudo é elaborado para chamar a atenção dos usuários e mantê-los conectados em troca da exposição aos anúncios de comerciantes e do tratamento de dados pessoais.

As ideias de que há completa impossibilidade de qualquer moderação sobre eventual ilicitude praticada por terceiros que usam os serviços e de que a mediação do discurso é feita de forma completamente neutra é poderosa e já pode ter sido verdadeira, mas, atualmente, tais argumentos se parecem mais com uma tentativa de distração.

O que ocorre é que as empresas continuam a querer o melhor dos dois mundos: serem tratadas como jornais e revistas, de um lado, ou meras empresas de telefone, de outro, a depender do que seja mais conveniente para o caso concreto. Assim, buscam prolongar os anos nos quais, talvez, foram o único setor da economia global que não pagou nem pelos insumos dos produtos fornecidos aos seus clientes – conteúdo protegido por direito autoral – nem teve qualquer obrigação voltada a atenuar as externalidades negativas causadas em decorrência da atividade econômica exercida.

4. EXEMPLOS DE NOVAS OBRIGAÇÕES DE MEIO IMPOSTAS ÀS PLATAFORMAS E ÀS REDES SOCIAIS

Tentativas de alteração do regime de responsabilidade das plataformas, geralmente, obtiveram como resposta a ideia de que qualquer mudança implicaria o fim da liberdade de expressão e da privacidade dos usuários. Mas, na realidade, há inúmeras possibilidades de arranjos institucionais entre a imposição das regras clássicas de responsabilidade civil e a completa imunidade. Igualmente, a ideia de imunidade civil não é incompatível com a atribuição de algumas obrigações de meio, voltadas a atender o interesse público ou a assegurar o direito de terceiros que sofrem externalidades negativas em virtude da prestação do serviço (GILLESPIE, 2018). 

4.1 Compartilhamento de hashes de conteúdo já declarado ilícito a fim de reduzir a disseminação do dano

Vimos em tópicos anteriores que grandes plataformas, de maneira voluntária, já compartilham hashes de conteúdo relacionado ao terrorismo e à pornografia infantil, de modo a filtrar e diminuir a disseminação desses tipos de vídeos e imagens na internet. O mesmo, em princípio, poderia ser feito em relação a outros tipos de conteúdo, tais como aqueles relacionados à vingança pornográfica. Cabe indagar por que uma vítima de vingança pornográfica é que deve suportar o ônus de monitorar as plataformas 24/7 na busca de impedir a repetição do dano previamente sofrido, quando já há tecnologia disponível para ao menos reduzir a disseminação de outros tipos de conteúdo ilícito.

4.2 Diferenciar os conceitos de monitoramento geral e monitoramento específico, considerado o estado atual da tecnologia

O compartilhamento de hashes voltados a reduzir a disseminação do dano pode vir acompanhado de uma melhor diferenciação entre os conceitos de monitoramento geral e específico.

Em diversas ocasiões, a Corte Europeia de Justiça já afirmou ser incompatível com a Carta Europeia de Direitos Humanos a realização de monitoramento prévio de conteúdo sobre tudo o que os usuários publicam na internet. Em casos relevantes, no entanto, fez uma diferenciação entre monitoramento geral e específico.[17]

De acordo com a Corte Europeia de Justiça, a proibição de monitoramento geral impede a criação de leis que, para impedir ilícitos futuros,  obriguem as plataformas a instalarem um sistema: a) que filtre informação armazenada em seus servidores; b) como uma medida preventiva; c) de maneira geral e indiscriminada em relação a todos os usuários; d) por um período indeterminado; e) que tenha o custo exclusivamente suportado pela empresa; e f) capaz de identificar arquivos contendo músicas ou vídeos.

Não obstante, a mesma Corte admite que, para proibir a prática de ilícitos futuros, pode ser imposto monitoramento voltado a prevenir infrações: a) do mesmo tipo; b) praticados pelo mesmo autor previamente identificado; e c) relacionado às mesmas marcas.[18]

Entre outros casos (FROSIO, 2017), há ainda exemplos de Cortes na França[19], na Alemanha[20] e na Inglaterra[21] que determinaram aos aplicativos de busca a obrigação de monitorar e desindexar links que remetessem a imagens já declaradas previamente ilícitas, tais como as de Max Mosley, ex-presidente da Federação Internacional de Automobilismo, tendo relações sexuais. Na Inglaterra, a ação movida por Mosley teve como suporte a Lei de Proteção de Dados Pessoais, afirmando a Corte ser de conhecimento geral a existência de tecnologia que permitiria o Google, sem grandes esforços nem custos relevantes, monitorar e reduzir o acesso a tais imagens.

Na Alemanha, a Corte de Hamburgo destacou que impor àquele que tem a privacidade violada o dever de notificar o provedor de busca e indicar a correspondente URL à cada nova publicação das imagens ofensivas revela-se como um mecanismo inadequado e insuficiente de proteção à privacidade, pois o ônus de monitorar permanentemente o específico conteúdo ilícito na internet seria imposto à parte mais fraca da relação e a que está mais longe de dispor dos mecanismos tecnológicos adequados para proteger o direito à privacidade. Sobre a capacidade do Google de monitorar e bloquear o acesso às imagens, a Corte mencionou o uso de aplicativos atualmente comuns no mercado como o PhotoDNA, iWatch e o Content-ID.

Mais recentemente, no julgamento do caso Glawisching-Piescek, a Corte Europeia de Justiça ampliou o conceito de monitoramento específico num caso sobre difamação, permitindo que, para impedir infrações futuras por terceiros, possa ser determinado às plataformas o bloqueio de conteúdo idêntico ou equivalente. Dentre as críticas a este ponto específico da decisão – há outras em relação a outros pontos – está o fato de que fica atualmente difícil para um filtro bloquear conteúdo sem saber exatamente aquilo que deve ser detectado, o que implica o bloqueio acidental[22] de diversas expressões de caráter totalmente lícito como efeito colateral[23].

A polêmica mostra que a imposição de novas obrigações de meio não deve atropelar o desenvolvimento tecnológico. Em outras leis dedicadas ao setor, como a lei de proteção de dados brasileira, por exemplo, há dispositivos que atrelam os deveres de cuidado das plataformas e outras empresas à existência de tecnologia a um custo razoável[24], o que poderia servir de inspiração para regras destinadas a tratar das obrigações de meio das plataformas destinadas a diminuir os danos ocasionados pelo uso de seus serviços.

4.3 Obrigações relacionadas à transparência e ao devido processo

A preservação da imunidade civil pode ainda estar relacionada à exigência de cumprimento de alguns deveres de cuidado relacionados à transparência e ao devido processo.

Leis podem estabelecer regras de transparência relacionadas à moderação de conteúdo, obrigando as plataformas com um número mínimo de usuários ou reclamações por ano a esclarecerem o público sobre informações, tais como: o número de contas falsas bloqueadas; a quantidade de pedidos de retirada, a que eles estão relacionados; e quais destes pedidos foram atendidos. Grandes plataformas, vale dizer, voluntariamente já começaram a produzir relatórios dessa natureza.

Leis também podem estabelecer regras relacionadas ao prazo que as plataformas têm para responder a reclamações, e a procedimentos que permitam ao usuário realizar denúncias sobre conteúdos publicados na plataforma bem como formular apelações ou pedidos de reconsideração em caso de eventual bloqueio. Ao ter um conteúdo ou um perfil excluído, o usuário responsável deve receber uma notificação que esclareça os motivos da restrição.[25]

Cumpridos os prazos e procedimentos, eventual erro de julgamento da plataforma sobre o bloqueio ou a permanência do conteúdo, salvo em casos manifestos, não deve levar à responsabilização. Compete lembrar que mesmo cortes constitucionais divergem ou resolvem com base em maiorias apertadas em diversas situações de aparente conflito entre a liberdade de expressão e outros direitos fundamentais.

Na mesma linha, regras como a do “bom samaritano”, prevista na Seção 230 do Código dos EUA, podem ser adotadas. Em outras palavras, pode-se incentivar as plataformas a retirar conteúdo considerado ofensivo e contrário aos termos de uso de suas redes sem torná-las automaticamente responsáveis por qualquer tipo de mensagem publicada por terceiros.

Para diminuir os problemas relacionados à ocorrência de notificações e de denúncias abusivas, em especial na área de ilícitos relacionados ao direito autoral, regras podem ainda autorizar a suspensão daqueles titulares de direitos que frequentemente submetem notificações infundadas. [26]

A maioria das plataformas se comunica com o público apenas por meio de suas páginas oficiais. As empresas, no entanto, poderiam ter uma espécie de ombudsman para responder às preocupações do público, bem como para servir de canal entre ele e os executivos da empresa. É importante ainda a realização de cursos, de treinamentos e a possibilidade de revisão humana por especialistas com conhecimento da língua em que foi feita a postagem. Regras ainda podem levar em consideração o tamanho das empresas ou a quantidade de acessos sobre determinado conteúdo, apenas para exemplificar.

Há, enfim, diversos arranjos institucionais relacionados à criação de obrigações de meio que podem ser estabelecidos sem que seja imposta às plataformas uma responsabilidade objetiva pelo conteúdo publicado por terceiros.

5. CONCLUSÃO

Na grande maioria dos países, o surgimento das empresas de internet começou de maneira completamente distinta do aparecimento do rádio e da televisão que, desde o nascedouro, foram submetidas a uma regulação com a previsão de diversas regras voltadas a assegurar o interesse público.

Com o passar dos anos e com as pessoas despendendo cada vez mais tempo on-line, as plataformas tornaram-se peças fundamentais na garantia ou na ofensa a direitos fundamentais, assim como adquiriram a capacidade de impactar regimes democráticos de maneira reservada tradicionalmente às instituições públicas.

No final da década de 90, em boa medida, as leis sobre a responsabilidade das plataformas pela prática de atos de terceiros partiram da premissa de que era impossível a elas monitorar o grande volume de conteúdo postado pelos usuários, bem como da necessidade de se criar uma internet descentralizada, livre e plural. A premissa, contudo, torna-se cada vez menos correta à medida que os anos passam e a tecnologia evolui. A relação entre imunidade civil, de um lado, e pluralidade, descentralização e vitalidade da rede, de outro, parece não mais ocorrer da maneira inicialmente idealizada.

Se por um lado descabe colocar as plataformas na posição de censores privados, não parece mais razoável as empresas não terem qualquer dever de cuidado em relação aos próprios usuários ou a terceiros que sofrem externalidades negativas pelo uso de seus serviços.

Plataformas, atualmente, fazem muito mais do que simplesmente distribuir conteúdo de maneira passiva ou facilitar interações. A maioria delas extraem, organizam e ressignificam os conteúdos e dados produzidos pelo usuário. As maiores, por sua vez, usam de seus próprios algoritmos para alavancar sua posição no mercado e vender informação em mercados secundários.

Além disso, as plataformas adquiriram papel central na comunicação pública e na garantia de acesso à informação, fazendo com que as regras por elas adotadas tenham impacto significativo na vida social, econômica e política de todos. No mínimo, portanto, não devem mais receber um passe completamente livre para permitir a prática de condutas discriminatórias, de discurso de ódio, de terrorismo e de crimes contra a propriedade intelectual em seus serviços. Compete às plataformas a internalização de pelo menos alguns dos custos pelas condutas ilícitas praticadas em suas redes.

Publicado originalmente na Agenda Brasileira de Economia Digital

 

REFERÊNCIAS

AMMORI, M. (2012, mar 2011). First Amendment Architecture. Retrieved from Wisconsin Law Review, : https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1791125

BALKIN, J. M. (2014, June 20). Old-School/New-School Speech Regulation. Retrieved from harvardlawreview.org: https://harvardlawreview.org/2014/06/old-schoolnew-school-speech-regulation/

BERTOLINI, A. (2021). European Parliament. Liability of online plataforms. European Parliament. Retrieved Aug 26, 2022, from https://www.europarl.europa.eu/RegData/etudes/STUD/2021/656318/EPRS_STU(2021)656318_EN.pdf

Comissão Europeia. (2017, dez 6). ec.europa.eu. Retrieved from Fighting Terrorism Online: Internet Forum pushes for automatic detection of terrorist propaganda: https://ec.europa.eu/commission/presscorner/detail/ro/IP_17_5105

Corte Europeia de Justiça. (2019, Out 3). Glawischnig-Piesczek v. Facebook Ireland Limited. Retrieved from https://curia.europa.eu/juris/document/document.jsf?docid=218621&doclang=EN

ENGSTRON, E. &. (2017, Março). The Limits of Filtering: a look at the functionality shortcomings of content detection tools. Retrieved from https://static1.squarespace.com/static/571681753c44d835a440c8b5/t/58d058712994ca536bbfa47a/1490049138881/FilteringPaperWebsite.pdf

FROSIO, G. &., & BULAYENKO, O. (2021, Março). Study on Dynamic Blocking Injunctions in the European Union. SSRN. Retrieved Agosto 26, 2022, from https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3807277

FROSIO, G. &., & GEIGER, C. (2021, Mar 22). Taking Fundamental Rights Seriosly in the Digital Services Act´s Plataform Liability Regime. European Law Journal. Retrieved Aug 26, 2022, from https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3747756

FROSIO, G. (2017, jun 5). The Death of no Monitoring Obligation: a story of antameable monsters. Journal of Intellectual Property, Information Technology and E Commerce. Retrieved from https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2980786.

FROSIO, G. (2017, june 5). The Death of 'No Monitoring Obligation´:a story of untameable monsters. Retrieved maio 15, 2018, from Journal of Intellectual Property, Information Technology and E Commerce: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2980786

FROSIO, G. (2017, May 31). Why Keep a Dog and Bark Yourself? From Intermediary Liability to Responsibility. Oxford International Journal of Law and Information Technology , pp. 1-33.

German Law Archive. (2017, Set 1). germanlawarchive.juscomp.org. Retrieved from https://germanlawarchive.iuscomp.org/?p=1245

GILLESPIE, T. (2018, July). Plataforms are not Intermediaries. Georgetown Law Technology Review. Retrieved from https://heinonline.org/HOL/LandingPage?handle=hein.journals/gtltr2&div=19&id=&page=

GOLDSMITH, J. (2018, junho). The Failure of Internet Freedom. Retrieved from knightcolumbia.org: https://knightcolumbia.org/content/failure-internet-freedom

GOOGLE. (2016, Dez 05). blog.google. Retrieved from Partnering to help curb the spread of terrorist content online: https://blog.google/around-the-globe/google-europe/partnering-help-curb-spread-terrorist-content-online/

JAMEEL , j., & WIKENS, S. (2021, dez 9). Social Media Companies Want to Co-opt the First Amendment. Courts Shouldn’t Let Them. Retrieved from nytimes.com: https://www.nytimes.com/2021/12/09/opinion/social-media-first-amendment.html

KELLER, D. (2018). Internet Platforms: Observations on Speech, Danger, and Money. Hoover Institution's Aegis Paper Series.

KELLER, D. (2018, Oct). Toward a Clearer Conversation About Platform Liabiliy. SSRN. Retrieved Aug 26, 2022, from https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3186867

LAIDLAW, E. B. (2015). Regulating Speech in Cyberspace: gatekeepers, human rights and corporate responsability. Cambridge: Cambridge University Press.

LAIDLAW, E. B. (2015). Regulating Speech in Cyberspace: Gatekeepers, Human Rights and Corporate Responsibility. Arquivo Kindle: Cambridge University Press.

MEYER, D. (2011, abr 5). Google loses autocomplete defamation case in Italy. Retrieved from zdenet: https://www.zdnet.com/article/google-loses-autocomplete-defamation-case-in-italy/

O´NEIL, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Arquivo Kindle : Broadway Books .

POST, D. (2015, Aug). a Bit of Internet History or How Two Members of Congress Helped Create a Trillion or so Dollars of Value. WASH POST.

SARTOR, G. (2017). Providers Liability: From the eCommerce Directive to the Future. . Brussels: European Parlament. Policy Department: Economic and Scientific Policy.

SCHAUER, F. (2017, november). The Hostile Audience Revisited . Retrieved from knightcolumbia.org: https://knightcolumbia.org/content/hostile-audience-revisited

SYLVAIN, O. (abril de 2018). Discriminatory Designs on User Data. Acesso em 31 de julho de 2018, disponível em knightcolumbia.org: https://knightcolumbia.org/content/discriminatory-designs-user-data

TEFFE, C. S., & SOUZA, C. A. (nov. - fev/2019). Responsabilidade Civil dos Provedores na Rede: análise da aplicação do Marco Civil da Internet pelo Superior Tribunal de Justiça. Revista IBERC, 1.

The Economist . (2017, fev 11). Internet firms’ legal immunity is under threat. Retrieved from economist.com: https://www.economist.com/business/2017/02/11/internet-firms-legal-immunity-is-under-threat

The New York Times. (2018, Oct 6). Did Facebook Learn Anyting from the Cambridge Analytica Debacle? Retrieved from nytimes.com: https://www.nytimes.com/2018/10/06/opinion/sunday/facebook-privacy-breach-zuckerberg.html

WHITNEY, H. M. (2018, February 26). Search Engines, Social Media, and the Editorial Analogy. Retrieved from papers.ssrn.com: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3130724

WU, T. (2016). The Attention Merchants: The Epic Scramble to Get Inside Our Heads. Arquivo Kindle: Vintage.

WU, T. (2017, September ). Is The First Amendment Obsolete? . Retrieved from knightcolumbia.org: https://knightcolumbia.org/content/tim-wu-first-amendment-obsolete

 

 



[1] Efeito de rede é o efeito benéfico que o usuário de um bem ou serviço recebe em virtude da utilização desse mesmo bem ou serviço por outros usuários. Quando o efeito de rede existe, o valor de um serviço por um usuário está diretamente relacionado ao número de usuários que utiliza o mesmo serviço. O exemplo clássico era o telefone. Quanto mais pessoas estão conectadas à rede telefônica, mais valiosa ela se torna para cada usuário. Hoje, as redes sociais acabam funcionando da mesma forma, o que tende a gerar monopólios ou oligopólios. Ninguém quer ir para uma rede social em que ninguém mais está conectado. 

[2] Section 230 of the Communications Decency Act (CDA)

[3] De acordo com o Seção n° 230 do CDA, as plataformas perderão a imunidade civil apenas se tiverem ajudado a criar ou desenvolver o conteúdo postado. A primeira regra criada pelo CDA torna os provedores imunes por qualquer conteúdo ilícito postado pelos usuários nas respectivas redes. Segundo a norma, os provedores não podem ser obrigados a retirar ou limitar o conteúdo postado pelos usuários, devendo as ordens judiciais serem direcionadas aos usuários, e não às plataformas.

[4] Stratton Oakmont, Inc. v. Prodigy Services Co., 1995 WL 323710 (N.Y. Sup. Ct. 1995).

[5] Giovani Sartor ressalta diferenças importantes entre a legislação europeia e americana, embora ambas tenham em comum a previsão de imunidade civil. De início, a legislação europeia cita serviços específicos que estariam imunes de responsabilidade ao passo que o CDA se aplica a qualquer tipo de serviço. Em segundo, enquanto nos EUA eventuais ordens de remoção de conteúdo devem ser dirigidas aos usuários, na Europa as autoridades competentes podem pedir providências aos provedores para prevenir e reprimir as atividades ilícitas praticadas por terceiros que usem os serviços. Finalmente, enquanto a legislação americana estabelece que alguma atividade editorial dos provedores voltada à exclusão de conteúdos ofensivos não constitui atividade suficiente a afastar a imunidade civil – regra do bom samaritano –, o item 42 da diretiva europeia pode gerar certa insegurança às plataformas, pois dispõe que a imunidade e a presunção de desconhecimento da atividade ilícita praticada pelo usuário se aplica às atividades cuja natureza seja meramente técnica, automatizada e passiva. (SARTOR, 2017)

 

 

 

[8] Há críticas aos sistemas de responsabilidade fundados no chamado notice-and-takedown. De início, descabe presumir a ilicitude de uma mensagem simplesmente porque alguém quer retirá-la da rede. A possibilidade de responsabilização a partir da notificação de um particular cria o risco de esvaziar a liberdade de expressão justamente nas hipóteses em que ele é mais importante: no pronunciamento de manifestações polêmicas e controversas na esfera pública. Estudos estatísticos ainda mostram que, nos regimes de notice-and-takedown, o número de notificações abusivas é grande, mas que várias empresas simplesmente cumprem todos os requerimentos sem fazer qualquer questionamento a respeito do mérito daquilo que é a elas demandado. Isso porque, considerado o risco de se tornar responsável, a opção mais fácil para as plataformas é simplesmente retirar o conteúdo. O incentivo econômico, se não existente qualquer regra a incentivar a precaução, vai no sentido de pecar pelo excesso.  (KELLER, 2018)

[9] Em sistemas nos quais a imposição de responsabilidade civil depende do efetivo conhecimento de alguém sobre a ilicitude, determinar o que formaliza esse conhecimento torna-se uma importante ferramenta regulatória. Basta a notificação do usuário? É suficiente a notificação de uma fonte confiável, tais como as agências de checagem? Ou a notificação precisa ser de natureza judicial? No Brasil, o art. 19 do Marco Civil da Internet cria uma rede de proteção maior às plataformas ao exigir, no art. 19, a necessidade de indicação prévia da URL onde está o conteúdo apontado como ilícito e a notificação de natureza judicial.

[10] Sobre bloqueio de sites, veja: (FROSIO & BULAYENKO, 2021).

[11] Disponível em: http://europa.eu/rapid/press-release_IP-16-1937_en.htm. Acesso em: 26 ago. 2022. O Código estabelece medidas voluntárias a serem adotadas pelos signatários, tais como: a) introdução em seus termos de uso de regras proibindo o incitamento e a promoção à violência e a atos odiosos; b) adoçao de processos claros e eficazes para analisar notificações sobre discurso de ódio em seus serviços, de modo a poderem remover ou desabilitar o acesso, apresentando aos usuários informações sobre os procedimentos para o envio de notificações; c) análise da maioria das notificações válidas para remoção de discurso de ódio em menos de 24 horas, removendo ou desabilitando o respectivo acesso; d) incentivo para que especialistas e agências de checagem sinalizem conteúdos que promovam a incitação da violência e de discurso de ódio, indicando aos usuários a possibilidade de usar as agências de checagem disponíveis; e) fornecer treinamento regular aos funcionários sobre os desenvolvimentos sociais sobre o tema, promovendo debates  para melhorias do sistema e apoiando programas educacionais que incentivem o pensamento crítico.

[13] E-ventures Worldwide, LLC v. Google, Inc., 188 F. Supp. 3d 1265 (M.D. Fla. 2016).

[14] Sobre o tema: (WHITNEY, 2018).

[15] Na Europa, situação semelhante levou a um resultado bastante distinto, sendo imposta uma condenação bilionária ao site de buscas. In: https://www.euractiv.com/section/digital/news/eu-court-confirms-e2-4bn-fine-against-google-for-market-abuse/. Acesso em: 26 ago. 2022. 

[16] Social Media Companies Want to Co-opt the First Amendment. Courts Shouldn´t Let Them. In: https://www.nytimes.com/2021/12/09/opinion/social-media-first-amendment.html. Acesso em: 24 ago. 2022.

[17] Sobre o tema: (FROSIO & GEIGER, 2021)..

[18] C-324/09 L’Oréal SA and Others v eBay International AG and Others [2011] ECLI:EU:C:2011:474, para 131 (hereafter ‘L’Oréal’).

[19] Google v. Mosley(TGI Paris, 6 November 2013) (France).

[20] Max Mosley v Google Inc.324 O 264/11 (Hamburg District Court, 24 January 2014)(Germany).

[21] Max Mosley v. News Group Newspaper Ltd[2008] EWHC 1777 (QB)(United Kingdom)

[22] Estudo sobre a eficiência de filtros que tem como parâmetro o processamento de linguagem natural mostra que ainda é alto o bloqueio equivocado de mensagens lícitas e que os erros aumentam quando o usuário usa gírias, sarcasmo ou escreve em uma língua que não é a nativa do programador. (ENGSTRON, 2017) The Limits of Filtering: A Look at the Functionality and Shortcomings of Content Detection Tools, In: www.engine .is/the-limits of-filtering; Center for Democracy and Technology

[23] A proporcionalidade de leis e decisões destinadas a inibir a propagação de conteúdo ilícito deve ser medida não apenas pelas mensagens ilícitas que consegue barrar, mas também pela censura colateral que irá produzir. Impedir a circulação de conteúdo ilícito não pode produzir como efeito colateral restrições desproporcionais a uma enorme quantidade de mensagens lícitas. Regras sobre responsabilidade ou a imposição de novas obrigações de meio às plataformas não podem ser estipuladas de modo a que o benefício social produzido pela prevenção ao conteúdo ilícito seja, e muito, superado pelo dano social causado pela censura de mensagens totalmente legítimas (SARTOR, 2017).

[24] A saber: LGPD. Art. 12, § 1°, art. 16 e art. 46, § 1°.

[25] Veja sobre o tema: Santa Clara Principles on Transparency and Accountability in Content Moderation.  Disponível em: https://santaclaraprinciples.org/pt/open-letter/. Acesso em: 26 ago. 2022.

[26] Vale dizer que esta é uma das regras propostas para o Digital Services Act. Sobre o tema, veja: Digital Services: landmark rules adopted for a safer, open online environment. Disponível em:  https://www.europarl.europa.eu/news/en/press-room/20220701IPR34364/digital-services-landmark-rules-adopted-for-a-safer-open-on-line-environment). Acesso em: 31 out. 2022.

Related Posts

Nenhum comentário

Postar um comentário

[name=Alexandre] [img=https://www.idp.edu.br/wp-content/themes/idp_principal_2020/img/ALEXANDRE-SANKIEVICZ.jpg] [description=Advogado] (facebook=https://facebook.com/unbcadir) (twitter=Twitter Profile Url) (instagram=Instagram Profile Url) (bloglovin=Blogvin Profile Url) (pinterest=Pinterest Profile Url) (tumblr=Tumblr Profile Url)

Follow @Infinyteam