Entre a Imunidade e a Responsabilidade das Plataformas pelo Conteúdo Publicado por Terceiros
INTRODUÇÃO
A
importância central adquirida pelas plataformas na última década, associada a uma série de escândalos mais
recentes, levou
legisladores de diversos países a rediscutir a responsabilidade de empresas
como Google, Facebook e Twitter na propagação do terrorismo e de discursos de
ódio, no assédio virtual e na difusão de campanhas de desinformação e
manipulação eleitoral. Há uma
pressão crescente por maior regulação.
Casos como o Cambridge Analytica (The New York Times, 2018) parecem ter colocado uma pá de cal à era romântica da internet, revelando ao grande público que a mesma tecnologia apta a se apresentar como catalizadora da liberdade de expressão e da participação popular também pode contribuir para a manipulação de comportamentos e eleições, para a censura e a criação de bolhas de informação, para o controle do discurso, para invasões à privacidade e para o bullying (LAIDLAW, 2015) .
Nos
últimos anos, leis que impõem novas obrigações aos provedores de aplicação na internet têm sido aprovadas por diferentes
parlamentos e a pressão da sociedade e de governos para que as plataformas
assumam um papel mais ativo na moderação e na retirada de conteúdo é cada vez maior.
No centro
das diversas frentes por maior regulação, está a revisão do sistema de
responsabilidade ao qual os intermediários estão sujeitos em virtude do
conteúdo criado e compartilhado pelos usuários. Por mais que haja receios de
que a imposição de novas responsabilidades possa ter como efeito colateral o
cerceamento à inovação e à liberdade de expressão, é cada vez mais improvável
que o sistema de imunidade se mantenha intacto, da maneira como inicialmente
criado.
Considerado
o quadro, o presente artigo tem por objetivo expor o que está em jogo nas
discussões sobre eventuais alterações no sistema de responsabilidade civil e
como essas mudanças podem impactar a proteção de direitos fundamentais. O texto
trata essencialmente do debate relacionado à responsabilidade de mecanismos de
busca e de redes
sociais em virtude de atos praticados por terceiro.
Não é o
foco deste artigo a regulação da responsabilidade civil de plataformas como fintechs, voltadas à prestação de
serviços de saúde, transporte e acomodação ou destinadas à criação de Marketplaces para a venda de produtos,
tendo em vista que a prestação desses serviços levanta questões diversas sobre riscos
e obrigações envolvidos. Igualmente, o
artigo não cuida da responsabilidade das plataformas pela prática de atos
próprios, como aquela decorrente do mau uso de dados pessoais do respectivo
usuário.
As
gigantes da internet gostam de ver o respectivo sucesso como fruto exclusivo do
brilhantismo de seus fundadores. Boa parte dos economistas, contudo, enxergam
que o rápido crescimento dessas empresas também decorre de outros fatores, tais
como os efeitos de rede[1] e de um
sistema jurídico único de responsabilidade criado na década de 90, o qual, em
linhas gerais, torna as plataformas imunes por eventuais danos causados a
partir da utilização de seus serviços
Em 1996,
os Estados Unidos foram o primeiro país do globo a editar uma lei tratando da
responsabilidade civil dos provedores de internet em virtude de conteúdo gerado
pelos usuários (CDA,1996)[2]. Ao lado
das normas que dispensavam os provedores de monitorar e filtrar vídeos, músicas
e textos publicados pelos usuários, havia ainda um conjunto de regras que
conferia aos provedores um porto seguro (safe
harbor) contra pedidos de indenização, desde que desconhecessem os ilícitos
praticados em suas redes e sites.
O mote
para a edição da Seção n° 230 do Comunication Decency Act – CDA[3]
foi uma ação ajuizada por uma firma de investimento contra a Prodigy, uma das primeiras
prestadoras de serviços on-line,
alegando que a empresa havia sido gravemente difamada em um dos fóruns de
discussão presentes no site da plataforma[4]. A
Suprema Corte de Nova York considerou o provedor responsável, entendendo que,
ao publicar para os usuários os termos de uso de seus serviços e buscar moderar
e retirar das salas de debate mensagens que não se enquadrassem nas regras
divulgadas para a comunidade, a Prodigy exercia atividade editorial semelhante
à de um jornal.
Em
resposta, o Congresso Americano editou normas destinadas a criar um porto
seguro para as plataformas, o que, segundo os legisladores, constituía um meio
para assegurar a liberdade de expressão na internet bem como para proteger um
enorme conjunto de novas empresas de ações judiciais potencialmente
desastrosas.
A
justificativa do parlamento estadunidense restou fundada na crença de que as
regras tradicionais sobre responsabilidade civil, em virtude de atos ilícitos
praticados por terceiros, eram simplesmente inadequadas para um ambiente no
qual uma quantidade enorme de conteúdo presente nas plataformas era gerada
pelos próprios usuários. Os maiores riscos seriam em referência à inovação e à
liberdade de expressão.
Dois anos
depois, a Europa, em linhas gerais[5], seguiu
a política adotada pelos americanos prevendo princípios semelhantes nos artigos
12 a 15 da eCommerce Directive (EC 2000/31). A partir de então, diversos países
adotaram a política, formando-se para os provedores de internet um sistema
global fundado na responsabilidade subjetiva, como regra geral.
A Corte
Europeia de Justiça confirmou diversas vezes esse sistema, resistindo inclusive
à pressão exercida por grandes empresas titulares de direitos autorais.
Reiteradamente, afirmou não serem os provedores de internet obrigados nem a realizar prévio monitoramento de conteúdo
nem a aplicar filtros voltados a identificar antecipadamente conteúdos ilícitos
postados por terceiros, tendo em vista a legislação da União Europeia. (FROSIO, 2017)[6]
A criação
de um porto seguro para as plataformas digitais permitiu a publicação de uma
enorme quantidade de conteúdo, fazendo muitos defenderem que a internet não se
tornaria um ambiente extraordinário para o exercício do debate público nem
seria tão dinâmica se não fosse o modelo de responsabilidade criado. A
imunidade conferida aos intermediários constituiu elemento essencial para a
rápida expansão da rede gerada pelas empresas de tecnologia, o que fez alguns
defenderem que nenhum outro artigo do Código dos EUA contribuiu mais para a
geração de riqueza do que a Seção n° 230 do CDA (POST, 2015)[7]
Além
disso, há ainda o justo receio de que a imposição de responsabilidade civil em
virtude do conteúdo publicado por terceiros faria com que os intermediários
acabassem cedendo à tentação de se tornarem censores privados.
Como bem
ressalta Daphne Keller (2018), se mesmo cortes constitucionais divergem sobre
os limites da liberdade de expressão em boa parte dos casos relacionados à
difamação, direito autoral, privacidade, segurança, defesa nacional entre
outros temas, bem como decidem com base em maiorias apertadas, não é possível
esperar que as plataformas digitais consigam realizar uma moderação de
conteúdos isenta de erros ou críticas. Por melhor que fosse a tecnologia,
assim, não caberia a essas empresas se anteciparem ao
julgamento da audiência, usando monitoramento geral e filtragem para praticar
uma espécie de censura prévia.
2.1 O regime de
responsabilidade para casos relacionados à violação à propriedade intelectual
Paralelamente
ao regime geral de imunidade civil, Estados Unidos e especialmente a Europa
adotaram sistemas de responsabilidade específicos para as plataformas,
relacionados ao serviço prestado e à categoria de conteúdo publicado pelos
usuários.
Nos
Estados Unidos, os ilícitos relacionados à propriedade intelectual são
regulados pelo Digital Millenium Copyright Act (DMCA), de 1998, o qual criou um sistema de responsabilidade
comumente chamado de notice and takedown. Nesse
sistema, os provedores gozarão da imunidade civil se: a) não tiverem
conhecimento sobre a ilicitude do conteúdo postado; b) não receberem benefício
financeiro a partir da atividade infringente e c) a partir do conhecimento da
ilicitude, agirem imediatamente para remover o conteúdo ou
bloquear o respectivo acesso.
Assim
como ocorre no regime geral, não há obrigação de monitoramento de conteúdo ou
filtragem. Apesar disso, grandes plataformas já adotam mecanismos de filtragem
de maneira voluntária. O Google instalou no Youtube em 2008 o Content ID e a Vimeo
lançou o Copyright Match em 2014. Os dois algoritmos buscam comparar o
vídeo postado pelo usuário com vídeos e imagens constantes em uma base de dados
previamente fornecida pelos titulares de direitos autorais, partindo do
princípio de que cada conteúdo digital possui uma identidade única.
A lei
americana ainda determina que o conhecimento sobre a ilicitude ocorre a partir
da notificação extrajudicial[8].
Ao recebê-la, o provedor deve retirar o material indicado como infringente da
rede e avisar o usuário que o publicou. Se fizer isso, mantém a imunidade. Se a
pessoa que publicou o conteúdo se opuser à
notificação, o provedor poderá republicar o material e caberá ao titular da
propriedade intelectual iniciar uma demanda contra o usuário, ficando o
provedor de internet excluído de qualquer litígio.
Ao
contrário do DMCA, o art. 14 da eCommerce Directive (EC 2000/31) não
estabelecia um marco para definir o conhecimento da plataforma sobre a
ilicitude, fazendo com que os estados-membros adotassem critérios distintos.[9]
Em abril
de 2019, seguindo a tendência de estabelecer maiores obrigações aos provedores
de aplicação, o Conselho Europeu aprovou a intitulada Directive on Copyrigt on
the Digital Single Market (Diretiva
2019/790), com a criação de novas exigências para que
as plataformas pudessem manter a imunidade em decorrência da publicação e do
compartilhamento pelos usuários de conteúdos protegidos por direito autoral.
Dentre
todas as polêmicas alterações promovidas pela norma, talvez a principal tenha
sido considerar que, a partir do upload
de conteúdo pelos usuários, as plataformas também fazem um ato de comunicação e
uma execução pública das obras protegidas, precisando em razão dessa nova
qualificação jurídica: a) obter uma licença dos titulares de direitos autorais,
assim como tradicionalmente já fazem as rádios e televisões, ou b) adotar
mecanismos para impedir a publicação e o compartilhamento de conteúdo autoral
em seus serviços.
Além
disso, a Directive on Copyrigt on the Digital Single Market estabeleceu que, para manter a imunidade civil, as plataformas
precisam adotar procedimentos para minimizar os riscos de que conteúdos
protegidos pelo fair use ou
polêmicos, mas não ilícitos, sejam filtrados ou retirados, o que basicamente,
ocorre por meio da criação de canais de comunicação que permitam a formalização
e análise célere de reclamações contra eventual bloqueio[10] ou
retirada de conteúdo. As razões das mudanças serão detalhadas nos tópicos
seguintes.
2.2 O combate à pornografia infantil
Desde
2008, nos Estados Unidos, uma lei federal autoriza o Centro Nacional para
Crianças Desaparecidas a compartilhar com os provedores uma base de dados com
os hashes de imagens relacionadas à
pornografia infantil. Embora não haja obrigatoriedade de prévio monitoramento
pelas plataformas, os hashes são
usados por elas para encontrar, deletar e informar às autoridades sobre casos de pornografia infantil na internet.
Na
Europa, além da existência de canais de comunicação semelhantes entre os
Estados-membros e a indústria, a Diretiva 2011/93/EU obriga que os
Estados-membros adotem medidas preventivas para combater a exploração e o abuso
sexual de crianças e adolescentes, exigindo a pronta retirada ou o bloqueio –
quando localizados fora do território europeu − de sites
contendo ou disseminando pornografia infantil.
Estudo
produzido pelo parlamento europeu revela que, para dar cumprimento à diretiva,
metade dos Estados-membros prevê, nas respectivas legislações nacionais, a
possibilidade de bloqueio de plataformas a partir de uma ordem judicial ou
determinação de outra autoridade, sendo comum também o compartilhamento entre
os estados de hashes e listas com URLs nas quais constam o material ilícito. Os provedores de hospedagem,
uma vez informados sobre o conteúdo, podem ainda ser responsabilizados caso não
atuem prontamente para retirá-lo. (BERTOLINI, 2021)
Conforme
ainda o relatório, a política pública adotada mostra bons resultados, já que
93% do conteúdo identificado tem o respectivo acesso bloqueado ou retirado da internet europeia em menos de 72 horas.
2.3 O combate ao discurso de ódio e à
desinformação
O combate
ao discurso de ódio na Europa ocorre com suporte na Decisão-Quadro do Conselho
da União Europeia n° 2008/913/JHA, mas não há no documento regras específicas
sobre o combate na internet. Há, contudo, mecanismos de cooperação.
Em maio
de 2016, a Comissão Europeia e as maiores empresas de tecnologia – Google, Twitter,
Facebook e Microsoft – anunciaram a adoção de um código de conduta que inclui
uma série de compromissos a serem assumidos pelas empresas de forma a diminuir
a disseminação do discurso de ódio na internet, o que
inclui o uso de filtragem de conteúdo.[11]
Em nível
nacional, a Alemanha aprovou em 2007 uma lei contra a prática de crimes de ódio
e fake news nas redes sociais (Network
Enforcement Act – NetzG), a qual obriga as plataformas a retirar conteúdos que
sejam evidentes ilícitos em 24 horas a partir da notificação do usuário,
conferindo o prazo de 7 dias para investigação e retirada do conteúdo quando a
ilicitude não for evidente. O não cumprimento dessas
obrigações pode gerar multas de até 50 milhões de euros.
A lei
exige que as plataformas disponibilizem um mecanismo simples para reclamações, bem como um procedimento para que o usuário afetado pela
retirada do conteúdo possa ajuizar um pedido de revisão, cujo prazo é de 15
dias para a formalização. A lei é aplicável a qualquer rede social que tenha mais
de 2 milhões de usuários registrados na Alemanha. As redes são
também obrigadas a apresentar relatórios de transparência, se receberem mais de 100 reclamações por ano.
Em junho
de 2020, a França aprovou a Lei n° 2020-766 para combater crimes de ódio e violência
contra racismo e preconceito religioso. A lei, assim como na Alemanha,
estabelecia o prazo de 24 horas para a retirada de conteúdo evidentemente
ilícito. Foi, contudo, invalidada pelo Conselho Constitucional, que consignou a
existência de ofensa à liberdade de expressão dos usuários, a transformação das
plataformas digitais em juízes para julgar a licitude ou ilicitude do conteúdo
publicado e a concessão de prazo excessivamente reduzido para a análise do
material, em especial quando considerado o risco de haver um elevado número de
reclamações. (BERTOLINI, 2021)[12]
Não há uma específica Diretiva sobre o combate
à desinformação na União Europeia, mas, em 2018, os principais representantes
das plataformas, redes sociais e anunciantes acordaram na adoção de um código
de boas práticas, mediante o qual se comprometeram: a interromper a publicidade
e incentivos de monetização para conteúdos falsos, assegurar que os anúncios
sejam claramente distinguíveis do conteúdo editorial, permitir a identificação
da origem da publicidade relacionada a
propaganda política e a conteúdo
específico.
Além
disso, as plataformas devem implementar políticas sobre identidade dos usuários
e uso indevido de bots automatizados,
tornando claro o teor dessa política
para os usuários, bem como
investir em meios para priorizar informações relevantes, autênticas e
confiáveis.
Na França, também em 2018, foi aprovada a Lei
n° 2018-1202 que impôs obrigações específicas às plataformas durante o período
eleitoral. Dentre outras obrigações, as plataformas devem: a) oferecer
informações que permitam aos usuários identificar quem paga para promover
determinado conteúdo e quem usa seus dados pessoais para promover conteúdos
informativos relacionados ao debate de interesse público; b) implementar
medidas para combater a disseminação de informações falsas, tais como um
mecanismo que permita aos usuários realizarem denúncias, em especial quando se
trata de conteúdo promovido em nome de terceiros. O descumprimento dessas
obrigações pode sujeitar as plataformas a multas.
2.4 Terrorismo
Na União
Europeia, o art. 21 da Diretiva 2017/541 EU estabelece que os Estados-membros devem adotar medidas para a remoção ou
bloqueio imediato – quando a plataforma estiver localizada fora do território
europeu – de conteúdo terrorista, competindo aos países estabelecerem
procedimentos transparentes e que respeitem o devido processo legal.
Embora
não imponha o uso de filtros ou o monitoramento de conteúdo, a Diretiva
incentiva a indústria a tomar medidas voluntárias para impedir o mau uso dos
respectivos serviços ou auxiliar os Estados-membros. Em 2016, Facebook, Twitter, Microsoft e Youtube
anunciaram a criação de um banco de dados comum – a partir de hashes compartilhados − para ajudar na filtragem de conteúdo
terrorista disseminado na internet.
Lançado
em 2017, o banco de dados já acumulou 40 mil hashes de vídeos e imagens. Além disso, as
grandes plataformas continuam a desenvolver
bots para a identificação e remoção automática de conteúdo on-line. De acordo com o Youtube, cerca de 150 mil vídeos foram removidos desde 2017. Já o Facebook
informa que, em 83% dos casos, consegue remover o upload de arquivos em sua rede até uma hora depois de notificado
sobre determinado vídeo ou imagem de conteúdo terrorista.
3. PLATAFORMAS E REDES SOCIAIS NÃO SÃO
MEROS INTERMEDIÁRIOS, MAS PODEM SER EQUIPARADOS A JORNAIS E TELEVISÕES?
Em 2017,
a E-ventures Worldwide, uma empresa de tecnologia dedicada a melhorar o ranking
e a visibilidade de websites em listas de resultados, processou o Google em uma Corte no estado da
Flórida, afirmando que a companhia havia desindexado manualmente de sua lista de
resultados 231 sites que pertenciam a seus clientes. Sustentou que a
desindexação manual pelo Google constituía abuso de poder econômico, bem como uma espécie de censura[13].
Argumentou ainda que a desindexação manual era também uma atitude falsa e
enganosa em relação aos consumidores, tendo em vista as frequentes alegações do
Google no sentido de que a lista de resultados em seu site de busca
representava um mero reflexo do conteúdo público disponível na internet.
O Google respondeu
que, independentemente das alegações de abuso de poder econômico, a empresa
tinha direito de realizar escolhas editoriais sobre a sua própria lista de
resultados, tendo em vista o direito à liberdade de expressão assegurado pela
primeira emenda. A Corte concordou com o Google, praticamente equiparando-o a
um jornal e consignando que a possibilidade de a empresa desindexar manualmente
resultados de sua lista é um direito assegurado pela liberdade editorial, não
importando se o ato é justo ou injusto.[14]
Consequentemente, não houve a imposição de qualquer responsabilidade ao site de
busca.[15]
Na
Europa, outro caso no qual se buscava condenação do Google levou a empresa a
apresentar argumentos opostos. Um cidadão italiano processou o Google por difamação porque, quando o seu nome era
digitado na caixa de busca, o site automaticamente sugeria expressões como
“vigarista” e “fraude” para completar as palavras a serem utilizadas na
pesquisa.
Em sua
defesa, ao contrário da apresentada na Flórida, o Google sustentou que as sugestões dadas pela função autocomplete ou pelos links
disponibilizados na lista de resultados não derivam de suas próprias crenças ou
escolhas editoriais, mas são consequência de meros cálculos matemáticos
fundados nas pesquisas previamente realizadas por outros usuários, dentre
inúmeros fatores usados pelos algoritmos para conferir relevância a
determinados sites. (MEYER, 2011) A Corte
de Milão, no entanto, condenou a empresa.
Considerados
esses dois exemplos, como o Google e outras plataformas devem ser tratados pela
regulação? Como um
jornal, que possui discursos e opiniões próprias, ou como um mero intermediário
do discurso de terceiros? Sites de busca e redes sociais, afinal, são empresas
de mídia ou simples plataformas de tecnologia? Atuam praticamente como as antigas empresas de telefone, as
quais não tinham qualquer controle em relação ao discurso transmitido pelos
usuários?
Não são
de todo sem razão os argumentos de empresas como o Google quando sustentam a impossibilidade
de equipará-lo a jornais e revistas.
Apesar de semelhanças, há distinções bastante significativas entre a
atividade de redes sociais e aplicativos de busca, de um lado, e de jornais e
revistas de outro lado.
Heather
Whitney (2018) destaca
que a primeira grande diferença é o fato de empresas como Google, Facebook e Twitter
não se apresentarem para o público como editores. Enquanto jornais e revistas
se apresentam como editores e fazem questão de afirmar que defendem a correção
dos fatos publicados em suas páginas, bem como
as opiniões expostas por seus colunistas, as empresas de tecnologia fazem de
tudo para que, em relação a elas, o público pense exatamente o contrário. Embora a percepção de parte do público possa
ter começado a mudar, a grande maioria das pessoas não vinculam os links apresentados em aplicativos de
busca ou no trending topics de redes
sociais à imagem dessas empresas ou à ideologia por elas defendida.
Uma
livraria, por exemplo, seleciona quais livros irá vender e quais obras
receberão maior destaque nas respectivas prateleiras. No entanto, ao organizar e vender os
livros, não se torna responsável pelo conteúdo de cada obra, ainda que a
escolha do livreiro sobre quais livros receberão maior destaque transmita algum
tipo de informação aos clientes. Mesmo um supermercado, ao organizar os
produtos nas prateleiras, transmite uma enorme quantidade de informações aos
clientes, havendo boas razões para que algumas mercadorias fiquem no fundo da
loja enquanto outras, perto do
caixa. Ainda assim, não é possível equiparar as escolhas do supermercado sobre
a organização dos produtos, sobre o que mostrar e não mostrar e sobre o que
conferir mais destaque aos clientes, às escolhas feitas por editores de jornais
e revistas.
Em
síntese, as plataformas basicamente atuam como veículo para transmitir o
discurso de terceiros. Não exercem
controle editorial rígido sobre o que publicam nem assumem a responsabilidade
pelo conteúdo publicado da mesma forma que jornais e revistas. Há ainda uma
enorme diferença em relação à escala do que é publicado por qualquer grande
plataforma e um grande jornal. Conforme destacam Jameel Jaffer e Scott Wilkens,
talvez, e exatamente em razão dessas diferenças, o direito fundamental à
liberdade de expressão não possa ser aplicado às plataformas de forma idêntica
à maneira como aplicado a jornais e revistas.[16]
De outro
lado, é falsa a ideia de que as plataformas atuam como meras empresas de
telefone ou de correios, as quais não detinham qualquer controle sobre o
conteúdo do discurso realizado por terceiros no canal disponibilizado para
comunicação.
Durante
muito tempo, as plataformas se esforçaram para transmitir ao público que o
conteúdo revelado na tela é decorrente de um mero cálculo matemático aplicado
ao que está sendo produzido e procurado pelos próprios usuários da rede. Várias
delas, aliás, sempre fizeram questão de afirmar que não são empresas de
comunicação, mas meras empresas de tecnologia.
Plataformas,
porém, não apenas mediam o discurso público, mas o influenciam drasticamente. A
moderação de conteúdo feita por elas não é ocasional, mas representa a essência
do negócio. A moderação do discurso de terceiros representa a essência do que
as plataformas fazem e é o principal serviço oferecido por elas. Aliás, é exatamente
na editoração que elas dedicam a maior parte de seu tempo, além de recursos materiais e humanos. (GILLESPIE, 2018)
Ao mesmo
tempo em que não se pode responsabilizar diretamente as plataformas porque
algumas pessoas desejam publicar vinganças pornográficas, fazer bullying,
propagar terrorismo ou praticar discursos de ódio, atualmente, já há muita
informação sobre as maneiras como elas facilitam, amplificam e exacerbam
determinados tipos de conteúdo, bem como
direcionam o usuário.
Como
destaca Tarleton Gillespie (2018), no
momento em que as redes sociais criaram perfis e tópicos de discussão, maneiras
de destacar, organizar e categorizar o que os usuários postam na web ou de indicar o que é popular e está em destaque; no momento
em que as plataformas criaram estratégias fundadas em estudos psicológicos para
incentivar o engajamento do usuário e mantê-lo por mais tempo na rede; no
momento em que começaram a usar robôs
falando como se fossem seres humanos e a moderar discurso de forma
distinta de meramente listar usuários e colocar as respectivas mensagens em
ordem cronológica, as plataformas deixaram de simplesmente exercer a função de
portadores de mensagens – common carriers
− para passar a exercer certa função editorial, ainda que
essa editoração seja de natureza bastante distinta da realizada por jornais,
revistas, rádios ou redes de televisão.
A criação
de um conteúdo interessante para o usuário requer alguma forma de moderação
pela plataforma, ainda que não seja a mesma forma de editoração feita por um
jornal. Imagine, por exemplo, que o conteúdo publicado na tela do Instagram
observasse somente o parâmetro cronológico. Rapidamente, o usuário da rede
ver-se-ia fatigado com uma enorme quantidade de mensagens que para ele são
completamente irrelevantes, perdendo o interesse. Plataformas, assim, não são
definidas apenas pelo que elas permitem e proíbem, mas pelas formas como elas moderam. Isto representa uma
característica essencial para diferenciar qualquer rede social da open web (GILLESPIE, 2018).
Cada
plataforma, desse modo, elege uma enorme quantidade de parâmetros para
determinar o que deve aparecer no feed de notícias, escolhendo alguns critérios
dentre muitos possíveis. Qualquer um pode criar um site no qual qualquer
usuário pode postar o que quiser, sem regras ou formas de moderação. No
entanto, é bastante provável que esse site se torne rapidamente um poço de
tédio, sendo abandonado pela maioria dos usuários. Um certo nível de atividade
editorial é essencial para que qualquer provedor possa desempenhar o seu
serviço de maneira eficiente e interessante, ajudando o usuário a encontrar o
que procura na rede.
A
moderação é fundamental para que o usuário tenha uma boa experiência e ela é
feita pela retirada, filtragem e amplificação de determinados tipos de conteúdo
em detrimento de outros. Igualmente, é feita pelas recomendações e
sugestões personalizadas, mediante as trending
lists e as propagandas que surgem na primeira página, tudo de modo a
incentivar o engajamento dos usuários e mantê-los pelo maior tempo possível conectados às redes, gerando uma sensação agradável e um sentimento
de pertencimento.
Além
disso, não há como uma plataforma ser completamente neutra. Seja classificando
o conteúdo cronologicamente, alfabeticamente, por tamanho ou por alguma outra métrica, isso inevitavelmente impõe
hierarquia de algum tipo. O conceito de neutralidade ainda pode assumir
diferentes significados, a
depender do valor priorizado. Para um defensor da primeira emenda – concepção
estadunidense da liberdade de expressão − a
neutralidade pode significar não excluir qualquer conteúdo, não importa o quão
ofensivo. Para um especialista em competição, neutralidade pode significar
concorrência justa na classificação dos resultados de busca, o que implicaria a
exclusão daqueles decorrentes do abuso do poder de mercado (KELLER, 2018). Uma rede social dedicada a conectar
profissionais que atuam em diferentes mercados pode resolver excluir ou filtrar
qualquer post que não seja relacionado ao trabalho, ainda que não haja nada de
ilícito na publicação. A questão então não parece ser a retirada ou a filtragem
de determinados tipos de conteúdo, mas quais são os critérios legais,
contratuais e proporcionais para fazê-lo, preservando ao máximo os direitos
fundamentais.
Plataformas,
assim, não são como jornais, rádios e televisões, mas, igualmente, não podem
ser equiparadas aos correios ou às empresas de telefone. Elas se tornaram um
híbrido, pois, não apenas possibilitam a comunicação, mas a armazenam,
organizam e tornam rastreável, selecionando o que irá para a primeira página e
a publicidade relacionada. Tudo é elaborado para chamar a atenção dos usuários
e mantê-los conectados em troca da exposição aos anúncios de comerciantes e do
tratamento de dados pessoais.
As ideias
de que há completa impossibilidade de qualquer moderação sobre eventual
ilicitude praticada por terceiros que usam os serviços e de que a mediação do
discurso é feita de forma completamente neutra é poderosa e já pode ter sido
verdadeira, mas, atualmente, tais argumentos se parecem mais com uma tentativa
de distração.
O que
ocorre é que as empresas continuam a querer o melhor dos dois mundos: serem
tratadas como jornais e revistas, de um lado, ou meras empresas de telefone, de
outro, a depender do que seja mais conveniente para o caso concreto. Assim,
buscam prolongar os anos nos quais, talvez, foram o único setor da economia
global que não pagou nem pelos insumos dos produtos fornecidos aos seus
clientes – conteúdo protegido por direito autoral – nem teve qualquer obrigação
voltada a atenuar as externalidades negativas causadas em decorrência da
atividade econômica exercida.
4. EXEMPLOS DE NOVAS OBRIGAÇÕES DE MEIO
IMPOSTAS ÀS PLATAFORMAS E ÀS REDES SOCIAIS
Tentativas
de alteração do regime de responsabilidade das plataformas, geralmente,
obtiveram como resposta a ideia de que qualquer mudança implicaria o fim da
liberdade de expressão e da privacidade dos usuários. Mas, na realidade, há
inúmeras possibilidades de arranjos institucionais entre a imposição das regras
clássicas de responsabilidade civil e a completa imunidade. Igualmente, a ideia
de imunidade civil não é incompatível com a atribuição de algumas obrigações de
meio, voltadas a atender o interesse público ou a assegurar o direito de terceiros
que sofrem externalidades negativas em virtude da prestação do serviço (GILLESPIE, 2018).
4.1 Compartilhamento de hashes de conteúdo já declarado ilícito
a fim de reduzir a disseminação do dano
Vimos em
tópicos anteriores que grandes plataformas, de maneira voluntária, já
compartilham hashes de conteúdo
relacionado ao terrorismo e à pornografia infantil, de modo a filtrar e
diminuir a disseminação desses tipos de vídeos e imagens na internet. O mesmo,
em princípio, poderia ser feito em relação a outros tipos de conteúdo, tais
como aqueles relacionados à vingança pornográfica. Cabe indagar por que uma
vítima de vingança pornográfica é que deve suportar o ônus de monitorar as
plataformas 24/7 na busca de impedir a repetição do dano previamente sofrido, quando já há tecnologia disponível para ao menos reduzir
a disseminação de outros tipos de conteúdo ilícito.
4.2 Diferenciar os conceitos de
monitoramento geral e monitoramento específico, considerado o estado atual da
tecnologia
O
compartilhamento de hashes voltados a
reduzir a disseminação do dano pode vir acompanhado de uma melhor diferenciação
entre os conceitos de monitoramento geral e específico.
Em
diversas ocasiões, a Corte Europeia de Justiça já afirmou ser incompatível com
a Carta Europeia de Direitos Humanos a realização de monitoramento prévio de
conteúdo sobre tudo o que os usuários publicam na internet. Em casos relevantes, no entanto, fez uma diferenciação
entre monitoramento geral e específico.[17]
De acordo
com a Corte Europeia de Justiça, a proibição de monitoramento geral impede a
criação de leis que, para impedir ilícitos futuros, obriguem as plataformas a instalarem um sistema: a) que filtre
informação armazenada em seus servidores; b) como uma medida preventiva; c) de
maneira geral e indiscriminada em relação a todos os usuários; d) por um
período indeterminado; e) que tenha o custo exclusivamente suportado pela
empresa; e f) capaz de identificar arquivos contendo
músicas ou vídeos.
Não
obstante, a mesma Corte admite que, para proibir a prática de ilícitos futuros,
pode ser imposto monitoramento voltado a prevenir infrações: a) do mesmo tipo;
b) praticados pelo mesmo autor previamente identificado; e c) relacionado às
mesmas marcas.[18]
Entre
outros casos (FROSIO, 2017), há ainda exemplos de Cortes
na França[19],
na Alemanha[20]
e na Inglaterra[21]
que determinaram aos aplicativos de busca a obrigação de monitorar e
desindexar links que remetessem a imagens já declaradas previamente ilícitas,
tais como as de Max Mosley, ex-presidente da Federação Internacional de
Automobilismo, tendo relações sexuais. Na Inglaterra, a ação movida por Mosley
teve como suporte a Lei de Proteção de Dados Pessoais, afirmando a Corte ser de
conhecimento geral a existência de tecnologia que permitiria o Google, sem
grandes esforços nem custos relevantes, monitorar e reduzir o acesso a tais
imagens.
Na
Alemanha, a Corte de Hamburgo destacou que impor àquele que tem a privacidade
violada o dever de notificar o provedor de busca e indicar a correspondente URL
à cada nova publicação das imagens ofensivas
revela-se como um mecanismo inadequado e insuficiente de proteção à privacidade, pois o ônus de monitorar permanentemente o específico conteúdo
ilícito na internet seria imposto à parte mais fraca da relação
e a que está mais longe de dispor dos mecanismos tecnológicos adequados para
proteger o direito à privacidade. Sobre a capacidade do Google de monitorar e
bloquear o acesso às imagens, a Corte mencionou o uso de aplicativos atualmente
comuns no mercado como o PhotoDNA, iWatch e o Content-ID.
Mais
recentemente, no julgamento do caso Glawisching-Piescek, a Corte Europeia de
Justiça ampliou o conceito de monitoramento específico num caso sobre difamação,
permitindo que, para impedir infrações futuras por terceiros, possa ser
determinado às plataformas o bloqueio de conteúdo idêntico ou equivalente.
Dentre as críticas a este ponto específico da decisão – há outras em relação a
outros pontos – está o fato de que fica atualmente difícil para um filtro
bloquear conteúdo sem saber exatamente aquilo que deve ser detectado, o que
implica o bloqueio acidental[22] de
diversas expressões de caráter totalmente lícito como efeito colateral[23].
A
polêmica mostra que a imposição de novas obrigações de meio não deve atropelar
o desenvolvimento tecnológico. Em outras leis dedicadas ao setor, como a lei de
proteção de dados brasileira, por exemplo, há dispositivos que atrelam os
deveres de cuidado das plataformas e outras empresas à existência de tecnologia
a um custo razoável[24], o que
poderia servir de inspiração para regras destinadas a tratar das obrigações de
meio das plataformas destinadas a diminuir os danos ocasionados pelo uso de
seus serviços.
4.3 Obrigações relacionadas à
transparência e ao devido processo
A
preservação da imunidade civil pode ainda estar relacionada à exigência de cumprimento de alguns deveres de cuidado
relacionados à transparência e ao devido processo.
Leis
podem estabelecer regras de transparência relacionadas à moderação de conteúdo,
obrigando as plataformas com um número mínimo de usuários ou reclamações por
ano a esclarecerem o público sobre informações, tais como: o
número de contas falsas bloqueadas; a
quantidade de pedidos de retirada, a que eles estão relacionados; e quais destes pedidos foram atendidos. Grandes
plataformas, vale dizer, voluntariamente já começaram a produzir relatórios dessa natureza.
Leis
também podem estabelecer regras relacionadas ao prazo que as plataformas têm
para responder a reclamações, e a
procedimentos que permitam ao usuário realizar denúncias sobre conteúdos
publicados na plataforma bem como formular apelações ou pedidos de
reconsideração em caso de eventual bloqueio. Ao ter um conteúdo ou um perfil excluído,
o usuário responsável deve receber uma notificação que esclareça os motivos da
restrição.[25]
Cumpridos
os prazos e procedimentos, eventual erro de julgamento da plataforma sobre o
bloqueio ou a permanência do conteúdo, salvo em casos
manifestos, não deve levar à responsabilização. Compete lembrar
que mesmo cortes constitucionais divergem ou resolvem com base em maiorias
apertadas em diversas situações de aparente conflito entre a liberdade de
expressão e outros direitos fundamentais.
Na mesma
linha, regras como a do “bom samaritano”, prevista na Seção 230
do Código dos EUA, podem ser adotadas. Em outras palavras,
pode-se incentivar as plataformas a retirar conteúdo considerado ofensivo e contrário aos termos de uso de suas redes sem
torná-las automaticamente responsáveis por qualquer tipo de mensagem publicada
por terceiros.
Para
diminuir os problemas relacionados à ocorrência de notificações e de denúncias abusivas, em especial na área de ilícitos
relacionados ao direito autoral, regras podem ainda autorizar a suspensão
daqueles titulares de direitos que frequentemente submetem notificações
infundadas. [26]
A maioria
das plataformas se comunica com o público apenas por meio de suas páginas
oficiais. As empresas, no entanto, poderiam ter uma espécie de ombudsman para responder às preocupações
do público, bem como para
servir de canal entre ele e os executivos da empresa. É importante ainda a
realização de cursos, de treinamentos
e a possibilidade de revisão humana por especialistas com conhecimento
da língua em que foi feita a postagem. Regras
ainda podem levar em consideração o tamanho das empresas ou a quantidade de
acessos sobre determinado conteúdo, apenas para exemplificar.
Há,
enfim, diversos arranjos institucionais relacionados à criação de obrigações de
meio que podem ser estabelecidos sem que seja imposta às plataformas uma
responsabilidade objetiva pelo conteúdo publicado por terceiros.
5. CONCLUSÃO
Na grande
maioria dos países, o surgimento das empresas de internet começou de maneira
completamente distinta do aparecimento do rádio e da televisão que, desde o
nascedouro, foram submetidas a uma regulação com a previsão de diversas regras
voltadas a assegurar o interesse público.
Com o
passar dos anos e com as pessoas despendendo cada vez mais tempo on-line, as plataformas tornaram-se peças fundamentais na garantia
ou na ofensa a direitos fundamentais, assim como
adquiriram a capacidade de impactar regimes democráticos de maneira reservada
tradicionalmente às instituições públicas.
No final
da década de 90, em boa medida, as leis sobre a responsabilidade das
plataformas pela prática de atos de terceiros partiram da premissa de que era
impossível a elas monitorar o grande volume de conteúdo postado
pelos usuários, bem como da necessidade de se criar uma
internet descentralizada, livre e plural. A premissa, contudo, torna-se cada
vez menos correta à medida que os anos passam e a tecnologia
evolui. A relação entre imunidade civil, de um lado, e pluralidade,
descentralização e vitalidade da rede, de outro, parece não mais ocorrer da
maneira inicialmente idealizada.
Se por um
lado descabe colocar as plataformas na posição de censores privados, não parece
mais razoável as empresas não terem qualquer
dever de cuidado em relação aos próprios usuários ou a terceiros que sofrem
externalidades negativas pelo uso de seus serviços.
Plataformas,
atualmente, fazem muito mais do que simplesmente distribuir conteúdo de maneira
passiva ou facilitar interações. A maioria delas extraem, organizam e ressignificam
os conteúdos e dados produzidos pelo usuário. As maiores, por sua vez, usam de
seus próprios algoritmos para alavancar sua posição no mercado e vender
informação em mercados secundários.
Além
disso, as plataformas adquiriram papel central na comunicação pública e na
garantia de acesso à informação, fazendo com que as regras por elas adotadas
tenham impacto significativo na vida social, econômica e política de todos. No
mínimo, portanto, não devem mais receber um passe completamente livre para permitir
a prática de condutas discriminatórias, de discurso
de ódio, de terrorismo e de crimes
contra a propriedade intelectual em seus serviços. Compete às
plataformas a internalização de pelo menos alguns dos custos pelas
condutas ilícitas praticadas em suas redes.
Publicado originalmente na Agenda Brasileira de Economia Digital
AMMORI, M. (2012,
mar 2011). First Amendment Architecture. Retrieved from Wisconsin Law
Review, : https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1791125
BALKIN, J. M.
(2014, June 20). Old-School/New-School Speech Regulation. Retrieved
from harvardlawreview.org:
https://harvardlawreview.org/2014/06/old-schoolnew-school-speech-regulation/
BERTOLINI, A.
(2021). European Parliament. Liability of online plataforms. European
Parliament. Retrieved Aug 26, 2022, from
https://www.europarl.europa.eu/RegData/etudes/STUD/2021/656318/EPRS_STU(2021)656318_EN.pdf
Comissão Europeia.
(2017, dez 6). ec.europa.eu. Retrieved from Fighting Terrorism Online:
Internet Forum pushes for automatic detection of terrorist propaganda:
https://ec.europa.eu/commission/presscorner/detail/ro/IP_17_5105
Corte Europeia de
Justiça. (2019, Out 3). Glawischnig-Piesczek v. Facebook Ireland Limited.
Retrieved from
https://curia.europa.eu/juris/document/document.jsf?docid=218621&doclang=EN
ENGSTRON, E.
&. (2017, Março). The Limits of Filtering: a look at the functionality
shortcomings of content detection tools. Retrieved from https://static1.squarespace.com/static/571681753c44d835a440c8b5/t/58d058712994ca536bbfa47a/1490049138881/FilteringPaperWebsite.pdf
FROSIO, G. &.,
& BULAYENKO, O. (2021, Março). Study on Dynamic Blocking Injunctions in
the European Union. SSRN. Retrieved Agosto 26, 2022, from
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3807277
FROSIO, G. &.,
& GEIGER, C. (2021, Mar 22). Taking Fundamental Rights Seriosly in the
Digital Services Act´s Plataform Liability Regime. European Law Journal.
Retrieved Aug 26, 2022, from https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3747756
FROSIO, G. (2017,
jun 5). The Death of no Monitoring Obligation: a story of antameable monsters.
Journal of Intellectual Property, Information Technology and E Commerce.
Retrieved from https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2980786.
FROSIO, G. (2017,
june 5). The Death of 'No Monitoring Obligation´:a story of untameable
monsters. Retrieved maio 15, 2018, from Journal of Intellectual Property,
Information Technology and E Commerce: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2980786
FROSIO, G. (2017,
May 31). Why Keep a Dog and Bark Yourself? From Intermediary Liability to
Responsibility. Oxford International Journal of Law and Information
Technology , pp. 1-33.
German Law
Archive. (2017, Set 1). germanlawarchive.juscomp.org. Retrieved from
https://germanlawarchive.iuscomp.org/?p=1245
GILLESPIE, T.
(2018, July). Plataforms are not Intermediaries. Georgetown Law Technology
Review. Retrieved from https://heinonline.org/HOL/LandingPage?handle=hein.journals/gtltr2&div=19&id=&page=
GOLDSMITH, J.
(2018, junho). The Failure of Internet Freedom. Retrieved from
knightcolumbia.org:
https://knightcolumbia.org/content/failure-internet-freedom
GOOGLE. (2016, Dez
05). blog.google. Retrieved from Partnering to help curb the spread of
terrorist content online:
https://blog.google/around-the-globe/google-europe/partnering-help-curb-spread-terrorist-content-online/
JAMEEL , j., &
WIKENS, S. (2021, dez 9). Social Media Companies Want to Co-opt the First
Amendment. Courts Shouldn’t Let Them. Retrieved from nytimes.com:
https://www.nytimes.com/2021/12/09/opinion/social-media-first-amendment.html
KELLER, D. (2018).
Internet Platforms: Observations on Speech, Danger, and Money. Hoover Institution's
Aegis Paper Series.
KELLER, D. (2018,
Oct). Toward a Clearer Conversation About Platform Liabiliy. SSRN.
Retrieved Aug 26, 2022, from
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3186867
LAIDLAW, E. B.
(2015). Regulating Speech in Cyberspace: gatekeepers, human rights and
corporate responsability. Cambridge: Cambridge University Press.
LAIDLAW, E. B.
(2015). Regulating Speech in Cyberspace: Gatekeepers, Human Rights and
Corporate Responsibility. Arquivo Kindle: Cambridge University Press.
MEYER, D. (2011,
abr 5). Google loses autocomplete defamation case in Italy. Retrieved
from zdenet:
https://www.zdnet.com/article/google-loses-autocomplete-defamation-case-in-italy/
O´NEIL, C. (2016).
Weapons of Math Destruction: How Big Data Increases Inequality and
Threatens Democracy. Arquivo Kindle : Broadway Books .
POST, D. (2015,
Aug). a Bit of Internet History or How Two Members of Congress Helped Create a
Trillion or so Dollars of Value. WASH POST.
SARTOR, G. (2017).
Providers Liability: From the eCommerce Directive to the Future. .
Brussels: European Parlament. Policy Department: Economic and Scientific
Policy.
SCHAUER, F. (2017,
november). The Hostile Audience Revisited . Retrieved from
knightcolumbia.org: https://knightcolumbia.org/content/hostile-audience-revisited
SYLVAIN, O. (abril de 2018). Discriminatory
Designs on User Data. Acesso em 31 de julho de 2018, disponível em
knightcolumbia.org:
https://knightcolumbia.org/content/discriminatory-designs-user-data
TEFFE, C. S.,
& SOUZA, C. A. (nov. - fev/2019). Responsabilidade Civil dos Provedores na
Rede: análise da aplicação do Marco Civil da Internet pelo Superior Tribunal
de Justiça. Revista IBERC, 1.
The Economist .
(2017, fev 11). Internet firms’ legal immunity is under threat.
Retrieved from economist.com:
https://www.economist.com/business/2017/02/11/internet-firms-legal-immunity-is-under-threat
The New York
Times. (2018, Oct 6). Did Facebook Learn Anyting from the Cambridge
Analytica Debacle? Retrieved from nytimes.com: https://www.nytimes.com/2018/10/06/opinion/sunday/facebook-privacy-breach-zuckerberg.html
WHITNEY, H. M.
(2018, February 26). Search Engines, Social Media, and the Editorial
Analogy. Retrieved from papers.ssrn.com:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3130724
WU, T. (2016). The
Attention Merchants: The Epic Scramble to Get Inside Our Heads. Arquivo
Kindle: Vintage.
WU, T. (2017,
September ). Is The First Amendment Obsolete? . Retrieved from
knightcolumbia.org: https://knightcolumbia.org/content/tim-wu-first-amendment-obsolete
[1]
Efeito de rede é o efeito benéfico que o usuário de um bem ou serviço recebe em
virtude da utilização desse mesmo bem ou serviço por outros usuários. Quando o
efeito de rede existe, o valor de um serviço por um usuário está diretamente
relacionado ao número de usuários que utiliza o mesmo serviço. O exemplo
clássico era o telefone. Quanto mais pessoas estão conectadas à rede
telefônica, mais valiosa ela se torna para cada usuário. Hoje, as redes sociais
acabam funcionando da mesma forma, o que tende a gerar monopólios ou
oligopólios. Ninguém quer ir para uma rede social em que ninguém mais está
conectado.
[2] Section 230 of the Communications
Decency Act (CDA)
[3] De
acordo com o Seção n° 230 do CDA, as plataformas perderão a imunidade civil
apenas se tiverem ajudado a criar ou desenvolver o conteúdo postado. A primeira
regra criada pelo CDA torna os provedores imunes por qualquer conteúdo ilícito
postado pelos usuários nas respectivas redes. Segundo a norma, os provedores
não podem ser obrigados a retirar ou limitar o conteúdo postado pelos usuários,
devendo as ordens judiciais serem direcionadas aos usuários, e não às
plataformas.
[4] Stratton Oakmont, Inc. v.
Prodigy Services Co., 1995 WL 323710 (N.Y. Sup. Ct. 1995).
[5]
Giovani Sartor ressalta diferenças importantes entre a legislação europeia e
americana, embora ambas tenham em comum a previsão de imunidade civil. De
início, a legislação europeia cita serviços específicos que estariam imunes de
responsabilidade ao passo que o CDA se aplica a qualquer tipo de serviço. Em
segundo, enquanto nos EUA eventuais ordens de remoção de conteúdo devem ser
dirigidas aos usuários, na Europa as autoridades competentes podem pedir
providências aos provedores para prevenir e reprimir as atividades ilícitas
praticadas por terceiros que usem os serviços. Finalmente, enquanto a
legislação americana estabelece que alguma atividade editorial dos provedores
voltada à exclusão de conteúdos ofensivos não constitui atividade suficiente a
afastar a imunidade civil – regra do bom samaritano –, o item 42 da diretiva
europeia pode gerar certa insegurança às plataformas, pois dispõe que a
imunidade e a presunção de desconhecimento da atividade ilícita praticada pelo
usuário se aplica às atividades cuja natureza seja meramente técnica,
automatizada e passiva. (SARTOR, 2017)
[8] Há
críticas aos sistemas de responsabilidade fundados no chamado notice-and-takedown. De início, descabe
presumir a ilicitude de uma mensagem simplesmente porque alguém quer retirá-la
da rede. A possibilidade de responsabilização a partir da notificação de um
particular cria o risco de esvaziar a liberdade de expressão justamente nas
hipóteses em que ele é mais importante: no pronunciamento de manifestações
polêmicas e controversas na esfera pública. Estudos estatísticos ainda mostram
que, nos regimes de notice-and-takedown,
o número de notificações abusivas é grande, mas que várias empresas
simplesmente cumprem todos os requerimentos sem fazer qualquer questionamento a
respeito do mérito daquilo que é a elas demandado. Isso porque, considerado o
risco de se tornar responsável, a opção mais fácil para as plataformas é
simplesmente retirar o conteúdo. O incentivo econômico, se não existente
qualquer regra a incentivar a precaução, vai no sentido de pecar pelo
excesso. (KELLER, 2018)
[9] Em
sistemas nos quais a imposição de responsabilidade civil depende do efetivo
conhecimento de alguém sobre a ilicitude, determinar o que formaliza esse
conhecimento torna-se uma importante ferramenta regulatória. Basta a
notificação do usuário? É suficiente a notificação de uma fonte confiável, tais
como as agências de checagem? Ou a notificação precisa ser de natureza
judicial? No Brasil, o art. 19 do Marco Civil da Internet cria uma rede de
proteção maior às plataformas ao exigir, no art. 19, a necessidade de indicação
prévia da URL onde está o conteúdo apontado como ilícito e a notificação de
natureza judicial.
[10]
Sobre bloqueio de sites, veja:
[11] Disponível
em: http://europa.eu/rapid/press-release_IP-16-1937_en.htm.
Acesso em: 26 ago. 2022. O Código estabelece medidas voluntárias a serem
adotadas pelos signatários, tais como: a) introdução em seus termos de uso de regras proibindo o incitamento e a
promoção à violência e a atos odiosos; b) adoçao de processos claros e eficazes
para analisar notificações sobre discurso de ódio em seus serviços, de modo a
poderem remover ou desabilitar o acesso, apresentando aos usuários informações
sobre os procedimentos para o envio de notificações; c) análise da maioria das
notificações válidas para remoção de discurso de ódio em menos de 24 horas,
removendo ou desabilitando o respectivo acesso; d) incentivo para que
especialistas e agências de checagem sinalizem conteúdos que promovam a
incitação da violência e de discurso de ódio, indicando aos usuários a
possibilidade de usar as agências de checagem disponíveis; e) fornecer
treinamento regular aos funcionários sobre os desenvolvimentos sociais sobre o
tema, promovendo debates para melhorias
do sistema e apoiando programas educacionais que incentivem o pensamento
crítico.
[13] E-ventures Worldwide, LLC v. Google, Inc., 188 F. Supp. 3d 1265 (M.D. Fla. 2016).
[14]
Sobre o tema: (WHITNEY, 2018).
[15]
Na Europa, situação semelhante levou a um resultado bastante distinto, sendo
imposta uma condenação bilionária ao site de buscas. In: https://www.euractiv.com/section/digital/news/eu-court-confirms-e2-4bn-fine-against-google-for-market-abuse/.
Acesso em: 26 ago. 2022.
[16] Social Media Companies Want to
Co-opt the First Amendment. Courts Shouldn´t Let Them. In: https://www.nytimes.com/2021/12/09/opinion/social-media-first-amendment.html.
Acesso em: 24 ago. 2022.
[17] Sobre o tema:
[18] C-324/09 L’Oréal SA and Others v
eBay International AG and Others [2011] ECLI:EU:C:2011:474, para 131 (hereafter
‘L’Oréal’).
[19] Google v. Mosley(TGI Paris, 6
November 2013) (France).
[20] Max Mosley v Google Inc.324 O
264/11 (Hamburg District Court, 24 January 2014)(Germany).
[21] Max Mosley v. News Group Newspaper
Ltd[2008] EWHC 1777 (QB)(United Kingdom)
[22]
Estudo sobre a eficiência de filtros que tem como parâmetro o processamento de
linguagem natural mostra que ainda é alto o bloqueio equivocado de mensagens lícitas
e que os erros aumentam quando o usuário usa gírias, sarcasmo ou escreve em uma
língua que não é a nativa do programador.
[23] A
proporcionalidade de leis e decisões destinadas a inibir a propagação de
conteúdo ilícito deve ser medida não apenas pelas mensagens ilícitas que
consegue barrar, mas também pela censura colateral que irá produzir. Impedir a
circulação de conteúdo ilícito não pode produzir como efeito colateral
restrições desproporcionais a uma enorme quantidade de mensagens lícitas.
Regras sobre responsabilidade ou a imposição de novas obrigações de meio às
plataformas não podem ser estipuladas de modo a que o benefício social
produzido pela prevenção ao conteúdo ilícito seja, e muito, superado pelo dano
social causado pela censura de mensagens totalmente legítimas (SARTOR, 2017).
[24] A saber: LGPD. Art. 12, § 1°, art.
16 e art. 46, § 1°.
[25] Veja sobre o tema: Santa Clara Principles
on Transparency and Accountability in Content Moderation. Disponível em: https://santaclaraprinciples.org/pt/open-letter/. Acesso em:
26 ago. 2022.
[26]
Vale dizer que esta é uma das regras propostas para o Digital Services Act. Sobre o tema, veja: Digital Services: landmark rules adopted for a
safer, open online environment. Disponível em: https://www.europarl.europa.eu/news/en/press-room/20220701IPR34364/digital-services-landmark-rules-adopted-for-a-safer-open-on-line-environment).
Acesso em: 31 out. 2022.
Nenhum comentário
Postar um comentário