Antecedentes dos Princípios de Santa Clara
Em maio de 2018, um grupo de organizações, ativistas e acadêmicos se reuniram para criar os Princípios de Santa Clara sobre Transparência e Responsabilização na Moderação de Conteúdos como resposta a aumento de preocupação sobre a falta de transparência e responsabilização das plataformas digitais em relação a como criam e fiscalizam suas políticas de moderação de conteúdo. Os Princípios delineiam padrões mínimos que devem ser alcançados pelas plataformas de tecnologia para poder oferecer transparência e responsabilização adequada dos seus esforços em retirar conteúdos gerados por usuários ou suspender contas que violam suas regras.
O conjunto original dos Princípios foca em três questões chaves - números completos que detalham os esforços de moderação da plataforma, notificação clara para usuários impactados, e um processo de apelação robusto. São consistentes com o trabalho do Sr. David Kaye, ex-Relator Especial da ONU sobre promoção do direito de liberdade de expressão e opinião, que convocou um “quadro para moderação de conteúdo digital gerado por usuário que tem no seu cerne os direitos humanos.” Os princípios também refletem as recomendações dos Princípios Orientadores sobre Negócios e Direitos Humanos da ONU, que articulam as responsabilidades das empresas em relação aos direitos humanos.
Quando foram inicialmente divulgados os Princípios, havia pouca transparência sobre o escopo, escala e impacto dos esforços de moderação das plataformas digitais. Como resultado, os autores dos Princípios convocavam as empresas a divulgarem mais dados sobre tais esforços de moderação através de relatórios de transparência. Estes relatórios de transparência ajudaram a destacar a censura governamental nas plataformas, permitindo aos usuários a tomar decisões melhor informadas sobre quais produtos a usar e evitar, e permitiram aos grupos de defesa dos direitos a cobrar as empresas o cumprimento de processos legais estabelecidos ao responder e obedecer a ordens do governo. Além do mais, os autores dos Princípios perceberam que a moderação de conteúdo frequentemente ocorre de forma vertical, de cima para baixo, deixando o usuário com poucas opções para remediar e reverter os casos. Os Princípios de “notificação” e “apelação” buscam a criar mecanismos robustos, transparentes e confiáveis para assegurar devido processo ao usuário. Desde a sua divulgação várias plataformas digitais subscreveram e se comprometeram a aderir aos Princípios. As plataformas incluem Apple, Facebook, GitHub, Google, Instagram, LinkedIn, Medium, Reddit, Snap, Tumblr, Twitter, e YouTube. Embora algumas destas
plataformas fizeram grandes avanços em oferecer maior transparência nos esforços de moderação de conteúdos, pouquíssimas empresas completamente satisfizeram os requisitos delineados nos Princípios. As plataformas precisam fazer mais para alcançar estas expectativas básicas de transparência e responsabilização.
O grupo dos Princípios de Santa Clara, composto de __ organizações, lançou um conjunto atualizado de princípios para avançar a transparência e responsabilização das plataformas.
Embora os Princípios originais de 2018 lançaram padrões básicos robustos com os quais as empresas devem seguir, a participação na sua criação foi limitada a poucos grupos e indivíduos, e seus aliados - particularmente de países do Sul Global - e isso gerou preocupação legitima e sugestões para sua revisão. Especificamente, atores no mundo inteiro enfatizaram que as plataformas vem investindo mais recursos em oferecer transparência e devido processo para certas comunidades e mercados. Empresas devem corrigir esta inequidade e assegurar que todos os usuários - independentemente de onde vivam - podem obter transparência e responsabilização das empresas. Isto é de fundamental importância dado que muitos dos danos que resultam de práticas de moderação de conteúdo ocorrem em comunidades que vem sendo negligenciadas pelas plataformas.
A paisagem de moderação de conteúdos mudou muito nos últimos anos. Plataformas não estão atualmente lidando com conteúdo e contas danosos por simplesmente os removendo. Hoje, vários serviços dependem de ferramentas algorítmicas para filtrar conteúdos através de intervenções como rebaixamento de ranking. Ha uma falta grave de transparência e responsabilização em relação a como as plataformas implementam as intervenções e quais são os impactos resultantes na liberdade de expressão. Além disso, pesquisadores e ativistas tem destacado o resultado discriminatório e danoso que o conteúdo digital pago pode criar. Hoje também há uma grande falta de transparência sobre como tal conteúdo é moderado, e com quais impactos. São outras áreas que as plataformas devem se comprometer em deixar esclarecidas.
Por fim, durante a pandemia de COVID-19, muitas plataformas divulgaram que iriam aumentar a sua dependência nas ferramentas automatizadas para fins de moderar conteúdo. Alguns serviços também anunciaram que estariam suspendendo os processos de apelação, assim impedindo acesso ao usuário do devido processo. Várias organizações de sociedade civil levantaram preocupações sobre como tais decisões impactariam a liberdade de expressão digital, destacando que as plataformas devem
poder manter um nível básico de transparência e responsabilização em toda circunstância.
Por cause destas três questões, o grupo dos Princípios de Santa Clara editaram uma chamada por comentários de uma gama abrangente de atores globais, com objetivo de expandir os princípios ao longo do tempo. O grupo engajou em interação importante com o público e comunidade através de um período de comentários abertos e posteriormente uma estratégia de interação mais especifica, depois revisou os insumos durante um período determinado e por fim, elaborou um novo conjunto de Princípios. Realizaram uma serie de oficinas e consultas abertas para acrescentar mais detalhes ao conjunto original de princípios.