Princípios de Santa Clara

On Transparency and Accountability in Content Moderation


Top

Toolkit for Advocates Portuguese

Download Advocates Toolkit

1. Antecedentes dos Princípios de Santa Clara

Em maio de 2018, um grupo de organizações, ativistas e acadêmicos se reuniram para criar os Princípios de Santa Clara sobre Transparência e Responsabilização na Moderação de Conteúdos como resposta a aumento de preocupação sobre a falta de transparência e responsabilização das plataformas digitais em relação a como criam e fiscalizam suas políticas de moderação de conteúdo. Os Princípios delineiam padrões mínimos que devem ser alcançados pelas plataformas de tecnologia para poder oferecer transparência e responsabilização adequada dos seus esforços em retirar conteúdos gerados por usuários ou suspender contas que violam suas regras.

O conjunto original dos Princípios foca em três questões chaves - números completos que detalham os esforços de moderação da plataforma, notificação clara para usuários impactados, e um processo de apelação robusto. São consistentes com o trabalho do Sr. David Kaye, ex-Relator Especial da ONU sobre promoção do direito de liberdade de expressão e opinião, que convocou um “quadro para moderação de conteúdo digital gerado por usuário que tem no seu cerne os direitos humanos.” Os princípios também refletem as recomendações dos Princípios Orientadores sobre Negócios e Direitos Humanos da ONU, que articulam as responsabilidades das empresas em relação aos direitos humanos.

Quando foram inicialmente divulgados os Princípios, havia pouca transparência sobre o escopo, escala e impacto dos esforços de moderação das plataformas digitais. Como resultado, os autores dos Princípios convocavam as empresas a divulgarem mais dados sobre tais esforços de moderação através de relatórios de transparência. Estes relatórios de transparência ajudaram a destacar a censura governamental nas plataformas, permitindo aos usuários a tomar decisões melhor informadas sobre quais produtos a usar e evitar, e permitiram aos grupos de defesa dos direitos a cobrar as empresas o cumprimento de processos legais estabelecidos ao responder e obedecer a ordens do governo. Além do mais, os autores dos Princípios perceberam que a moderação de conteúdo frequentemente ocorre de forma vertical, de cima para baixo, deixando o usuário com poucas opções para remediar e reverter os casos. Os Princípios de “notificação” e “apelação” buscam a criar mecanismos robustos, transparentes e confiáveis para assegurar devido processo ao usuário. Desde a sua divulgação várias plataformas digitais subscreveram e se comprometeram a aderir aos Princípios. As plataformas incluem Apple, Facebook, GitHub, Google, Instagram, LinkedIn, Medium, Reddit, Snap, Tumblr, Twitter, e YouTube. Embora algumas destas

plataformas fizeram grandes avanços em oferecer maior transparência nos esforços de moderação de conteúdos, pouquíssimas empresas completamente satisfizeram os requisitos delineados nos Princípios. As plataformas precisam fazer mais para alcançar estas expectativas básicas de transparência e responsabilização.

O grupo dos Princípios de Santa Clara, composto de __ organizações, lançou um conjunto atualizado de princípios para avançar a transparência e responsabilização das plataformas.

Embora os Princípios originais de 2018 lançaram padrões básicos robustos com os quais as empresas devem seguir, a participação na sua criação foi limitada a poucos grupos e indivíduos, e seus aliados - particularmente de países do Sul Global - e isso gerou preocupação legitima e sugestões para sua revisão. Especificamente, atores no mundo inteiro enfatizaram que as plataformas vem investindo mais recursos em oferecer transparência e devido processo para certas comunidades e mercados. Empresas devem corrigir esta inequidade e assegurar que todos os usuários - independentemente de onde vivam - podem obter transparência e responsabilização das empresas. Isto é de fundamental importância dado que muitos dos danos que resultam de práticas de moderação de conteúdo ocorrem em comunidades que vem sendo negligenciadas pelas plataformas.

A paisagem de moderação de conteúdos mudou muito nos últimos anos. Plataformas não estão atualmente lidando com conteúdo e contas danosos por simplesmente os removendo. Hoje, vários serviços dependem de ferramentas algorítmicas para filtrar conteúdos através de intervenções como rebaixamento de ranking. Ha uma falta grave de transparência e responsabilização em relação a como as plataformas implementam as intervenções e quais são os impactos resultantes na liberdade de expressão. Além disso, pesquisadores e ativistas tem destacado o resultado discriminatório e danoso que o conteúdo digital pago pode criar. Hoje também há uma grande falta de transparência sobre como tal conteúdo é moderado, e com quais impactos. São outras áreas que as plataformas devem se comprometer em deixar esclarecidas.

Por fim, durante a pandemia de COVID-19, muitas plataformas divulgaram que iriam aumentar a sua dependência nas ferramentas automatizadas para fins de moderar conteúdo. Alguns serviços também anunciaram que estariam suspendendo os processos de apelação, assim impedindo acesso ao usuário do devido processo. Várias organizações de sociedade civil levantaram preocupações sobre como tais decisões impactariam a liberdade de expressão digital, destacando que as plataformas devem

poder manter um nível básico de transparência e responsabilização em toda circunstância.

Por cause destas três questões, o grupo dos Princípios de Santa Clara editaram uma chamada por comentários de uma gama abrangente de atores globais, com objetivo de expandir os princípios ao longo do tempo. O grupo engajou em interação importante com o público e comunidade através de um período de comentários abertos e posteriormente uma estratégia de interação mais especifica, depois revisou os insumos durante um período determinado e por fim, elaborou um novo conjunto de Princípios. Realizaram uma serie de oficinas e consultas abertas para acrescentar mais detalhes ao conjunto original de princípios.

2. Ferramentas para Ativistas

O objetivo das ferramentas para realizar campanhas é de explicar a importância dos Princípios, mensagens chaves, e oferecer um analise de como ativistas podem realizar campanhas sozinhos e como grupo para cobrar e responsabilizar as empresas - não somente para subscrever os novos Princípios, mas para implementa-los nas suas políticas e práticas.

Empresas tecnológicas controlam os fluxos de informação digitais nas suas plataformas através de regras e Termos de Serviço particulares, dando-lhes bastante poder e pouca responsabilidade. Comunidades que já enfrentam discriminação estão também em risco de ter seus conteúdos removidos online através de campanhas discriminatórias de marcação de conteúdo ou processos preconceituosos de moderação, assim sendo duplamente silenciadas.

Ações errôneas tomadas sobre conteúdos podem ter impacto desproporcional sobre populações já vulneráveis, tais como membros de minoridades étnicas ou religiosas, pessoas LGBTQ+ e mulheres. Também regularmente afeta jornalistas, ativistas políticas e defensores dos direitos humanos que operam em ambientes repressivos.

Governos atualmente procuram regular as plataformas digitais para assegurar que conteúdos danosos sejam removidos rapidamente e passos tomados para prevenir tal conteúdo de aparecer. Contudo, houve várias propostas regulatórias que impõe pressão extrajudicial sobre empresas de mídia social para remover conteúdos de forma rápida ou procuram manter as plataformas responsabilizáveis por fala de terceiros - efetivamente garantindo que as grandes plataformas irão manter suas posições quase monopolistas. Na medida que as empresas enfrentam pressão regulatória, provavelmente aumentarão a velocidade da moderação de conteúdo e uso de tecnologias automatizadas para evitar pagar multas pesadas. Empresas provavelmente farão mais erros na moderação de conteúdo ao operar sob pressão de tempo. Além do mais, as ferramentas automatizadas usadas na moderação de conteúdo têm várias limitações, muitas vezes resultando na remoção excessiva ou insuficiente de mensagens. Isto levanta questões graves quanto a liberdade de expressão.

Precisamos uma solução urgente que garante que a internet seja espaço para todos para acessar informação e participar em discussão. Estabelecer processos claros de notificação e apelação é um primeiro passo básico que as plataformas de mídia social podem tomar para assegurar que todos os usuários podem ser ouvidos e para proteger as comunidades online.

3. Alvos Chaves para os Princípios

1. Atores governamentais

Atores governamentais devem abster de promulgar legislação que impede a liberdade de expressão na internet e devem garantir que sejam protegidos os direitos humanos nas plataformas. Os Princípios pretendem servir para governos terem algum contexto de padrões equilibrados e boas práticas sobre a moderação do conteúdo digital.

Os Princípios não pretendem servir de modelo para regulamento, mas sim um guia para que os governos sabem os tipos de padrões que devem considerar ao discutir regulamentos ou políticas. Ainda, atores governamentais devem remover obstáculos para as empresas a alcançarem a transparência e também emitir relatórios sobre seu envolvimento nas decisões de moderação de conteúdo. Por fim, atores governamentais devem reconhecer o importante papel desempenhado pela sociedade civil na promoção de liberdade de expressão online e fomentar uma abordagem que inclui múltiplos atores nas discussões sobre moderação de conteúdo.

2. Plataformas de Mídia Social

As plataformas de mídia social se tornaram fundamentais a forma que comunicamos. Quando o usuário entra na plataforma, concorda com os Termos de Serviço dela, que normalmente obriga o usuário a aderir a um conjunto de regras sobre comportamento e expressão aceitáveis, muitas vezes contidas num documento separados de “normas da comunidade”. O usuário que viola as normas pode ter seu conteúdo acionado*.

Empresas estão sentindo cada vez mais pressão do governo ou legislação que lhes mantem responsáveis pela expressão dos usuários, levantando serias questões quanto o futuro da liberdade de expressão online. Preocupações da sociedade civil global quanto a falta de transparência e responsabilização das plataformas impulsionaram a criação inicial dos Princípios, enquanto a natureza inconstante da moderação de conteúdo e sua aplicação global desigual gerou novas demandas e criaram o ímpeto para a avaliação e revisão dos Princípios. Os Princípios de Santa Clara 2.0 ofereçam um novo conjunto de padrões de transparência e devido processo que podem nortear as empresas ao tomar medidas protetoras dos direitos humanos nas suas políticas e práticas.

Encorajamos os membros da sociedade civil, empresas e outros atores a trabalharem em conjunto para desenvolver planos de implementação em consulta com diversos atores para poder criar um plano para aderir aos Princípios revisados. Também encorajamos a sociedade civil a cobrar responsabilidade das empresas em executar tais planos.

4. Usando os PSC 2.0 no seu ativismo

1. Criar visibilidade dos Princípios organizando webinars ou coletiva convidando palestrantes chaves, empresas, o governo e ativistas para falar sobre a liberdade de expressão online e as recomendações chaves dos Princípios.

2. Organizar encontros presenciais com as empresas no seu país. Certifique que participam ativistas que tiveram experiencias negativas com remoção de conteúdo. Colocar pressão sobre as empresas através de ativismo fundada em fatos é chave! É importante que, ao encontrar com as empresas, lhes mantenhamo-nos responsáveis com o que acordaram. Anotar as discussões e pontos de ação durante o encontro. Ao terminar o encontro, solicite prosseguimento das discussões com as empresas. Um encontro não basta! Mantenha as empresas responsáveis no encontro de prosseguimento a cumprir os pontos de ação discutidos no encontro anterior.

3. Organizar discussões presenciais com relevantes atores governamentais no seu país. Certifique que estejam presentes nas discussões representantes da sociedade civil de diferentes locais, acadêmicos e pessoas com conhecimentos técnicos. Utilize os princípios para dar contexto aos legisladores ou atores governamentais sobre as questões e boas práticas na moderação de conteúdo.

4. Realize coletiva de imprensa apresentando novos dados de questões existentes nas plataformas de mídia social. Utilize esta oportunidade a fazer referência a alguns dos acordos feitos pelas empresas nos encontros presenciais (se perceber que não fizeram o suficiente). Empresas tecnológicas não gostam de ter imagem negativa na mídia local. Talvez estarão interessadas em agir rapidamente sobre os pontos de ação, depois da coletiva.

5. Apoie ações especificas direcionadas aos diretores das empresas: Se não ver progresso positivo sobre suas solicitações ou respondem de forma ambígua, então organize ação na mídia social. Ação na mídia social permite que alcance o público maior que apoia seu ativismo para mandar mensagens direcionadas aos diretores sêniores na mídia social. Muitos deles tem conta no Twitter, Facebook, e LinkedIn e seus contatos podem ser facilmente encontrados nestas plataformas. Envie mensagens direcionadas a eles e encoraje outros nas suas redes a fazer o mesmo. Ou pode organizar um baixo assinado, convidando a sociedade civil e ativistas a subscreve-lo, com as ações chaves que quer que as empresas tomam num prazo xis.

6. Participe do grupo dos Princípios de Santa Clara nas nossas ações de ativismo. Pretendemos coletar mais assinaturas e organizar encontros públicos com as empresas de tecnologia. Haverá oportunidade mostrar solidariedade e fazer ouvir a sua voz. Quanto mais forte a voz, melhor. Segue novos acontecimentos em https://santaclaraprinciples.org

Os termos “ação” e “acionado” se referem a qualquer forma de fiscalização empreendida pela empresa em relação ao conteúdo ou conta do usuário devido a inadimplência as suas regras e políticas, inclusive (mas não somente) a remoção de conteúdo, rebaixamento de ranking de conteúdo por algoritmo, e suspensão (temporária ou permanente) de contas.