Les Principes de Santa Clara

Sur la transparence et la responsabilité dans la modération de contenu


Top

Boîte à outils pour les entreprises de réseaux sociaux

Download Companies Toolkit

1. Histoire Des Principes De Santa Clara

En mai 2018, une coalition d’organisations, plaideurs et académiques se sont réunis pour créer les Principes de Santa Clara sur la transparence et la redevabilité dans la modération de contenus en réponse aux préoccupations croissantes sur le manque de transparence et responsabilité des plateformes internet sur la façon dont elles créent et appliquent ses politiques de modération des contenus. Les Principes établissent des standards minimums que les plateformes technologiques doivent respecter afin de fournir la transparence et responsabilité adéquates envers ses efforts pour supprimer le contenu généré par les utilisateurs ou les comptes suspendus qui violent ses règles.

L’ensemble original des Principes se focalisent en trois demandes fondamentales : nombres complets détaillant les efforts de modération de contenu de la plateforme, notification claire aux utilisateurs affectés, et des processus d’appels solides. Elles sont cohérentes avec le travail de David Kaye, ancien rapporteur spécial des Nations Unies, sur la promotion du droit à la liberté d’expression, qui demanda « un cadre pour la modération des contenus générés par les utilisateurs qui mettent les droits humains au centre ». Les Principes sont aussi un reflet des recommandations des Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies, qui articulent les responsabilités des entreprises en matière de droits humains.

Lors de la première publication des Principes, il y avait très peu de transparence sur la portée, ampleur et impacte des moyens pour la modération des contenus sur les plateformes internet. En conséquence, les auteurs des Principes ont demandé aux compagnies de divulguer d’avantages de données à propos de ces efforts de modération a travers de rapports de transparence. Ces rapports de transparence ont aidé à souligner la censure du gouvernement sur les plateformes, ont permis aux utilisateurs à prendre des décisions plus informées sur quels produits utiliser ou éviter, et habiliter les groupes de plaidants à inciter aux compagnies à suivre les procédures légales établies pour répondre et respecter les demandes gouvernementales. En plus, les auteurs des Principes ont noté que la modération de contenu se produit souvent de manière autoritaire, laissant aux utilisateurs avec peu d’options pour redresser et réparer. Les Principes de « notification » et « appellation » prétendaient établir des mécanismes solides, transparents et fiables pour une procédure équitable pour les utilisateurs.

Depuis sa publication, plusieurs plateformes internet ont approuvé et se sont compromises à adhérer les Principes. En font partie de ces plateformes, entre autres, Apple, Facebook, GitHub, Google, Instagram, LinkedIn, Medium, Reddit, Snap, Tumblr, Twitter, et YouTube. Tandis que certaines de ces plateformes ont fait des progrès remarquables en donnant plus de transparence à propos de ses efforts pour la modération de contenu, très peu de compagnies ont répondu pleinement aux demandes signalées par les Principes. Les plateformes doivent en faire davantage pour atteindre ces expectatives de base de transparence et responsabilité.

La coalition des Principes de Santa Clara, un groupe composé par ___ organisations, a lancé un ensemble actualisé de principes pour encourager davantage la transparence et redevabilité de la plateforme.

Quoique l’ensemble original des Principes en 2018 établit des points de départs très solides pour que les compagnies puissent adopter, la participation à sa création fut limitée à quelques groupes et individus, et les alliés -particulièrement ceux des pays du Sud Global- soulevèrent de légitimes préoccupations et suggestions pour sa révision. En particulier, les parties prenantes autour du monde ont souligné que les plateformes investissent plus de ressources à assurer la transparence et une procédure établie aux utilisateurs de certaines communautés et marchés. Les compagnies doivent aborder cette inégalité et garantir que tous les utilisateurs -indépendamment de son lieu de résidence- pourront obtenir transparence et redevabilité de la part de ces compagnies. Ceci est spécialement important étant donné que nombreux de préjudices produits comme résultat des pratiques de modération de contenus des plateformes se produisent dans les communautés que les plateformes ont été négligées.

Le panorama de la modération de contenu a radicalement changé au fil de ces dernières années. Les plateformes ne font plus face au contenu et aux comptes préjudiciables simplement en les supprimant. Aujourd’hui, beaucoup de services se basent en outils algorithmiques pour organiser le contenu a travers d’interventions comme le downranking. Il y a un grave manque de transparence et redevabilité à propos de comment les plateformes déploient ces interventions et les impacts résultants sur la liberté d’expression. Additionnellement, les chercheurs et défenseurs de la liberté d’expression ont souligné le résultat discriminatoire et nocif que peut avoir le contenu payant en ligne. A l’heure actuelle, il existe aussi un grand manque de transparence sur la modération de ce genre de contenu, et avec quelles répercussions. Ceux-ci sont des autres domaines que les plateformes ont négligés.

Enfin, durant la pandémie de COVID-19, plusieurs plateformes ont partagé qu’elles augmenteraient leur dépendance aux outils automatiques pour la modération de contenus. Certains services ont aussi annoncé qu’ils suspendraient ses procédures d’appels, ce qui empêche les utilisateurs d’accéder aux procédures établies. Nombreuses organisations de la société civile ont manifesté sa préoccupation pour l’impact de ces décisions sur la liberté d’expression en ligne, soulignant que les plateformes doivent être capables de maintenir un niveau minimum de transparence et responsabilisation en tout moment.

Dû à ces trois préoccupations, la coalition des Principes de Santa Clara a lancé un appel d’offres ouvert pour recevoir des commentaires d’une vaste gamme de partie prenantes au niveau mondial, avec l’objectif d’élargir éventuellement les Principes. La coalition a conduit un significatif travail de diffusion à travers d’un période de commentaires ouverts et une stratégie complémentaire de divulgation dirigée, puis révisa les contributions pendant une période désignée, et finalement, rédigea un nouvel ensemble de Principes. Une série de consultations ouvertes et d’ateliers ont été menés pour ajouter plus de détails à l’ensemble original des Principes.

2. Boîte à outils pour les entreprises de réseaux sociaux

Cette boîte à outils cherche à expliquer l’importance des Principes, messages clés, et fournir d’information sur comment les plateformes devraient mettre en œuvre les Principes de Santa Clara dans ses politiques et pratiques.

Les Principes de Santa Clara révisés représentent le désir parmi la société civile d’une majeure transparence, procédure établie, compétence culturelle et respect pour les droits humains au cours du procès de la modération de contenu. Ils sont conçus pour obtenir une transparence significative, destinés au public concernant tous les contenus générés par les utilisateurs, payant ou non payant.

Cette seconde itération des Principes de Santa Clara est divisée en Principes Fondamentaux et Principes Opératifs.

Les Principes Fondamentaux sont les valeurs primordiales qui doivent être pris en compte pour toute modération de contenus et guider toutes les entreprises à intégrer les droits humains et procédures établies à ces politiques et processus, publiant des règles accessibles et claires, et en fournissant de transparence la participation étatique pour la modération des contenus. Ils énoncent le principe en jeu autant que l’orientation quant à la façon de mettre en œuvre ce principe.

Les Principes Opératifs établissent les pratiques spécifiques pour les entreprises en relation avec certaines étapes et aspects du procès de modération de contenu. Plutôt que le minimum d’exigences des Principes originaux, les nouveaux Principes articulent des standards généraux en ce qui concerne les chiffres, la notification et appels et incluent également des exigences rigoureuses qui pourront être adoptées par les plateformes à mesure qu’elles mûrissent, tout en reconnaissant que d’autres plateformes pourraient ne pas être capables d’atteindre les normes. Les métriques de maturité incluent la taille de la base d’utilisateurs, longévité dans le marché, capacités techniques, distribution géographique, et capitalisation. Des métriques additionnelles sont proposées pour aborder les préoccupations spéciales soulevées par des demandes et attentes des acteurs de l’État, la préoccupation de l’abus des processus de signalement, et le rôle de plus en plus important des procédures automatisés pour l’identification du contenu et les actions prises pour la modération.

Comme mentionné précédemment, beaucoup de plateformes ont endossé ou se sont engagées à respecter les Principes de Santa Clara originels. Cependant, très peu de plateformes ont respecté ces engagements. Tandis que l’endossement des Principes révisés est un premier pas encourageant, les plateformes doivent aussi remplir leurs obligations pour mettre en œuvre les Principes Fondamentaux et doivent proactivement maximiser l’exécution des Principes Opératifs révisés à mesure qu’elles grandissent. Cela veut dire que les plateformes doivent planifier l’adoption des Principes Opératifs révisés au fur et à mesure qu’elles planifient son développement, attribuant une expertise appropriée et ressources adéquats et équitables en langue, pays, et région pour élargir l’accès à un procès juste et à la transparence. À cet effet, les plateformes doivent garantir que les considérations relatives aux droits humains et aux procédures régulières s’intègrent dans toutes les étapes du processus de modération de contenus et que ses normes et règlements, et leur application, tiennent en considération la diversité des cultures et contextes dans lesquelles ses plateformes et services sont disponibles et en usage.

Pour faire preuve de responsabilité et permettre la supervision de ses compromis dans le futur, les plateformes doivent publier des feuilles de route opératives détaillées et spécifiques pour la mise en place de chacun des Principes révisés. Ces feuilles de route doivent inclure des actions concrètes, indicateurs de succès et dates limite. Les feuilles de route doivent aussi identifier les ressources allouées par l’entreprise, avec des indicateurs spécifiques par langue, pays et région. Si une entreprise croit qu’elle ne peut pas appliquer un principe spécifique dû à un manque de développement, elle doit expliquer pour quoi et s’engager sur un cadre temporel de quand elle croit être en mesure d’avoir la capacité pour appliquer ce principe.

Les plateformes devraient informer au public semi-annuellement de leur progrès et aussi décrire initiatives clés, discuter tout changement ou modifications sur la feuille de route ou dates limite, et identifier les succès autant que les obstacles.

Les plateformes doivent identifier une liaison des Principes de Santa Clara qui, entre autres, répondra aux demandes d’information de la société civile sur l’application des Principes révisés.

3. Messages Clés et Recommandations

Les Principes de Santa Clara révisés établissent des normes moyennes et ambitieuses conçues pour susciter une majeure transparence et redevabilité sur la forme dont les plateformes conçoivent et appliquent ses systèmes de modération de contenu et l’impact de ces systèmes.

Nous sommes conscients que les Principes révisés ajoutent des obligations supplémentaires au-delà de celles prévues dans les Principes originaux et que certains de ces Principes Opératifs révisés peuvent être non viables pour les entreprises plus petites et nouvelles. Notre intention n’est pas de décourager la compétence ni pérenniser les plateformes les plus riches et dominantes du marché, mais plutôt de créer un cadre évolutif qui augmente la transparence et redevabilité pour toutes les plateformes. Les plateformes les plus nouvelles et petites doivent planifier l’engagement des normes au fur et à mesure de son évolution.

4. Appel à l’action

Les plateformes doivent reconnaitre la croissante demande de majeure transparence de la part des utilisateurs et des défenseurs de la société civile. Bien que de nombreuses plateformes consultent déjà la société civile quand elles développent de nouvelles mesures ou caractéristiques, les commentaires qu’on a reçu au long de ce procès et en plus soulignent le besoin de consultations approfondies avec une gamme étendue d’acteurs autour du monde autant que d’appliquer fermement les commentaires que les plateformes reçoivent.

Les Principes révisés reflètent les contributions de plus d’une quarantaine de groupes et individus de dix-huit pays et plusieurs consultations en groupe en temps réel réalisées par des partenaires d’Afrique, Amérique Latine, Inde et Amérique du Nord. Ils reflètent un large éventail de points de vue sur comment les efforts de transparence et redevabilité des entreprises peuvent être étendues pour le bénéfice d’une gamme diverse d’utilisateurs.

En concret, nous nous attendons que les entreprises montrent leur engagement avec l’application des Principes révisés à travers d’actions concrètes, l’allocation adéquate de ressources et la présentation d’informes périodiques et détaillés sur les efforts de son application.