Santa Clara-principerna

On Transparency and Accountability in Content Moderation


Top

Santa Clara-principernas historia

I maj 2018 samlades en koalition med organisationer, påverkare och akademiker för att ta fram Santa Clara-principerna om transparens och ansvarsskyldighet kring innehållsmoderering som svar på ökande betänkligheter gällande bristen på transparens och ansvarsskyldighet hos internetplattformar kring hur de skapar och verkställer sina policyer för innehållsmoderering. Principerna beskriver minimistandarder som teknikplattformar måste följa för att kunna erbjuda tillräcklig transparens och ansvarsskyldighet i sitt arbete med att ta bort användargenererat innehåll eller inaktivera konton som strider mot deras regler.

Den ursprungliga uppsättningen principer fokuserar på tre viktiga krav – detaljerade siffror avseende en plattforms arbete med innehållsmoderering, tydliga meddelanden till berörda användare och en tillförlitlig överklagandeprocess. De ligger i linje med det arbete som utförts av David Kaye, tidigare FN:s särskilda rapportör om främjandet av rätten till yttrande- och åsiktsfrihet, som krävde ett ”ramverk för moderering av användargenererat onlineinnehåll som sätter mänskliga rättigheter i centrum”. Principerna återspeglar också rekommendationerna i FN:s vägledande principer för företag och mänskliga rättigheter, som beskriver företags ansvar gällande mänskliga rättigheter.

När principerna först lanserades var transparensen mycket bristfällig kring omfattning, skala och påverkan för internetplattformars arbete med innehållsmoderering. Därför uppmanade principernas författare företag att lämna ut mer uppgifter kring deras modereringsarbete genom transparensrapporter. Transparensrapporterna har synliggjort regeringars censur på plattformar, gjort det möjligt för användare att fatta mer välgrundade beslut om vilka produkter de vill använda respektive undvika, och hjälpt påverkansgrupper att pressa företag att följa etablerade rättsliga processer vid svar på och efterlevnad av regeringars krav. Principernas författare har dessutom noterat att innehållsmoderering ofta sker ”uppifrån och ner”, vilket ger användare begränsade möjligheter till gottgörelse och prövning. Målet med principerna för ”meddelanden” och ”överklaganden” var att etablera transparenta och tillförlitliga mekanismer för användarnas rättssäkerhet.

Sedan principerna lanserades har många internetplattformar stöttat och åtagit sig att följa dem. Några exempel är Apple, Facebook (Meta), GitHub, Google, Instagram, LinkedIn, Medium, Reddit, Snap, Tumblr, Twitter och YouTube. En del av de här plattformarna har gjort stora framsteg mot att erbjuda mer transparens kring sitt arbete med innehållsmoderering, men mycket få företag har uppfyllt kraven som beskrivs i principerna till fullo. Plattformar måste göra mer för att uppfylla de här grundläggande förväntningarna på transparens och ansvarsskyldighet.

Santa Clara-principernas koalition**, en grupp som består av __ organisationer**, har lanserat en uppdaterad uppsättning principer för att förbättra plattformars transparens och ansvarsskyldighet.

De ursprungliga principerna från 2018 beskrev mycket starka grundläggande standarder som företag ska följa, men medverkan i att ta fram dem var begränsad till några få grupper och personer, och allierade – särskilt från Global South-länder – tog upp legitima betänkligheter och förslag på revideringar. Intressenter från hela världen har särskilt betonat att plattformar investerar mer resurser i att kunna erbjuda transparens och rättssäkerhet till användare inom vissa grupper och marknader. Företag måste ta itu med denna orättvisa och säkerställa att alla deras användare erbjuds transparens och ansvarsskyldighet – oavsett var de bor. Det är särskilt viktigt med tanke på att många av de skador som uppstår till följd av plattformars praxis för innehållsmoderering förekommer inom grupper som plattformar har försummat.

Landskapet för innehållsmoderering har förändrats drastiskt de senaste åren. Plattformar hanterar inte längre skadligt innehåll och konton genom att bara ta bort dem. Idag använder många tjänster också algoritmiska verktyg för att sortera innehåll genom insatser som exempelvis nedrankning. Det finns en allvarlig brist på transparens och ansvarsskyldighet kring hur plattformar distribuerar de här insatserna och hur de påverkar yttrandefriheten. Forskare och påverkare har dessutom understrukit de potentiellt diskriminerande och skadliga följderna av betalinnehåll online. Det finns för närvarande också en stor brist på transparens kring hur sådant innehåll modereras, och med vilka konsekvenser. Det här är ytterligare områden som plattformar måste åta sig att uppmärksamma.

Slutligen uppgav många plattformar under covid-19-pandemin att de skulle öka användningen av automatiserade verktyg för innehållsmoderering. En del tjänster meddelade också att de skulle göra uppehåll med sina överklagandeprocesser och därmed begränsa användares tillgång till rättssäkerhet. Flera civilsamhällsorganisationer uttryckte oro över hur dessa beslut skulle påverka yttrandefriheten online, och underströk att plattformar hela tiden måste kunna e.