Automatisk nätcensur i corona-krisens spår

Nej, detta handlar inte om vad man får eller inte får säga om Corona / COVID 19 på sociala media – utan om vad pandemin har inneburit vad gäller censur av övrigt innehåll.

EFF har djupdykt i frågan om vad som händer när moderering av innehåll styrs om från människor till maskiner i pandemins spår:

”While human content moderation doesn’t scale and comes with high social costs, it is indispensable. Automated systems are simply not capable of consistently identifying content correctly. Human communication and interactions are complex, and automated tools misunderstand the political, social or interpersonal context of speech all the time. That is why it is crucial that algorithmic content moderation is supervised by human moderators and that users can contest takedowns. As Facebook’s August 2020 transparency report shows, the company’s approach to content moderation during the coronavirus pandemic has been lacking in both human oversight and options for appeals.”

Ingen möjlighet att överklaga:

”When content is removed on either Facebook or Instagram, people typically have the option to contest takedown decisions. Typically, when the appeals process is initiated, the deleted material is reviewed by a human moderator and the takedown decision can get reversed and content reinstated. During the pandemic, however, that option has been seriously limited, with users receiving notification that their appeal may not be considered. According to the transparency report, there were zero appeals on Instagram during the second quarter of 2020 and very few on Facebook.”

Beslut om vad som får skrivas på sociala media fattas nu alltså helt och hållet av maskiner. Vilket är en rätt svindlande tanke.

Det visar sig också att Facebook och dess dotterbolag Instagram tillämpar olika principer för moderering av innehåll.

Nu återstår att se om sociala media kommer att fortsätta låta algoritmer fortsätta moderera innehåll utan egentlig mänsklig kontroll även efter corona-krisen. Maskiner är ju billigare än människor.

Hur som helst måste det till en rimlig och fungerande funktion för att överklaga beslut när innehåll censureras. En funktion där den drabbade tillåts argumentera för sin sak med mer än bara en maskin.

EFF: Facebook’s Most Recent Transparency Report Demonstrates the Pitfalls of Automated Content Moderation »

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *

Denna webbplats använder Akismet för att minska skräppost. Lär dig hur din kommentardata bearbetas.