EU kan censurera information och blockera sociala medier – via medlemsstaterna, efter rättslig prövning. Och så finns de informella sätten…
Det börjar hetta till i debatten om yttrandefriheten online i EU. Detta leder oss till frågan vilken makt EU-kommissionen egentligen har enligt unionens Digital Services Act (DSA).
I grunden säger DSA att olagligt innehåll på nätet skall avlägsnas. Vilket man knappast behöver en lagstiftning på hundratals sidor för att göra – eller egentligen någon ny lagstiftning alls.
Sedan blir det mer komplicerat. EU-kommissionen har inte någon direkt befogenhet att censurera enskilda inlägg eller begränsa lagligt innehåll. Men…
Begreppet »olagligt innehåll« definieras som information som inte är förenlig med unionsrätten eller gällande nationell rätt.
Bland nationella brott i EU kan nämnas information om abort och homosexualitet, hädelse, majestätsbrott, »hat« och förolämpningar (se till exempel Tyskland). Vilka på sätt och vis blir brott i hela EU (eller rent av hela världen) när DSA applicerar nationella lagar på plattformar som inte har nationsgränser.
Det är alltså nationella rättsliga eller administrativa myndigheter som har befogenhet att utfärda förelägganden om att en plattform skall agera mot olagligt innehåll.
(Men man tycks räkna med att olagligt innehåll tas bort ändå – utan föregående rättslig prövning – om plattformarna uppmärksammas på det av till exempel Trusted Flaggers.)
En åklagare eller annan rättsligt behörig myndighet i ett EU-land kan i sammanhanget utfärda gränsöverskridande nedtagningsorder för innehåll som finns på plattformar och servrar i en annan medlemsstat – även om innehållet ifråga inte är olagligt i den senare.
Här skall också nämnas att EU är inne i en process för att göra hat och hot till »EU-brott« med en gemensam definition och minsta straffsats i hela EU. Dock har man svårt att komma fram till någon hanterbar definition av »hat«.
Vad gäller mycket stora onlineplattformar (VLOPs) skall EU-kommissionen granska om dessa gör tillräckligt för att begränsa »systemrisker« – till exempel spridning av olagligt innehåll eller genom vad man lite svävande kallar negativa effekter på demokratiska processer.
Det är inom denna ram som de stora aktörerna även förväntas motverka innehåll som anses »skadligt« även om det inte är olagligt. Vilket då antas ske »frivilligt« – med stöd i de användarvillkor politikerna alltid vill att plattformarna skall skärpa.
Vid extraordinära omständigheter (till exempel krig eller pandemier) som utgör ett allvarligt hot mot allmän säkerhet, kan kommissionen kräva att plattformar bedömer hur deras tjänster bidrar till hotet och att de sedan vidtar »frivilliga« åtgärder för att begränsa spridningen av viss information.
Trots att de tvingas vara vaksamma på alla dessa risker får plattformarna inte åläggas en allmän skyldighet att övervaka allt innehåll. Detta är tänkt som ett skydd mot omfattande automatiserad censur. (Men de kan göra det ändå, mer eller mindre frivilligt.)
EU kan också begränsa tillgången till en plattform. Alltså blockera den. Detta om man redan försökt stoppa en överträdelse genom andra medel som böter eller vite utan att lyckas.
Detta gäller vidare om överträdelsen fortsätter och orsakar vad man kallar allvarlig skada som inte kan undvikas på något annat sätt. Samt om VLOPer underlåtit att följa beslut eller handlingsplaner för att hantera systemrisker.
Vid en viss punkt kan man alltså begränsa tillgången till X om den nuvarande konflikten eskalerar.
Det sker i så fall genom att relevant nationell digital samordnare (i X fall Irland) under DSA vänder sig till en behörig rättslig myndighet (åklagare/domstol) för att begära ett beslut om tillfällig begränsning av tillgången till tjänsten eller onlinegränssnittet.
Innan en sådan begäran görs skall kommissionen ge berörda parter minst 14 arbetsdagar på sig att lämna skriftliga synpunkter. En begränsning av tillgången skall i princip gälla i fyra veckor. Den kan förlängas, men varje förlängning kräver en ny bedömning och beslut av den rättsliga myndigheten.
Åtgärden får inte gå utöver vad som är strikt nödvändigt. Den skall vidare utformas så att den inte medför någon orimlig begränsning av tillgången till laglig information för användarna. Vilket är fina ord som dock har högst oklar betydelse om det kommer till skarpt läge.
Man kan även använda formella rättsliga processer (eller informella påtryckningar) för att tillfälligt utestänga en plattforms app från respektive app-store.
Så… ja. DSA ger utrymme för censur av visst innehåll och möjliggör även tillfällig blockering av hela plattformar / sociala medier. Men genom medlemsstaterna – och med föregående rättslig prövning.
Politikernas trick är dock, som sagt, att förmå plattformarna att plocka ner information som man tycker är olämplig (»skadlig men laglig«) ändå – genom användarvillkor och moderering.
På så sätt lyckas makten begränsa oönskade yttranden – utan att behöva genomgå den stökiga demokratiska process som lagstiftning i yttrandefrihetsfrågor kan vara.
Tidigare, relaterade texter:
• EU vill jämställa ”näthat” med terrorism »
• EU, nätcensur och hatlagstiftning (om Trusted Flaggers) »

CC0

