Dina rättigheter som användare under EU:s Digital Services Act

Så här någon månad efter att det presenterats börjar media uppmärksamma EU-kommissionens förslag till Digital Services Act. Viss förvirring tycks råda, speciellt om användares rättigheter. Låt oss därför titta lite närmare på vad som verkligen föreslås.

Olagligt material skall avlägsnas

EU:s medlemsstater skall kunna kräva att olagligt material omedelbart avlägsnas. Och det måste ske under ordnade former.

  • Man måste förklara varför man anser att ett visst innehåll är olagligt – och hänvisa till gällande lagrum.
  • En sådan begäran skall kunna överprövas.
  • Nedtagningar måste vara nödvändiga.

När gäller vad som skall anses vara olagligt finns olika uppfattning i Europaparlamentet om huruvida detta skall avgöras av myndigheter eller domstol.

Användares rättigheter

  • Plattformarna skall upprätta transparensrapporter som visar vilket material som plockats ner på begäran av myndigheterna respektive på plattformarnas eget bevåg.
  • Huvudregeln är att den som anmäler innehåll måste förklara varför, vem hon är och dessutom gå i god för att anmälan är korrekt och motiverad.
  • Den som får material nedtaget / bortmodererat skall snarast informeras om saken, om metoden, om skälet och om möjligheten att överklaga.
  • Sociala plattformar skall ha lättillgängliga och begripliga rutiner för att hantera klagomål.
  • Något slags förlikningsorgan skall etableras för att lösa konflikter mellan service providers och användare utanför det vanliga rättsväsendet.

Detta kommer att rätta till de värsta formerna av godtycke vid moderering – och ger den som postat innehållet relevant information och möjlighet att överklaga. Det är jämfört med idag ett steg framåt för användarna. Men för plattformarna innebär det mycket merarbete, vilket möjligen kan komma att leda till striktare användarvillkor.

Trusted flaggers – statligt godkända nätgranskare

En kontroversiell punkt gäller så kallade Trusted Flaggers – som är tänkta att vara nätgranskare, godkända av EU och respektive medlemsstat. En trusted flagger kan vara en organisation eller annan entitet som representerar »kollektiva intressen«. Detta låter oroväckande. Men det skall i vart fall vara offentligt vilka dessa är – och deras anmälningar skall granskas. En trusted flagger som missköter sin uppgift skall kunna bli av med sitt uppdrag.

Nya regler om vad som är tillåtet att säga

The Digital Services Act reglerar hur innehåll som är olagligt eller olämpligt skall hanteras. Men inte vad. Detta styrs dels genom EU-lagstiftning och dels genom nationell lag. Därför är det av intresse i sammanhanget att EU nu planerar att uppdatera sin lagstiftning på området.

Under detta år kommer EU-kommissionen att lägga fram en ny Code of Conduct on countering illegal hate speech online.

Det är alltså här man kommer att sätta gränserna för vad som kommer att vara tillåtet respektive förbjudet att säga på nätet. Vilket kan bli rätt kontroversiellt.

Frågan är om denna uppförandekod kommer att läggas fram för Europaparlamentet och ministerrådet – eller om man åter kommer att göra upp med branschen bakom stängda dörrar i The European Internet Forum.

Relaterat:
• EU fick Twitter att fimpa Donald Trump »
• Dramatiskt ändrade regler kan vänta sociala medier »

Corona-krisen och det fria ordet

(Berlin) Ett par månader in i den senaste partiella, men ständigt allt mer omfattande nedstängningen av Tyskland börjar tonläget bli ansträngt.

Redan från början fanns oro för att militanta vänstergrupper kan komma att ta tillfället i akt för att (enligt egen utsago) störa leveranskedjorna. Sedan kom demonstrationer mot corona-nedstängningarna, med en salig blandning av deltagare – från vanliga medborgare och oroade småföretagare till element från extremhögern. Och nu gör tysk media stor sak av att QAnon kan ha etablerat sig i landet.

Allt detta gör en saklig debatt om smittskyddsåtgärderna känslig, oavsett vad man tycker i sak. Steg för steg rör sig alla mot något slags antingen-är-du-med-oss-eller-mot-oss-attityd. Vilket naturligtvis är olyckligt. Näringslivet blöder ekonomiskt. Våld i hemmen har ökat, liksom mental ohälsa. Sådant måste kunna diskuteras förutsättningslöst, utan att klistra förenklande etiketter på folk.

Än mer olyckligt är att detta sammanfaller i tiden med att EU rullar ut verktyg som kan användas för att begränsa det fria ordet. Europol har (till synes på eget bevåg) utökat sitt mandat till att inte bara bekämpa brott, utan även desinformation. Förordningen om terror-relaterat innehåll online – med sina mycket vaga skrivningar om vad som anses utgöra terrorism – är just nu bara ett klubbslag från att bli lag och därmed etablera principen om censur av åsikter på nätet. Uppladdningsfilter introduceras bakvägen. I EU:s Digital Services Act föreslås organisationer som företräder »kollektiva intressen« få status som statligt godkända nätgranskare, så kallade Trusted Flaggers. Och så vidare.

Utan att hänfalla till konspirationsteorier, så kan man notera att EU:s medlemsstater i en tid av kris samtidigt håller på att få nya verktyg för att begränsa det fria ordet. Det har varit på gång sedan långt innan corona-krisen. Men krisen ger politik och förvaltning ett frestande tillfälle att pröva och använda dessa verktyg.

Nu gäller det att vara uppmärksam. Hotet mot våra demokratiska fri- och rättigheter behöver inte alls komma från någon mordisk ideologi – utan kan lika gärna växa fram ur de bästa intentioner, eller rent av ur nödvändighet. Det senaste året har vi fått se vår fysiska frihet inskränkas. Risken är att vår åsikts- och yttrandefrihet står näst på tur.

Kommer de sociala mediejättarna att kunna fortsätta verka i Europa?

Just nu skakas sociala media av efterskalv till det amerikanska presidentvalet. Människor stängs av och det debatteras inte bara vem som sagt vad utan även hur andra människor kan tänkas tolka det som sägs. Det är en soppa.

Men detta är inte sociala medias enda problem. Britterna diskuterar lagstiftning för att hindra vad man kallar godtycklig censur och avstängning av användare på grund av att de uttrycker kontroversiella, snarare än skadliga eller felaktiga åsikter. Även Polen är på gång med något liknande.

I EU har vi dels det nya upphovsrättsdiretivet som kommer att kräva någon form av uppladdningsfilter – vilket fått bland andra Youtube att fundera högt om huruvida de över huvud taget kan verka i medlemsstaterna.

Med förordningen om terror-relaterat innehåll online (TERREG) kommer kravet på censur av vissa åsikter – samtidigt som den förbjuder medlemsstaterna att kräva uppladdningsfilter. Förordningen ställer dock samtidigt sådana krav att plattformarna ändå, i praktiken kommer att tvingas använda sig av just automatiserade uppladdningsfilter.

EU:s Digital Services Act (DSA) är tänkt att ge användarna rätt att få veta varför ett inlägg censureras eller en användare stängs av, samt en möjlighet att överklaga sådana beslut. Detta är naturligtvis utmärkt för oss användare. Men hur det skall gå till i praktiken är högst oklart. På grund av de enorma mängder innehåll som publiceras på sociala media skulle detta kräva en hel armé av mänskliga granskare, vilket plattformarna menar är en omöjlighet. Därtill ställer DSA andra, speciella och långtgående krav på just nätjättarna.

Någonstans når man en punkt där det blir för krångligt för plattformarna att verka på EU:s marknad. Vi är kanske inte där ännu, men vi rör oss åt det hållet. EU är naturligtvis en viktig marknad för Facebook, Twitter och Youtube – men vi skall inte bli förvånade om någon eller flera aktörer kommer till slutsatsen att den allt mer långtgående (och ibland befogade) lagstiftningen gör det för dyrt, krångligt och juridiskt riskabelt för de sociala mediejättarna att verka här.

Time will tell.

Sociala media efter Trump

Till listan över sådant som anges som skäl för att begränsa internets frihet – som fildelning, barnporr, piratprodukter, terrorism, penningtvätt, hat, droghandel med mera – läggs nu alltså även Trumpism.

De sociala plattformarna i allmänhet och Twitter i synnerhet sitter i en jobbig sits. Å ena sidan en statschef som anklagas för att hetsa sina anhängare till att kullkasta de demokratiska institutionerna och deras processer – och en nyvald amerikansk administration  som redan flaggat för att man tänker slå ner på vad man kallar inhemsk terrorism. Å andra sidan det fria ordet och tanken att yttrandefrihetens största värde är när den tillåter människor att säga sådant som andra inte vill höra, eller rent av tysta.

Twitter, Facebook och Google/Youtube befinner sig – som amerikanska företag – ständigt under hot om ny lagstiftning från den för tillfället sittande administrationen.

Gentemot oss användare har de samtidigt ett behov av att framstå som förutsägbara, konsekventa och rättvisa. Vilket är en närmast övermäktig uppgift  – så länge man låter till exempel de politiska ledarna i Ryssland, Iran och Venezuela sprida propaganda för sin icke-/antidemokratiska politik samtidigt som man stänger av Trump.

Lägg till detta problemet med att de tre stora är totalt dominerande vad gäller sociala media. Finns du inte på Twitter, Facebook och Youtube – då finns du inte. Blir du av med ditt konto på Facebook begränsas även dina möjligheter att kommunicera och umgås med släkt och vänner. Samtidigt måste dessa företag naturligtvis ha rätt att sätta upp regler för sin egen verksamhet och att välja bort användare som anses skada densamma.

»Så starta då något nytt istället för att gnälla!« Men så enkelt är det naturligtvis inte. Facebook är plattformen där nästan alla våra vänner befinner sig. Något motsvarande alternativ finns inte. Och människor är bekväma, de vill hellre ha alla sina kontakter på en plattform istället för utspridda på olika håll.

Även om vi ofta brukar skälla på EU för dess nätpolitik, så kan det finnas delar i den föreslagna Digital Services Act som stärker användarnas ställning. Till exempel att den som blir censurerad eller avstängd måste få veta varför – och ges en möjlighet att överklaga. Men det kräver en omfattande manuell hantering av ärenden – vilket plattformarna menar är en praktisk omöjlighet, på grund av de stora volymerna ärenden.

Samtidigt föreslår samma Digital Services Act att det skall införas statligt godkända nätgranskare – så kallade Trusted Flaggers – som företräder vad texten kallar »kollektiva intressen«. Vilket bör få varningsklockorna att börja ringa.

Dessutom har Europol (till synes på eget initiativ) utökat sitt mandat från att inte bara bekämpa brott utan även desinformation. Vilket implicerar att någon, någonstans måste bestämma vad som är att betrakta som sanning – vilket i sin tur inte alltid är uppenbart. Plus att själva idén om att polisen skall lägga sig i vilka åsikter människor framför känns främmande för ett demokratiskt samhälle.

Enklast är kanske om man kunde enas om att bara ta bort sådant som är olagligt. Men det medför en ny uppsättning problem, speciellt med tanke på att internet inte känner några nationsgränser.

Den samlade bilden ger vid handen att vi har en närmast omöjlig situation av motstridiga intressen och principer – och att det tills vidare är det nya normala.

Vill vi ha statliga ordningsmän på internet?

Ett av de förslag som förs fram i EU:s nya Digital Services Act (DSA / förordningen om digitala tjänster) är så kallade »trusted flaggers«. Enkelt uttryckt handlar det om statligt godkända ordningsmän på nätet.

Detta har väckt förvånansvärt lite uppmärksamhet, i princip ingen alls. Låt oss kika närmare på förslaget.

  • Trusted flaggers skall vara underordnade nationella Digital Services Coordinators.
  • De skall besitta särskild kompetens för att identifiera och flagga olagligt innehåll på nätet.
  • Ett kriterium är, enligt DSA att »it represents collective interests and is independent from any online platform«.
  • Deras flaggningar skall prioriteras för behandling av nätplattformarna.
  • Det skall vara offentligt vilka dessa trusted flaggers är.
  • De skall kunna bli av med sitt uppdrag om de missköter sig.

På sidan 28, motivering 46 (förklarande memorandum, ej lagtext) finner vi en mer utförlig beskrivning:

»Action against illegal content can be taken more quickly and reliably where online platforms take the necessary measures to ensure that notices submitted by trusted flaggers through the notice and action mechanisms required by this Regulation are treated with priority, without prejudice to the requirement to process and decide upon all notices submitted under those mechanisms in a timely, diligent and objective manner. Such trusted flagger status should only be awarded to entities, and not individuals, that have demonstrated, among other things, that they have particular expertise and competence in tackling illegal content, that they represent collective interests and that they work in a diligent and objective manner. Such entities can be public in nature, such as, for terrorist content, internet referral units of national law enforcement authorities or of the European Union Agency for Law Enforcement Cooperation (‘Europol’) or they can be non-governmental organisations and semi- public bodies, such as the organisations part of the INHOPE network of hotlines for reporting child sexual abuse material and organisations committed to notifying illegal racist and xenophobic expressions online. For intellectual property rights, organisations of industry and of right-holders could be awarded trusted flagger status, where they have demonstrated that they meet the applicable conditions. The rules of this Regulation on trusted flaggers should not be understood to prevent online platforms from giving similar treatment to notices submitted by entities or individuals that have not been awarded trusted flagger status under this Regulation, from otherwise cooperating with other entities, in accordance with the applicable law, including this Regulation and Regulation (EU) 2016/794 of the European Parliament and of the Council.«

Dessa nätgranskare kan alltså vara statliga organ, representanter för vissa särintressen och organisationer.

Detta väcker massor av frågor. Hur tänker man  till exempel förhålla sig till nätgranskare utsedda att flagga olagligt material i länder som inte respekterar de medborgerliga fri- och rättigheterna och som har lagar som går på tvärs med övriga EU (t.ex. hädelselagar och abortförbud)? Hur genomtänkt är det egentligen att ge olika särintressen rollen som censorer – då de ju till sin natur är partiska? Hur har man tänkt förhålla sig till nätgranskare som kan misstänkas ha en politisk agenda?

Detta kan bli en soppa.

Rent spontant känns det som att prioriterad begäran om censur bara borde få begäras av en myndighet, till exempel den nya Digital Service Coordinator som medlemsstaterna förväntas inrätta. Och egentligen borde det inte få ske med mindre än föregående rättslig prövning.

Men att ha allehanda särintressen som nätcensorer utan någon föregående prövning av deras framställningar till nätplattformarna – det känns som upplagt för missbruk och konflikter. Om man alls skall ha trusted flaggers, då borde de snarare rikta sina anmälningar till sin nationella Digital Services Coordinator för prövning.

Det verkar som att EU – åter igen – dumpar frågan om vad som får publiceras på nätet på andra aktörer istället för att reglera det fria ordet genom lag och rättsväsende.

EU:s Digital Services Act sammanfattad

På tisdag eftermiddag presenterade EU-kommissionen sitt förslag till en Digital Services Act (och en Digital Markets Act). Det är ett omfattande dokument, men vi skall här göra ett första försök att vaska fram några av de mest intressanta punkterna.

Låt oss börja med vad EU-kommissionen själv har att säga om DSA – eller Rättsakten om digitala tjänster, som den kommer att heta på svenska. Citat:

  • Regler för avlägsnandet av olagliga varor och tjänster och olagligt innehåll på nätet.
  • Skyddsmekanismer för användare vars innehåll felaktigt raderats av plattformar.
  • Nya skyldigheter som innebär att mycket stora plattformar ska vidta riskbaserade åtgärder för att förhindra att deras system missbrukas.
  • Omfattande åtgärder för att säkra öppenhet, bland annat när det gäller onlinereklam och algoritmer som används för att rekommendera innehåll till användare.
  • Nya befogenheter att granska hur plattformarna fungerar, däribland genom att underlätta för forskare att få tillgång till viktiga data från plattformarna.
  • Nya bestämmelser om spårbarhet för företagsanvändare på onlinemarknadsplatser, så att det blir möjligt att spåra säljare av olagliga varor eller tjänster.
  • En innovativ samarbetsprocess mellan myndigheter för att säkerställa ett effektivt genomförande på hela den inre marknaden.

Så långt Kommissionen. Nu över till själva dokumentet (PDF), som vi än så länge bara fått tag i på engelska. Det är på 110+ sidor, så vi hoppar direkt till de skarpa förslagen. Detta med reservation för att det är första gången jag ser texten – och säkert inte förstår allt och kanske missuppfattat en del.

Artikel 3:1 Mere Conduit

Where an information society service is provided that consists of the transmission in a communication network of information provided by a recipient of the service, or the provision of access to a communication network, the service provider shall not be liable for the information transmitted, on condition that the provider:
(a) does not initiate the transmission;
(b) does not select the receiver of the transmission; and
(c) does not select or modify the information contained in the transmission.

Här har vi budbärarimmunitet, i vart fall för internetoperatörer. Vilket är en bra sak.

Artikel 4.1 – Caching ger en motsvarande budbärarimmunitet till mail-operatörer, meddelandetjänster och förmodligen även chatt-operatörer med reservation för att material som flaggas av myndigheterna måste tas bort.

Artikel 5.1 – Hosting känns lite knepigare att tolka utan bakgrundsmaterialet. Den lär helt klart täcka molntjänster. Och förmodligen sociala nätplattformar.

Where an information society service is provided that consists of the storage of information provided by a recipient of the service the service provider shall not be liable for the information stored at the request of a recipient of the service on condition that the provider:
(a) does not have actual knowledge of illegal activity or illegal content and, as regards claims for damages, is not aware of facts or circumstances from which the illegal activity or illegal content is apparent; or
(b) upon obtaining such knowledge or awareness, acts expeditiously to remove or to disable access to the illegal content.

5.2: Paragraph 1 shall not apply where the recipient of the service is acting under the authority or the control of the provider.

5.2 är en smula kryptisk. Vi får undersöka saken i en senare post.

Artikel 7 – No general monitoring or active fact-finding obligations

No general obligation to monitor the information which providers of intermediary services transmit or store, nor actively to seek facts or circumstances indicating illegal activity shall be imposed on those providers.

Detta betyder rimligen att det inte får förekomma något allmänt krav på att operatörer och plattformar skall övervaka all trafik i jakt på olagligheter. Vilket i stort sett känns som att man överför eHandels-direktivets förbud mot generell övervakning. (Hur det är tänkt att gå ihop med förordningen om terror-relaterat innehåll online är oklart.)

Dock håller man i artikel 9 öppet för att granska enskilda användare (som då rimligen är misstänkta för brott):

Providers of intermediary services shall, upon receipt of an order to provide a specific item of information about one or more specific individual recipients of the service, issued by the relevant national judicial or administrative authorities on the basis of the applicable Union or national law, in conformity with Union law, inform without undue delay the authority of issuing the order of its receipt and the effect given to the order.

Artikel 8 – Orders to act against illegal content

1. Providers of intermediary services shall, upon the receipt of an order to act against a specific item of illegal content, issued by the relevant national judicial or administrative authorities, on the basis of the applicable Union or national law, in conformity with Union law, inform the authority issuing the order of the effect given to the orders, without undue delay, specifying the action taken and the moment when the action was taken.

2. Member States shall ensure that the orders referred to in paragraph 1 meet the following conditions:
(a) the orders contains the following elements:
– a statement of reasons explaining why the information is illegal content, by reference to the specific provision of Union or national law infringed;
– one or more exact uniform resource locators and, where necessary, additional information enabling the identification of the illegal content concerned;
– information about redress available to the provider of the service and to the recipient of the service who provided the content;
(b) the territorial scope of the order, on the basis of the applicable rules of Union and national law, including the Charter, and, where relevant, general principles of international law, does not exceed what is strictly necessary to achieve its objective;
(c) the order is drafted in the language declared by the provider and is sent to the point of contact, appointed by the provider, in accordance with Article 10.

Myndigheterna skall alltså kunna beordra nedtagning av olagligt material. Men inte utan en hänvisning till lagrum och information om hur man överklagar.

»Due diligence obligations for a transparent and safe online environment«

I denna del av DSA föreskrivs bland annat:

  • Service providers, nätplattformar m.fl. (providers of intermediary services) skall ha en kontaktpunkt för myndigheterna. (10:1)
  • De som inte har sin verksamhet i EU måste i vart fall ha juridisk representation här. (11:1)
  • Tydliga terms & conditions – som även förklarar företagens policy och metoder för moderation. (12)
  • Transparensrapporter som omfattar så väl information om material som tagits ner på order av myndigheterna som om den egna moderationen (13)
  • Lättillgängliga funktioner för att anmäla olagligt innehåll till hosting services providers. (14)
  • Huvudregeln är att den som anmäler innehåll måste förklara varför, vem hon är och dessutom gå i god för att anmälan är korrekt och motiverad. (14:2)
  • Den som får material nedtaget / bortmodererat skall snarast informeras om saken, om metoden, om skälet och om möjligheten att överklaga. (14:5 & 15)
  • Sociala plattformar skall ha lättillgängliga och begripliga rutiner för att hantera klagomål. (17)
  • Något slags entitet skall etableras för att lösa konflikter mellan service providers och användare utanför det vanliga rättsväsendet. (18)

Artikel 19 – Trusted flaggers

Nu blir det nog en smula kontroversiellt. Lite elakt uttryckt skulle man kunna säga att det skall anställas ordningsmän eller renhållningsarbetare på nätet.

1. Online platforms shall take the necessary technical and organisational measures to ensure that notices submitted by trusted flaggers through the mechanisms referred to in Article 14, are processed and decided upon with priority and without delay.
2. The status of trusted flaggers under this Regulation shall be awarded, upon application by any entities, by the Digital Services Coordinator of the Member State in which the applicant is established, where the applicant has demonstrated to meet all of the following conditions:
(a) it has particular expertise and competence for the purposes of detecting, identifying and notifying illegal content;
(b) it represents collective interests and is independent from any online platform;
(c) it carries out its activities for the purposes of submitting notices in a timely, diligent and objective manner

Det skall vara offentligt vilka som utses till trusted flaggers (19:3 & 4) och de skall kunna få sparken om de missköter sig (19:5 & 6).

Kvalitetsmärkta nätriddare som städar upp på nätet – eller EU-godkända nätgranskare som är en del av propagandamaskineriet? Detta är något det kommer att bli debatt om.

Man kan för övrigt undra om 19:2b avser allmänintresset eller kollektiva intressen och i så fall vilka.

Vi går vidare…

  • I artikel 20 regleras hur det skall gå till när användare stängs av från onlineplattformar.
  • Nätplattformarna måste anmäla misstänkt kriminalitet som de upptäcker till myndigheterna. (21)
  • Den som vill sälja något på nätet måste vara tydligt identifierad. (22)
  • I sina transparens-rapporter (13) skall online-plattformar även ange bl.a. omfattning av konfliktlösning (18), omfattningen av avstängningar samt vilka automatiska verktyg man använder för att moderera innehåll och hur dessa fungerar. (23)
  • Vid online-annonsering skall det tydligt framgå att annonser är annonser, vem som är avsändaren samt vilka parametrar som använts för att komma fram till att annonsen visas för just dig. (24)

Speciallagstiftning för nätjättar

  • I artikel 25 slår man fast att man kan införa specialregler för plattformar med minst 45 miljoner användare.
  • Särskild uppmärksamhet skall ägnas åt systemkritiska risker koppade till dominerande aktörer. (26)
  • Man ägnar mycket EU-lingo åt arbete för att minimera sådana risker. (27)
  • Nätjättarna skall utsättas för en omfattande, oberoende och årlig revision. (28)
  • Användarna skall kunna påverka enligt vilka kriterier de rekommenderas annonser och skall kunna välja minst ett alternativ som inte bygger på profilering. (29)
  • De stora plattformarna måste behålla all upptänklig data om annonser och deras exponering i minst ett år. (30)
  • De skall förse en Digital Services Coordinator / Kommissionen med all tänkbar data om sig själva. (31)
  • De skall även ha compliance officers. (32)

I nästa avsnitt skall det upprättas allehanda standards, uppförandekoder och  krisprotokoll. Mest byråkrati.

Digital Service Coordinators (DSC)

Artikel 38 till 41 lanserar nationella Digital Services Coordinators:

Member States shall designate one of the competent authorities as their Digital Services Coordinator. The Digital Services Coordinator shall be responsible for all matters relating to application and enforcement of this Regulation in that Member State, unless the Member State concerned has assigned certain specific tasks or sectors to other competent authorities. The Digital Services Coordinator shall in any event be responsible for ensuring coordination at national level in respect of those matters and for contributing to the effective and consistent application and enforcement of this Regulation throughout the Union.

Artikel 41 ger dessa – låt oss förkorta dem till DSC – lite halvt polisiära befogenheter. Artikel 42 föreskriver böter på upp till sex procent av vinst eller omsättning för företag som bryter mot denna nya förordning. Artikel 43 ger även användare rätt att vända sig till sin DSC. I artikel 44 föreskrivs att DSC skall avge årliga aktivitetsrapporter. DSC:s i olika länder skall enligt artikel 45 kunna samverka över gränserna och göra gemensamma utredningar (45 & 46).

European Board for Digital Services

European Board for Digital Services (47 – 49) är tydligen tänkt som något slags organ för samverkan för nationella DSC:s.  Det spontana intryck man får är att detta kommer att bli något slags ny EU-myndighet.

Sektion tre hoppar vi över idag, då det mest verkar handla om olika sanktionsformer och befogenheter för den nya europeiska nät-byråkratin. I artikel 67 meddelas att:

The Commission shall establish and maintain a reliable and secure information sharing system supporting communications between Digital Services Coordinators, the Commission and the Board.

Artikel 68 vädrar tanken på att etablera något slags nationella konsument-råd för användare av nätplattformar, som förmodligen är tänkt som referensgrupp.

Artikel 70 ger oss en Digital Services Committee. Dess uppgift skall vara att biträda EU-kommissionen.

Förordningen skall utvärderas vart femte år (73). Någon implementation i nationell lagstiftning behövs inte (74):

This Regulation shall be binding in its entirety and directly applicable in all Member States.

Så långt the Digital Services Act. Men det är även intressant att se vad som inte finns i lagförslaget.

Man sätter till exempel de tekniska ramarna för att kunna avlägsna material – men ger inga närmare besked om vad som kan komma att avlägsnas. Det lär komma nästa år i EU:s Code of Conduct on countering illegal hate speech online.

Med reservation för att allt ovan är anteckningar från min första genomläsning av själva lagtexten – så känns det som om man är på väg att bygga upp en väldig byråkrati för internet i EU. Och hållningen till de stora sociala plattformarna känns stundtals direkt fientlig (även om det kanske ibland är välförtjänt).

Nu skall jag försöka förstå mer om the Digital Services Act – och återkomma med en mer genomarbetad kommentar. Samt kasta ett öga på the Digital Markets Act.

Mer övervakning men få nyheter i Ylva Johanssons EU-plan mot terrorism

För den som följer övervakningsfrågorna i EU var det något förvånande när EU-kommissionär Ylva Johansson i radionyheterna i morse meddelade att hon kommer att lägga fram ett förslag för att ge myndigheterna möjlighet att snabbt plocka ner terror-relaterad information och propaganda på internet.

Ett sådant förslag finns nämligen redan: EU:s nya förordning om terror-relaterat innehåll online (TERREG/TCO). Och där pågår förhandlingar mellan kommissionen, rådet och parlamentet. Tanken är att morgondagens trilog-förhandlingar skall vara de sista. Men fortfarande är positionerna låsta. De viktigaste frågorna man förhandlar om gäller:

  • Ministerrådet vill att oönskat material skall plockas bort inom en timma, vilket Europaparlamentet menar är orealistiskt.
  • Ministerrådet vill att myndigheter i en medlemsstat skall kunna beordra nedtagning av innehåll på servrar i andra medlemsstater (eller tredje land).
  • Ministerrådet vill inte se något undantag för journalistik, kultur, forskning, dokumentation etc.
  • Ministerrådet vill se uppladdningsfilter, det vill säga automatiserad nätcensur – vilket parlamentet säger nej till.

Detta är alltså inte något nytt, utan ett ärende som redan dragits i långbänk. Vad det handlar om är att Ylva Johansson försöker öka trycket på parlamentet inför morgondagens förhandlingar.

På det hela taget är det väldigt lite nytt som presenteras i den Counter-Terrorism Agenda for the EU som EU-kommissionen presenterade idag.

Därmed inte annat sagt än att dokumentet listar ett antal kontroversiella åtgärder, även om de i allt väsentligt redan är kända. Exempel:

  • Automatiserad ansiktsigenkänning för identifiering, lokalisering och övervakning av individer.
  • EU:s nya Digital Services Act kommer att presentera en »horisontell« approach till olagligt innehåll online.
  • Ökad kontroll av resenärer genom PNR och samkörning av databaser.
  • Förstärkning av Europols mandat.
  • Man vill kringgå kryptering av privata meddelanden.
  • Förenklat utbyte av digitala bevis mellan medlemsstater.
  • Ett nytt datalagringsdirektiv.

Några nyheter finns dock:

  • 2021 kommer man att uppdatera EU:s Code of Conduct on countering illegal hate speech online.
  • 2021 kommer kommissionen att lägga fram ett förslag om »interconnected bank account registers« – det vill säga en central funktion för att kunna kontrollera alla bankkonton och transaktioner (i detta sammanhang relevant vad gäller terror-finansiering).
  • Man planerar att tillsätta en »Counter-Terrorism Coordinator«.

Även om dagens dokument främst fokuserar på radikal, militant islamism – så omfattar det även höger- och vänsterextremism.

Man har också en uppmaning till medlemsstaterna:

»Ensure that projects which are incompatible with European values or pursue an illegal agenda do not receive support from public funds.«

Ylva Johanssons 25-sidiga handlingsplan innehåller som sagt mest redan kända förslag. Den känns mer som ett papper för att avleda eventuell kritik mot att EU gör för lite för att bekämpa terrorism än som något nytt i sak. Men det kan naturligtvis vara bra att vi nu får EU:s planer på området sammanfattade i ett dokument.

Länkar:
• EU-kommissionens pressmeddelande »
• Counter-Terrorism Agenda for the EU (PDF) »

EU-kommissionen presenterar oklar handlingsplan mot hat, hot och desinformation

EU-kommissionen har antagit en European Democracy Action Plan, vars syfte är »to empower citizens and build more resilient democracies across the EU«. Och det låter ju bra. Men vad betyder det?

»Standing up to challenges to our democratic systems from rising extremism and perceived distance between people and politicians, the Action Plan sets out measures to promote free and fair elections, strengthen media freedom and counter disinformation. More concretely, the Commission will propose legal action on political advertising that will address the sponsors of paid content and production and distribution channels, including online platforms, advertisers and political consultancies, clarifying their respective responsibilities. The Commission will also recommend measures to tackle safety of journalist and present an initiative to protect them from strategic lawsuits against public participation (SLAPPs). Finally, the Commission will steer efforts to overhaul the existing Code of Practice on Disinformation, strengthening requirements for online platforms and introducing vigorous monitoring and oversight.«

Det där sista skall vi strax återkomma till. Men låt mig först citera ett annat matnyttigt stycke från planens sida 11:

»Further effort will be put into the fight against online hate speech, which can deter people from expressing their views and participating in online discussions. In 2021, the Commission will propose an initiative to extend the list of EU crimes under Article 83(1) of the Treaty on the Functioning of the European Union to cover hate crime and hate speech, including online hate speech. Work under the Code of conduct on tackling illegal hate speech will also continue. These efforts will also contribute to increasing the safety of journalists (see section 3.1). Tackling illegal content online while promoting freedom of expression is one of the core objectives of the Digital Services Act.«

Detta handlar uppenbart om yttrandefrihetens gränser, speciellt online. Frågan är då vad som skall anses vara problematiskt och hur man vill hantera det. Hur tänker man definiera hat? Och för att alls kunna bekämpa desinformation måste väl någon först slå fast vad som är rätt , fel, sant och falskt?

Dokumentet nämner hybridhot från Ryssland och vaccin-motstånd som potentiella problem. Men exakt vad man vill göra åt hot, hat och desinformation är inte helt lätt att förstå, allt ordbajsande till trots. Det framgår dock att plattformarna / de sociala nätverken spelar en viktig roll, måste känna sitt ansvar och se upp så att de inte får sina algoritmer manipulerade.

Nu till sidan 22:

»The Digital Services Act (DSA) will propose a horizontal framework for regulatory oversight, accountability and transparency of the online space in response to the emerging risks. It will propose rules to ensure greater accountability on how platforms moderate content, on advertising and on algorithmic processes. (…) The DSA will provide users with meaningful possibilities to challenge the platforms’ decisions to remove or label content

Detta är intressant. Det är första gången som man officiellt medger att DSA kommer att innehålla regler för hur plattformar skall moderera sitt innehåll. Vilket kan betyda lite vad som helst.

Det verkar även som om man är beredda att lagstifta för att ge användare en rimlig möjlighet att överklaga censurerat innehåll och blockerade konton. Det kan vara på sin plats. Men det hela blir lite märkligt när politiken samtidigt lägger mer ansvar på plattformarna vad gäller att undertrycka och avlägsna oönskat material.

Well, detta är ett styrdokument. För att se skarpa förslag får vi nog vänta tills the Digital Services Act presentras eller läcker ut. Senaste budet är att den skall lanseras den 15 december. Därefter vidtar normal behandling i Europaparlamentet och ministerrådet.

Ygeman, internet, EU och yttrandefriheten

Man får ofta ett intryck av att ansvariga politiker inte vet vad de talar om. Eller att de inte bryr sig.

Förra veckan debatterade energi- och digitaliseringsminister Anders Ygeman (S) med europaparlamentarikern Jessica Stegrud (SD) i SR Studio Ett.

Enkelt sammanfattat vill Ygeman att de sociala media skall göra mer för att rensa bort oönskat innehåll – medan Stegrud ville se mer rättssäkerhet för användare som får sina inlägg censurerade på oklara grunder. Hon framförde även åsikten att allt som är lagligt bör vara tillåtet på de sociala nätplattformarna.

I sin iver att vara konfrontativ mot SD missade Ygeman tyvärr sakfrågan. Vilket är tråkigt, eftersom det är han som är ansvarigt statsråd när Sverige nu skall medverka till att skapa något slags gemensamma EU-regler för internet. Han kanske inte riktigt vet vad som pågår i Bryssel.

Han skulle kunna fråga sina partikamrater i Europaparlamentet. Då hade han fått kännedom om den resolution om EU:s kommande Digital Services Act som Europaparlamentet med bred majoritet ställt sig bakom.

I den säger man tydligt att det är ett problem med till synes godtyckliga avstängningar av användare från sociala media, utan förklaring och utan möjlighet att överklaga.

Det är också problematiskt att rättsskipningen och makten över det fria ordet flyttas från rättsväsendet till sociala medieföretag genom dessas användarvillkor.

När politikers påtryckningar och förtäckta hot får företagen att ägna sig åt att censurera användare – då är detta att bakvägen genomföra inskränkningar i yttrandefriheten som förmodligen aldrig hade varit möjliga i en öppen demokratisk process.

Här finns massor av svåra och problematiska frågor som rör ett av demokratins själv fundament, yttrandefriheten.

Men statsrådet Ygeman verkar mer intresserad av att gräla med SD. Frågan är om han alls bryr sig om sakfrågan.