• Hoppa till huvudnavigering
  • Hoppa till huvudinnehåll
  • Hoppa till det primära sidofältet

Femte juli

Nätet till folket!

  • Om oss
  • Remissvar

Digital Services Act

EU:s nya Digital Services Act (DSA) kommer att innehålla regler för plattformar online och sociala media. Den innehåller en del bra saker, som rätten till information och möjlighet att överklaga om en användare får ett inlägg censurerat eller vid avstängning. Andra saker är mer tveksamma, som till exempel Trusted Flaggers, som blir ett slags statligt godkända ordningsmän på nätet med direktlina till sociala medias abuse-avdelningar.

DSA: Vilken makt att censurera har EU?

28 december 2025 av Henrik Alexandersson

EU kan censurera information och blockera sociala medier – via medlemsstaterna, efter rättslig prövning. Och så finns de informella sätten…

Det börjar hetta till i debatten om yttrandefriheten online i EU. Detta leder oss till frågan vilken makt EU-kommissionen egentligen har enligt unionens Digital Services Act (DSA).

I grunden säger DSA att olagligt innehåll på nätet skall avlägsnas. Vilket man knappast behöver en lagstiftning på hundratals sidor för att göra – eller egentligen någon ny lagstiftning alls.

Sedan blir det mer komplicerat. EU-kommissionen har inte någon direkt befogenhet att censurera enskilda inlägg eller begränsa lagligt innehåll. Men…

Begreppet »olagligt innehåll« definieras som information som inte är förenlig med unionsrätten eller gällande nationell rätt.

Bland nationella brott i EU kan nämnas information om abort och homosexualitet, hädelse, majestätsbrott, »hat« och förolämpningar (se till exempel Tyskland). Vilka på sätt och vis blir brott i hela EU (eller rent av hela världen) när DSA applicerar nationella lagar på plattformar som inte har nationsgränser.

Det är alltså nationella rättsliga eller administrativa myndigheter som har befogenhet att utfärda förelägganden om att en plattform skall agera mot olagligt innehåll.

(Men man tycks räkna med att olagligt innehåll tas bort ändå – utan föregående rättslig prövning – om plattformarna uppmärksammas på det av till exempel Trusted Flaggers.)

En åklagare eller annan rättsligt behörig myndighet i ett EU-land kan i sammanhanget utfärda gränsöverskridande nedtagningsorder för innehåll som finns på plattformar och servrar i en annan medlemsstat – även om innehållet ifråga inte är olagligt i den senare.

Här skall också nämnas att EU är inne i en process för att göra hat och hot till »EU-brott« med en gemensam definition och minsta straffsats i hela EU. Dock har man svårt att komma fram till någon hanterbar definition av »hat«.

Vad gäller mycket stora onlineplattformar (VLOPs) skall EU-kommissionen granska om dessa gör tillräckligt för att begränsa »systemrisker« – till exempel spridning av olagligt innehåll eller genom vad man lite svävande kallar negativa effekter på demokratiska processer.

Det är inom denna ram som de stora aktörerna även förväntas motverka innehåll som anses »skadligt« även om det inte är olagligt. Vilket då antas ske »frivilligt« – med stöd i de användarvillkor politikerna alltid vill att plattformarna skall skärpa.

Vid extraordinära omständigheter (till exempel krig eller pandemier) som utgör ett allvarligt hot mot allmän säkerhet, kan kommissionen kräva att plattformar bedömer hur deras tjänster bidrar till hotet och att de sedan vidtar »frivilliga« åtgärder för att begränsa spridningen av viss information.

Trots att de tvingas vara vaksamma på alla dessa risker får plattformarna inte åläggas en allmän skyldighet att övervaka allt innehåll. Detta är tänkt som ett skydd mot omfattande automatiserad censur. (Men de kan göra det ändå, mer eller mindre frivilligt.)

EU kan också begränsa tillgången till en plattform. Alltså blockera den. Detta om man redan försökt stoppa en överträdelse genom andra medel som böter eller vite utan att lyckas.

Detta gäller vidare om överträdelsen fortsätter och orsakar vad man kallar allvarlig skada som inte kan undvikas på något annat sätt. Samt om VLOPer underlåtit att följa beslut eller handlingsplaner för att hantera systemrisker.

Vid en viss punkt kan man alltså begränsa tillgången till X om den nuvarande konflikten eskalerar.

Det sker i så fall genom att relevant nationell digital samordnare (i X fall Irland) under DSA vänder sig till en behörig rättslig myndighet (åklagare/domstol) för att begära ett beslut om tillfällig begränsning av tillgången till tjänsten eller onlinegränssnittet.

Innan en sådan begäran görs skall kommissionen ge berörda parter minst 14 arbetsdagar på sig att lämna skriftliga synpunkter. En begränsning av tillgången skall i princip gälla i fyra veckor. Den kan förlängas, men varje förlängning kräver en ny bedömning och beslut av den rättsliga myndigheten.

Åtgärden får inte gå utöver vad som är strikt nödvändigt. Den skall vidare utformas så att den inte medför någon orimlig begränsning av tillgången till laglig information för användarna. Vilket är fina ord som dock har högst oklar betydelse om det kommer till skarpt läge.

Man kan även använda formella rättsliga processer (eller informella påtryckningar) för att tillfälligt utestänga en plattforms app från respektive app-store.

Så… ja. DSA ger utrymme för censur av visst innehåll och möjliggör även tillfällig blockering av hela plattformar / sociala medier. Men genom medlemsstaterna – och med föregående rättslig prövning.

Politikernas trick är dock, som sagt, att förmå plattformarna att plocka ner information som man tycker är olämplig (»skadlig men laglig«) ändå – genom användarvillkor och moderering.

På så sätt lyckas makten begränsa oönskade yttranden – utan att behöva genomgå den stökiga demokratiska process som lagstiftning i yttrandefrihetsfrågor kan vara.

• EU:s Digital Services Act »

Tidigare, relaterade texter:
• EU vill jämställa ”näthat” med terrorism »
• EU, nätcensur och hatlagstiftning (om Trusted Flaggers) »

CC0

Arkiverad under: Censur, Demokrati, Digital Services Act, EU, Länktips, Rättssäkerhet, Sociala media, Spaning, Storebror, Yttrandefrihet

Politiken har alltid ogillat fri information

12 december 2025 av Henrik Alexandersson

Dagens debatt om åldersgränser för sociala media och begränsningar av det fria ordet online är egentligen inget nytt. Den politiska makten har alltid ogillat fri information.

För inte så länge sedan hade Sverige ett etermediemonopol. Bara statens bolag fick sända radio och tv. Utbudet var sorgligt. Syftet var att skydda medborgarna från oönskade och olämpliga influenser.

På kvällarna försökte unga svenskar ratta in Radio Luxemburg för att höra den senaste musiken. I tv-serien »Fönster mot TV-världen« gavs storögda svenska tittare snuttifierade inblickar i hur tv såg ut i andra länder.

På internationellt vatten låg fartyg och sände piratradiostationerna Radio Nord och Radio Syd. Svenska företag och privatpersoner förbjöds att samarbeta tekniskt eller redaktionellt med dem, med fängelse i straffskalan. De utsattes för de-banking. Artister, tekniker, medverkande och leverantörer tvingades dra sig ur.

Kampen mot utländsk information gick så långt att socialdemokratiska företrädare krävde ett förbud mot parabolantenner – för att hindra svenska folket från att ta in satellitsändningar från andra länder.

När videobandspelare blev tillgängliga för vanligt folk kom nästa moralpanik, med krav på förbud och profetior om samhällets undergång. Samma moralpanik som kom att drabba hårdrock och dataspel.

Fram till 2011 hade Sverige förhandsgranskning och censur av film för vuxna. Innehåll i filmer klipptes bort. Vissa filmer förbjöds helt.

Så inget är nytt under solen. Våra politiska makthavare har en lång tradition av att försöka »skydda« folket från olämpliga influenser, inte minst från utlandet. Eftersom de anser att de vet bäst.

Sett mot denna bakgrund är det inte märkligt att vissa politiska partier idag driver en närmast internetfientlig politik. Det är en naturlig fortsättning på den linje de alltid drivit.

Eller att EU vill censurera även icke-olagligt innehåll på nätet. Under unionens paraply samlas politiker från 27 länder som i många fall har haft ett historiskt problematiskt förhållande till fri information.

Detta är en till synes evig strid. Politiker har alltid velat förbjuda information de ogillar – samtidigt som de varit ovilliga att ta debatten mot nämnda information i sak. Förbud har varit den enkla vägen ut.

Ljuspunkten är, som Jan Stenbeck uttryckte saken, att »Teknik slår politik.«

CC0

Arkiverad under: Censur, Demokrati, Digital Services Act, EU, Kultur, Media, Propaganda, Storebror, Sverige, Yttrandefrihet Taggad som: etermediemonopol, filmcensur, moralpanik, piratradio

EU vs. X – när politiken vill ha makten över det fria ordet online

7 december 2025 av Henrik Alexandersson

EU hotar X med miljardböter för att plattformen vägrar underkasta sig Bryssels kontroll. Vilket kan sluta med handelskrig.

EU hotar att bötfälla X (tidigare Twitter) med 120 miljoner euro, på följande grunder:

  • Bedräglig utformning av X:s »blå bockmarkering«
  • Bristande transparens i X:s annonsarkiv
  • Underlåtenhet att ge forskare tillgång till offentliga uppgifter

USA har hotat med att fördröja det handelsavtal som är tänkt att halvera tullarna på stål och bilar om EU gör verklighet av sitt hot.

Och redan i somras flaggade den amerikanska administrationen enligt Reuters för sanktioner mot ledande EU-företrädare – om de gör allvar av de möjligheter som unionens Digital Services Act (DSA) öppnar, vad gäller att begränsa det fria ordet online och reglera sociala media som är baserade i andra länder.

Samtidigt hävdar X ägare, Elon Musk att den förra EU-kommissionen gav sociala media ett val: Censurera oönskat innehåll eller bli bötfällda. Detta finns det visserligen inga konkreta bevis för (vad vi vet). Men det är uppenbart att DSA ökar risken för övermoderering.

DSA är tydligt med att stora plattformar och sökmotorer skall motverka oönskat innehåll även om det inte är olagligt. Vilket X inte vill göra. (Till exempel krävde EU:s tidigare kommissionär för den inre marknaden Thierry Breton att X skulle censurera Trump.)

Dessutom finns en upprördhet i USA över att EU:s DSA kommer att begränsa amerikaners rätt att dela och ta emot information i sitt eget land, i enlighet med den närmast absoluta yttrandefrihet de garanteras av konstitutionen.

Man kan i sammanhanget notera att till exempel Facebook (som enligt Musk valt att censurera) också säljer verifierings-dekaler (blå bock) för 150 kr per månad, utan att drabbas av EU-kommissionens vrede.

Tidigare delade Twitter ut verifieringsdekaler till VIP-användare (som sedan även fick möjlighet att köpa marknadsföringspaket för att visa att man var Twitter-VIP även utanför plattformen, för 15.000 USD av tredjepartsaktörer).

Idag anger den blå bocken att man är betalande användare (32 kr/månad, vilket även ger vissa andra förmåner). Detta kräver telefonnummer, ibland ID-verifiering, giltig betalningsinformation och att kontot varit registrerat en viss tid. X förbjuder att man låtsas vara någon annan om det riskerar att vilseleda. Det gäller både personer, organisationer och offentliga aktörer.

Utöver den blå bocken kan företag och organisationer köpa sig en verifieringsdekal i guld. Det finns även en grå dekal för myndigheter, som inte kan köpas utan delas ut av X.

EU-kommissionen menar att detta system kan vara vilseledande.

(En detalj i sammanhanget är att om X inte hade haft någon verfiering av användare alls, då hade EU enligt DSA inte kunnat bötfälla företaget på denna punkt.)

Det ligger nära till hands att misstänka att tidigare innehavare av »VIP-dekaler« som kändisar, politiker (som EU-kommissionärer) och högprofilerade journalister surnade till när de blev av med sin gratis VIP-märkning samtidigt som vanligt folk kunde verifiera sig…

Även om det säkert går att bluffa sig till en verifierings-dekal så bör dagens system i vart fall ge viss bortsållning av oseriösa aktörer. Och vill man leta botar är kanske de gratis, overifierade kontona ett större problem.

Dessutom måste det gå att uppträda under pseudonym eller att vara anonym i sociala media. Det finns gott om giltiga skäl – från visselblåsare till vanliga människor som vill kunna uttrycka sina åsikter utan risk för att bli trakasserade. (Speciellt i skurkstater som förtrycker sitt folk och förföljer oliktänkande.)

Vad gäller aktörer i sociala media som agerar bedrägligt bör samma regler gälla online som i samhället i övrigt. Olagligt innehålla skall avlägsnas. Men staten skall inte kunna kräva att icke olagligt innehåll censureras. (Sådant kan dock regleras i användarvillkoren, mellan plattformen och användaren.)

Sedan finns det naturligtvis aktörer som försöker destabilisera vårt samhälle, i alla sociala media. Men sådant måste bemötas i en fri och öppen debatt. Tyvärr väljer våra politiska företrädare hellre censur – vilket kan bero på bristande vilja, förmåga eller förnuft.

Att ta debatten kräver att man har en viss klangbotten vad gäller den västerländska liberala demokratins grundläggande värden och våra medborgerliga fri- och rättigheter. Vilket man kan ifrågasätta om de politiker som ständigt vill utöka övervakningsstaten och censurera internet besitter.

Vad gäller de böter som utfärdats för »bristande transparens i X:s annonsarkiv« och »underlåtenhet att ge forskare tillgång till offentliga uppgifter« kan man möjligen förstå om X inte vill lämna ut sådant till aktörer som de upplever som fientligt sinnade. Plus att det är omstritt huruvida EU:s jurisdiktion verkligen omfattar amerikanska företag.

Ironiskt nog lyckades EU-kommissionen själv bryta mot EU:s regelverk om micro targeting med proxydata för riktade politiska annonser på X, i syfte att påverka opinionen för ett ja till Chat Control 2.

Det finns skäl att ana politiska motiv bakom denna konflikt. EU:s politiker, byråkrater och journalister ogillar Elon Musk och det faktum att det finns en social medieplattform som tycks vara bortom deras kontroll.

Visst, man kan ogilla Musk för mycket. Själv skulle jag önska att han ägnade sig lite mer åt källkritik. Musk och jag har motsatta åsikter om Ukraina. Och jag känner en viss frustration över att DOGE inte kom att ledas av någon som visste hur systemet fungerar, var liken är nergrävda och var man måste tänka ett varv till för att nå önskat resultat. Musk stöder dessutom en del politiska krafter i Europa som jag tycker är obehagliga.

Men han har rätt att tycka vad han vill. Och han erbjuder en social medieplattform med mer taköjd än andra. X ger vanligt folk möjlighet att ventilera sin oro och frustration – som ju inte försvinner om man lägger locket på. X ger människor möjlighet att ifrågasätta, lägga sig i och utkräva ansvar. Vilket naturligtvis inte uppskattas av makthavarna.

Vad gäller EU:s Digital Services Act – så har vi redan kritiserat att implementeringen fokuserar på censur, men att kommissionen än så länge ignorerat vad DSA har att säga om användarnas rättigheter. Samt att hela lagstiftningpaketet egentligen är onödigt.

• EU: Kommissionen bötfäller X 120 miljoner euro enligt förordningen om digitala tjänster »
• US Secretary of State Marco Rubio på X: The days of censoring Americans online are over. »
• BBC: US hits out at EU’s ’suffocating regulations’ after it fines Elon Musk’s X »
• Reuters: X gets $140 million EU fine for breaching content rules but TikTok settles »
• DW: EU hits X with €120 million fine over breaking digital rules »

Tidigare:
• HO: EU customs deal with the USA: finalization delayed due to dispute over DSA »
• DigiWatch: Trump threatens sanctions on EU over Digital Services Act »
• Reuters: Exclusive: Trump administration weighs sanctions on officials implementing EU tech law, sources say »

Relaterat:
• EU/DSA: Vad hände med användarnas rättigheter? »
• Behöver vi speciella lagar för internet? »

CC0

Arkiverad under: Censur, Demokrati, Digital Services Act, EU, Länktips, Nätkultur, Propaganda, Rättssäkerhet, Sociala media, Spaning, Storebror, USA, Yttrandefrihet Taggad som: Elon Musk, Twitter, X

EU, nätcensur och hatlagstiftning

2 december 2025 av Henrik Alexandersson

Vi håller på att få statligt godkända nätcensorer vars opartiskhet kan ifrågasättas. Samtidigt blir »hat« ett EU-brott med gemensam definition och lägsta straff.

Enligt EU:s Digital Services Act (DSA) skall medlemsstaterna utse Trusted Flaggers / »betrodda anmälare«. Dessa skall ha en direkt kanal till sociala media för att rekommendera vilket innehåll som snabbt bör plockas bort.

En Trusted Flagger kan vara en myndighet, en branschorganisation, expertorganisationer, akademiska organisationer, NGO:er eller liknande. I Sverige kommer de att utses och hanteras av Post & Telestyrelsen (PTS).

Formellt sett skall de bara flagga olagligt innehåll. Men DSA öppnar även för att de skall kunna hjälpa plattformarna att hålla efter vad som föreskrivs i användarvillkoren, vilket i så fall även kan vara icke olagligt innehåll.

Det första problemet är att vi kommer att få ett slags statligt godkända nätcensorer som får rätt att rekommendera att innehåll plockas bort utan föregående rättslig prövning.

Det må vara en sak om en privatperson eller godtycklig organisation påpekar att visst innehåll på sociala media förmodligen är olagligt.

Men det är något helt annat när anmälaren är utsedd och godkänd av staten. Denne kan då i någon mening sägas handla på statens mandat eller med statens goda minne. Och staten, dess funktionärer och ombud bör inte få censurera något utan föregående rättslig prövning.

Speciellt inte icke olagligt innehåll (även om det bryter mot sociala medias användarvillkor).

Ett annat problem är att vissa Trusted Flaggers kan ha och driva en egen agenda.

Än så länge är detta inte något större problem i Sverige, då de enda två Trusted Flaggers som ännu är utsedda är barnrättsorganisationen ECPAT och Svenska Stöldskyddsföreningen. Båda bör vara kvalificerade för att avgöra om innehåll inom deras sakexpertis är lagligt eller ej.

Det blir knepigare om organisationer som utses till Trusted Flaggers har en mer politisk agenda, som kan misstänkas färga deras omdöme. I Tyskland har man utsett ett par kontroversiella organisationer som arbetar mot hat på nätet till Trusted Flaggers. Och vad som är att betrakta som hat öppnar för ett stort mått av subjektivitet.

De svenska socialdemokraterna krävde nyligen att Sverige utser fler Trusted Flaggers. Till Epoch Times har Anders Ygeman (S) sagt att exempel på sådana kan vara Expo och Doku. Vilket är intressant då båda dessa är något av ett rött skynke för var sin sida av det politiska fältet.

Om de strikt ägnar sig åt att rapportera in sådant som är uppenbart olagligt är det kanske en sak. Men om de även skall börja tolka sådant som regleras i respektive plattforms användarvillkor finns en uppenbar risk för politiskt färgade beslut och kontroverser.

I DSA kan vi läsa att Trusted Flaggers även skall medverka vid analys av systemrisker; att de skall ha ett utökat samarbete med sociala media; att de skall medverka vid utbildning för sociala plattformar samt att de skall bidra till utformning av uppförandekoder. Vilket är att gå långt bortom att bara påpeka vad som är direkt olagligt.

Den risk vi måste vara observanta på är om vi får Trusted Flaggers som låter en egen agenda styra sina handlingar. Och den risken är tyvärr uppenbar.

Det tredje problemet är vad som för tillfället är olagligt.

I till exempel Tyskland är förolämpningar olagliga, speciellt online – på ett sätt som begränsar yttrandefriheten, fri debatt och fri åsiktsbildning. I kombination med att man utsett Trusted Flaggers vars opartiskhet ifrågasatts kan det bli problematiskt.

I sammanhanget vill vi påminna om att EU är på väg att göra »hat och hot« till ett »EU-brott« med gemensam definition och ett gemensamt minsta straff.

Hot må vara en sak, det är en handling som kränker någon annans säkerhet. Men hat är en känsla. Vad som upplevs som hat är subjektivt. Och här svävar man på målet.

En resolution från Europaparlamentet säger att vad som i sammanhanget skall anses utgöra hat »must not be limited only to certain grounds or motivations«. Vilket låter oroväckande. Man efterlyser även en »holistisk respons« och en »multidimensionell approach«.

Detta är gummiparagrafer som kan öppna för i stort sett vad som helst.

Om vi nu tar ett steg tillbaka och ser till helheten, då får vi följande:

  • Statligt godkända nätcensorer som kan rekommendera att (bland annat) olagligt innehåll plockas bort från sociala media utan föregående rättslig prövning.
  • Man kan ifrågasätta vissa presumtiva Trusted Flaggers opartiskhet och agenda.
  • Vi är på väg att få en EU-lagstiftning som gör »hat« till ett brott, utan att närmare slå fast exakt vad som menas med termen eller vad det är som skall bli olagligt att uttrycka.

Vad kan möjligen gå fel?

CC0

Arkiverad under: Censur, Demokrati, Digital Services Act, EU, Sociala media, Spaning, Storebror, Sverige, Yttrandefrihet Taggad som: Trusted Flaggers

Nu rullas EU:s nya nätcensur ut

22 november 2025 av Henrik Alexandersson

Statligt godkända nätcensorer skall få rekommendera att innehåll plockas bort på nätet – utan föregående rättslig prövning.

Enligt EU:s Digital Services Act (DSA) skall alla medlemsstater ha utsett så kallade Trusted Flaggers till årsskiftet. Vilket dock bara skett i dygt hälften av länderna.

En Trusted Flagger (sv: betrodd anmälare) är till exempel en organiation, myndighet eller branschorganisation som får en direktlina till sociala media för att rekommendera vilket innehåll som skall plockas bort.

Egentligen skall de fokusera på olagligt innehåll. Men DSA anger också att de bland annat skall hjälpa till att identifiera innehåll som bryter mot plattformarnas användarvillkor, även om det inte är olagligt.

Vilket innebär att en statligt godkänd aktör inte bara får rätt att rekommendera censur utan föregående rättslig prövning – utan i praktiken censur även i fall där inget olagligt föreligger. Det känns som en tveksam konstruktion i en demokratisk rättsstat.

Speciellt ifall en Trusted Flagger som företräder ett visst (sär)intresse kommer att rekommendera censur av innehåll där organisationen i någon mening är part i målet.

Om man ser till EU-kommissionens lista över godkända Trusted Flaggers märker man snabbt att många av dem sysslar med att bekämpa »hat och hot« online. Just »hat« är ett område som öppnar för ett stort mått av subjektivitet.

När EU nu stressar på för att det skall utses fler Trusted Flaggers är risken uppenbar att man fyller på med organisationer som företräder särintressen som främst vill främja sin egen agenda – genom den makt som nu tilldelas dem över det fria ordet online.

Detta riskerar att bli ytterligare ett område där missriktad välvilja kommer att ställa oss inför nya, oförutsedda och oönskade problem.

Om bara någon hade varnat för detta i tid…

• DiscloseTV: The EU censorship network expands »
• TKP: EU-Zensoren-Netz weitet sich aus »
• EU-kommissionens lista över godkända Trusted Flaggers »

Äldre bloggposter i ämnet:
• Trusted Flaggers – EU:s nya nätcensur dekonstruerad (april 2022) »
• Möt de nya statligt godkända nätcensorerna (november 2024) »

CC0

Arkiverad under: Censur, Demokrati, Digital Services Act, EU, Länktips, Rättssäkerhet, Sociala media, Spaning, Storebror, Yttrandefrihet Taggad som: Trusted Flaggers

(S): ID-krav för onlinespel med chattar – och fler nätcensorer

20 november 2025 av Henrik Alexandersson

Socialdemokraterna vill se ID-krav för spelplattformar med chattar – och fler statligt godkända nätcensorer.

Socialdemokraterna krävde på en presskonferens i veckan att »samhället kliver fram och vidtar åtgärder för att spelplattformarna skall vara säkra för barn och unga«.

Detta tänker man åstadkomma genom att införa ID-krav för spelplattformar med chat-funktioner. Så att man vet vem som deltar.

Som vanligt väcker sådana här förslag massor av frågor. Hur skall det gå till? Hur har man tänkt sig att få plattformar i andra jurisdiktioner att delta? Kommer man att kombinera detta med en åldersgräns (som man vill göra med sociala media)?

Sedan kom Anders Ygeman in på ett intressant sidospår: Socialdemokraterna vill se »betydligt fler« Trusted Flaggers (»betrodda anmälare«). Det vill säga statligt godkända nätcensorer, med en direktlina till sociala media för att rekommendera vilket innehåll som bör plockas bort.

Trusted Flaggers introducerades i EU:s Digital Services Act (DSA). Än så länge finns det bara två i Sverige. ECPAT (som rapporterar in innehåll med övergrepp mot barn) och Svenska Stöldskyddsföreningen.

Upphovsrättsorganisationer och Läkemedelsverket sägs också vara på gång. Vilket ändå får sägas vara rätt återhållsamt. I andra länder har det uppstått frågor och debatt efter att mer politiskt vinklade organisationer utsetts till Trusted Flaggers.

Om nu Socialdemokraterna vill se »betydligt fler« Trusted Flaggers är den uppenbara frågan: Vilka?

Med tanke på partiets rätt avoga inställning till det fria ordet på internet finns det skäl att vara vaksam.

Socialdemokraterna vill dessutom att Trusted Flaggers (som idag verkar inom sina respektive organisationers ramar) skall avlönas av skattebetalarna.

En fråga som uppstår är om det är lämpligt att statligt godkända (och avlönade?) nätcensorer skall kunna rekommendera att innehåll tas bort utan föregående rättslig prövning.

Relaterat:
• Möt de nya statligt godkända nätcensorerna (november 2024) »

CC0

Arkiverad under: Censur, Digital Services Act, Länktips, Rättssäkerhet, Sociala media, Storebror, Sverige, Yttrandefrihet Taggad som: Socialdemokraterna, Trusted Flaggers

EU/DSA: Vad hände med användarnas rättigheter?

17 november 2025 av Henrik Alexandersson

EU tycker tydligen att det är viktigare att begränsa användarnas yttrandefrihet på sociala media än att försvara deras rättigheter.

EU-kommissionen är snabb när det gäller att kritisera de stora sociala medieplattformarna när den tycker att de inte censurerar tillräckligt.

Men när det gäller de användarrättigheter som stadgas i EU:s Digital Services Act (DSA) tycks kommissionen vara rätt ointresserad.

DSA säger följande:

  • Användare har rätt att överklaga moderation (borttagna inlägg, skuggbanning m.m.).
  • Plattformar måste erbjuda ett internt klagomålssystem.
  • De måste ge en motivering när de tar bort eller begränsar innehåll.
  • Användaren kan gå vidare till ett certifierat utomstående tvistlösningsorgan.
  • Användaren får också vända sig till nationella myndigheter eller domstol.
  • DSA gäller både censur av inlägg och avstängning av konton.
  • Kontostängning måste vara proportionerlig.
  • Plattformen måste förvarna om och motivera avstängning (utom vid mycket allvarliga brott).

Uppenbarligen fungerar detta inte. Användare blir censurerade, skuggbannade och avstängda utan att det finns något meningsfullt sätt att överklaga. (Automatiserade AI-svar som bara meddelar att beslutet kvarstår baserat på vaga generella formuleringar räknas inte.)

Få om ens några medlemsstater har etablerat något utomstående tvistlösningsorgan. (Ansvarig nationell myndighet i Sverige är Post & Telestyrelsen, PTS). Och någon struktur för hur kommissionen skall leva upp till sitt övergripande ansvar på detta område tycks inte existera i sinnevärlden.

Däremot är EU-kommissionen som sagt snabb när det gäller att klaga på att sociala media inte censurerar tillräckligt mycket.

Man kan lätt få intrycket av att EU tycker det är viktigare att begränsa användarnas yttrandefrihet än att försvara deras rättigheter.

Arkiverad under: Censur, Digital Services Act, EU, Nätkultur, Rättssäkerhet, Sociala media, Spaning, Yttrandefrihet

Skrota Chat Control 2 istället för att ändra i förslaget

10 november 2025 av Henrik Alexandersson

När EU:s ministerråd nu plockar bort de mest kontroversiella delarna av Chat Control 2 uppstår nya frågetecken. Därför är det bättre att skrota förslaget helt.

Trots lättnaden över att EU:s ministerråd är på väg att ta bort kravet på obligatorisk granskning av innehållet i medborgarnas elektroniska meddelanden i Chat Control 2 – får vi inte släppa ögonen från bollen.

Problemet när man lyfter ut delar av ett förslag är att allt hänger samman. Det man vill bli av med förankras på olika ställen i texten och det gäller att bli av med allt.

Nu varnar den tidigare ledamoten i Europaparlamentet Patrick Breyer (PP, DE) för en del detaljer i det danska kompromissförslaget (som är tänkt att behandlas i expressfart i ministerrådet). I ett brev till rådets medlemmar skriver han bland annat:

»Article 4(1) obliges providers to take ”all reasonable mitigation measures”. By defining ”voluntary detection activities” under Regulation (EU) 2021/1232 as ”reasonable,” national authorities, empowered by Article 27, will be able to enforce their implementation, thus making them mandatory. This negates the entire purpose of removing Articles 7-11.«

»All reasonable mitigation measures«. Vilket i vart fall i teorin öppnar för vad som helst – inklusive client-side-scanning / spionprogram på folks telefoner och datorer. I vart fall på nationell nivå.

Om detta är ett förbiseende eller medvetet är oklart. Men det är ett klassiskt knep i ministerrådet att genomföra sådant man inte får igenom på EU-nivå synkat på nationell nivå istället – vilket i pricnip ger samma resultat.

Den senaste texten tycks även gå bortom att bara granska bilder, video och länkar. Text, ljud och metadata kan komma att ingå i den frivilliga skanningen. Enligt Breyer glider texten även mot att öppna för att låta AI försöka identifiera tidigare okänt övergreppsmaterial, vilket är en teknik som ännu inte finns tillgänglig i något slags tillförlitlig form.

Dessutom öppnar texten för åldersverifiering för sociala medier och i app-butiker, men inte bestämda åldersgränser i lagstiftningen. (Det är en nationell fråga.) Detta kan ses som att man inför mekanismen för den princip om åldersverifiering som etablerades med Digital Services Act.

Problemet med åldersverifiering är att alla måste identifiera sig samt att ingen kan vara anonym.

Detta för att ta några exempel på frågetecken i texten. Allt blir stökigt när man lyfter ut kärnpunkterna ur ett förslag men låter allt annat vara kvar. Utrymmet för missar, fel- och fultolkningar samt oförutsedda och oönskade konsekvenser är betydande.

Därför är det bättre att sända tillbaka hela förslaget om Chat Control 2 till EU-kommissionen för att göras om i grunden – med respekt för vad Europakonventionen om de mänskliga rättigheterna säger om rätten till privatliv och privat kommunikation. Och inom principen som EU-domstolen slagit fast:

Övervaka dem som misstänks för brott – inte alla andra, hela tiden.

• Det senaste förslaget i EU:s ministerråd (6 november) »

Relaterat:
• Interne Dokumente: EU-Staaten wollen Chatkontrolle-Gesetz ohne weitere Änderungen »

Resurser:
• Chatcontrol.se »
• Chatcontrol.eu »

Tidigare bloggposter:
• Chat Control 2 stoppas – tills vidare (november 2025) »
• Chat Control 1, Chat Control 2… Vad gäller nu? (november 2025) »
• Chat Control 2: Nytt förslag på väg – utan client-side-scanning (oktober 2025) »
• Chat Contol 2: Står (S) inte längre bakom Europaparlamentets nej? (oktober 2025) »
• Vill regeringen få Chat Control 2 som en valfråga? (oktober 2025) »
• Chat Control 2 – lägg ner! (oktober 2025) »
• Chat Control 2: Vad händer nu? (oktober 2025) »
• Chat Control 2: Danmark lägger fram nytt förslag (oktober 2025) »
• Tyskland säger NEJ till Chat Control 2 (oktober 2025) »
• Hur är Chat Control 2 tänkt att fungera i praktiken? (oktober 2025) »
• Chat Control 2: Beslutet skjuts upp? (oktober 2025) »
• Chat Control 2: Danmarks bluff (september 2025) »
• Chat Control 2: Hur tänker EU:s ministerråd nu? (september 2025) »
• Svenska regeringen orolig för att Chat Control 2 inte går långt nog (september 2025) »

• Chat Control 2: Tyskland vacklar (september 2025) »
• Chat Control 2: Ett svenskt politiskt haveri (september 2025) »
• Chat Control 2: Tyskland säger nej (september 2025) »
• ”Politiker förstår inte riskerna med Chat Control” (september 2025) »

• Detta är Chat Control 2 – på en dryg minut (augusti 2025) »
• USA: Stoppa Chat Control 2 (augusti 2025) »

• Chat Control 2 – ett förslag med buggar (augusti 2025) »
• Chatcontrol: Kompromiss i Europaparlamentet (oktober 2023) »

CC0

Arkiverad under: Aktivism, Chat Control, Digital Services Act, EU, Länktips, Övervakning, Privatliv, Spaning, Storebror Taggad som: chat control, ChatControl, CSAM, CSAR, EU:s ministerråd

Åldersgräns för sociala media rullas ut i EU

16 oktober 2025 av Henrik Alexandersson

Stegvis rullar EU nu ut en ny app för att kontrollera åldern på användare av sociala media.

Trots oredan kring ålderskontroll för sociala media som uppstått i Storbritannien, är EU i färd med att rulla ut något liknande. För att skydda barn och unga mot olämpligt innehåll. Vilket leder till knepiga gränsdragningsproblem.

Den legala bakgrunden är dels EU:s dataskyddsförordning (GDPR), som ger medlemsstater rätt att sätta gränsen för barns samtycke till behandling av personuppgifter från 13 till 16 års ålder.

Dessutom säger EU:s Digital Services ACT (DSA) att plattformar skall vidta »lämpliga och proportionella åtgärder« för att säkerställa en hög skyddsnivå för minderåriga. DSA kräver även riskbedömningar och transparens kring »systemiska risker«, inklusive påverkan på minderårigas psykiska hälsa och rättigheter.

Flera medlemsstater sätter nu upp egna åldersgränser men i Europaparlamentet argumenterar vissa för en gemensam åldersgräns i hela EU.

Till skillnad från britterna vill EU inte använda olika tredjepartsleverantörer av system för ålderskontroll. Istället introduceras en EU-gemensam app som du identifierar dig i och som sedan sänder en klarsignal till respektive plattform om du har åldern inne.

Detta prövas redan på försök i Frankrike, Spanien, Italien, Danmark och Grekland. Den app för åldersverifiering som används är tänkt att så småningom gå upp i EU:s nya allmänna digitala plånbok.

EU är alltså på väg mot ålderskontroll för sociala media. Vilket innebär att man måste kontrollera åldern på alla användare. Även om verktyget för detta innebär att du bara behöver identifiera dig en gång, på ett ställe – så kan nämnda verktyg fortfarande hackas, läcka, missbrukas och användas för att hålla koll på folk i en bredare mening.

Samtidigt har kommissionen, inom ramen för DSA inlett en barnskyddsgranskning av stora plattformar som YouTube, Snapchat, Apple och Google. De skall redogöra för hur de hindrar minderåriga från att komma åt skadligt eller vuxet innehåll.

Det skall bli intressant att se hur man tänkt sig tvinga amerikanska plattformar att införa EU:s åldersverifiering. Brittiska tillsynsmyndigheten har redan inlett ett förfarande mot 4chan, som inte bryr sig om UK Online Safety Acts krav på ålderskontroll. Vilket lett till att 4chan svarat att britterna inte har jurisdiktion över en amerikansk site. Det kan bli spännande att följa. Speciellt om EU (eller någon medlemsstat) ställer samma krav och får samma svar.

• EU-kommissionen: Commission releases enhanced second version of the age-verification blueprint »
• EU updates age verification blueprint app amid debate on social media restrictions »
• EU Launches New Push For Digital ID Age Checks and Big Tech Probe Under Digital Services Act »

• EU inför ID-krav på nätplattformar (maj 2025) »

CC0

Arkiverad under: Dataskydd, Digital Services Act, EU, Länktips, Övervakning, Säkerhet, Spaning, Storebror Taggad som: eID, eIDAS, EUDI, EUeID, GDPR

Ett av EU:s många problem

13 oktober 2025 av Henrik Alexandersson

När jag jobbade i Europaparlamentet brukade vi skämtsamt säga att först beslutar EU, därefter diskuterar man saken och till slut tar man reda på fakta. It’s funny because it’s true.

EU stressar ofta igenom beslut. Saker som låter bra. Därefter utbryter en yrvaken debatt – när de praktiska konsekvenserna börjar klarna och människor drabbas.

Den debatten lyfter sedan fram fakta och förhållanden som beslutsfattarna antingen inte känt till eller inte brytt sig om. Oönskade och oförutsedda konsekvenser. Unknown unknowns.

Chat Control 2 visar att det faktiskt går att påverka processen, med fakta – om det sker i tid. Men nästan inga direktiv eller förordningar får samma granskning som Chat Control 2 fått. Istället går processen vidare till den punkt där medborgarna ställs inför fullbordat faktum.

Då är det redan för sent. Då drabbas 450 miljoner européer. Då har systemet redan sjösatt saker som drabbar allt från vår tillväxt till vår rätt till privatliv.

Just nu pågår en diskret tillbakarullning av lagstiftning som gått för långt. Senast i raden har vi EU:s Digital Services Act, som nu skall utvärderas. En liknande process pågår på många andra områden.

Utvärderingar i all ära. Men det vore kanske bättre att lägga mer kraft på att göra rätt från början. Att tillämpa kritiskt tänkande och att ta in fakta även i de fall de inte stöder ens tes. Att lyssna på fler röster.

Det handlar alltså inte bara om nätfrågorna, rätten till privatliv och yttrandefriheten. På område efter område klubbar människor som inte alltid förstår vad de sysslar med igenom EU-lagstiftning som inte fungerar i verkligheten.

Det är ett problem.

CC0

Arkiverad under: Aktivism, Demokrati, Digital Services Act, EU

  • « Go to Föregående sida
  • Sida 1
  • Sida 2
  • Sida 3
  • Sida 4
  • Sida 5
  • Interimistiska sidor utelämnas …
  • Sida 19
  • Go to Nästa sida »

Primärt sidofält

Varning för Chat Control!


EUs nya massövervakning är nu farligt nära att bli verklighet. Vi har samlat allt du behöver veta på vår specialsida om Chat Control!

Nyhet: Merch!

Visa ditt stöd för ett fritt internet genom att bära våra kläder – här hittar du vår shop!

Prenumerera på inlägg


Loading

Senaste inlägg

  • EU lägger förslag om åldersgränser online i sommar12 maj 2026
  • Var ett fritt och öppet internet bara en parentes?11 maj 2026
  • Sociala medier är barnens sista fria rum10 maj 2026
  • Åldersgränser för sociala medier – EU mot verkligheten8 maj 2026
  • Europol bryter mot lagen – igen7 maj 2026
  • X: Femtejuli
  • Youtube
  • RSS-flöde

CC BY 4.0 · Logga in

  • Youtube
  • Twitter
  • RSS