• Hoppa till huvudnavigering
  • Hoppa till huvudinnehåll
  • Hoppa till det primära sidofältet

Femte juli

Nätet till folket!

  • Om oss
  • Remissvar

AI

EP-utskott: Nej till biometrisk massövervakning

11 maj 2023 av Henrik Alexandersson

I Europaparlamentet är man skeptisk mot biometrisk massövervakning. Vilket bäddar för konflikt med EU-kommissionen och ministerrådet.

Europaparlamentets utskott för mänskliga rättigheter (LIBE) och den inre marknaden (IMCO) har idag fattat ett par viktiga och intressanta beslut om artificiell intelligens. Eller i vart fall om AI som vi känner den just nu.

• Nej till biometrisk massövervakning

Utskotten vill förbjuda biometrisk massövervakning (till exempel automatiserad ansiktsigenkänning) i realtid på allmän plats; användning av biometrisk analys i efterhand i de flesta fall; automatiserad känsloanalys i polisiära syften, vid gränskontroller, på arbetsplatser och inom utbildning.

Detta går emot EU-kommissionens ursprungliga förslag om att i princip undanta förbud mot biometrisk massövervakning för brottsbekämpande ändamål.

Det finns i sammanhanget skäl att anta att ministerrådet kommer att gå på kommissionens linje.

Om Europaparlamentet röstar i enlighet med utskottens förslag när frågan kommer upp i plenum lär det alltså bli krångliga trilog-förhandlingar med de två andra institutionerna.

• Diskriminering och mänskliga rättigheter

Utskotten säger nej till biometrisk massövervakning – speciellt sådan som kan leda till diskriminering, biometrisk kategorisering, förebyggande brottsbekämpning (”pre crime”) samt masstrålning efter biometrisk data med syfte att upprätta databaser för övervakning.

Utvecklare av AI med hög riskprofil skall genomföra en konsekvensanalys ur ett människorättsperspektiv – som sedan skall publiceras av berörda myndigheter.

Bland annat kan utvecklare av chat bots (som Chat GPT) åläggas ökad transparens.

Man vill även begränsa användningen av AI vad gäller gränskontroller och migration – vilket medlemsstaterna knappast kommer att gå med på.

• Frågetecken

Som synes fokuserar man på biometrisk massövervakning. Samtidigt skall man komma ihåg att LIBEs rapport om Chat Control / CSA Regulation stöder EU-kommissionens förslag om att använda AI för att granska innehållet i alla människors elektroniska meddelanden, i syfte att upptäcka visst olagligt beteende.

Det kan alltså vara värt att notera att användning av AI för massövervakning är en betydligt större fråga än bara biometrisk data.

Precis som när det gäller DSA/DMA utgår den nya lagstiftningen (av naturliga skäl) från dagens teknik och marknad. Vilket kan leda till oväntade konsekvenser i framtiden.

Man bör även hålla i minnet att internet är gränslöst. Lagstiftarna säger sig vilja skapa en världsledande standard som andra ansluter sig till. Men konsekvensen kan lika gärna bli att företagen (och då speciellt start ups) kan komma att etablera sig i andra delar av världen. Vilket är något vi redan ser tecken på med EU:s allt mer omfattande och byråkratiska nätlagstiftning.

Ambitionen i LIBE och IMCO är god. Grundläggande mänskliga rättigheter skall försvaras. Men här finns massor av frågetecken och möjliga oväntade och oönskade konsekvenser. Samt en risk för att lagstiftningen kommer att vara föråldrad redan innan den införs.

Det finns, som sagt, även en överhängande risk för att kommissionen och ministerrådet kommer att köra över parlamentet i denna fråga.

Men, för att avrunda positivt ger vi ordet till den piratpartistiske, tyske ledamoten av Europaparlamentet Patrick Breyer:

“Today’s vote is a historic breakthrough for the movement to prevent a China-style dystopian future of biometric mass surveillance in Europe. There is no evidence whatsoever that this error-prone technology ever found a single terrorist. We will continue to fight against facial surveillance technology in our public spaces, because they wrongfully report large numbers of innocent citizens, systematically discriminate against under-represented groups and have a chilling effect on a free and diverse society. In the upcoming plenary vote, monitoring our behavior in public to report us for allegedly ‘abnormal’ activity needs to be added to the list of bans. This mass surveillance technology, which the French government plans to bring to Europe, chills diversity and pushes us into conformity, which is the opposite of the open society we want to live in.“

• Patrick Breyer (PP, DE) AI Act: Lead committees to ban facial surveillance in Europe »
• EDRi: EU Parliament sends a global message to protect human rights from AI »

Arkiverad under: Dataskydd, EU, Länktips, Övervakning, Privatliv, Rättssäkerhet, Storebror Taggad som: AI, AI Act, ansiktsigenkänning, Europaparlamentet, IMCO, LIBE, mänskliga rättigheter

Heléne Fritzon (S) svamlar om #ChatControl

11 april 2023 av Henrik Alexandersson

Misstanken att våra EU-politiker inte begriper vad de beslutar om stärks.

Heléne Fritzon är socialdemokrat och ledamot av Europaparlamentet. I parlamentets kvinnoutskott – FEMM – är hon ansvarig rapportör för EU-kommissionens förslag om att granska innehållet i folks elektroniska meddelanden, Chat Control.

Fritzon har nu skrivit en debattartikel i Svenska Dagbladet där hon försvarar förslaget. Efter att omsorgsfullt uttryckt sitt engagemang för barnens bästa kommer hon till slut till kärnfrågorna:

»Kritikerna pratar om massövervakning och att all din kommunikation kommer läsas. Det stämmer inte. Det stämmer bara om du delar övergrepps­material på barn.«

Så Heléne Fritzon har uppfunnit en maskin som bara skannar brottsligt material?

Skall man kunna skilja visst innehåll från annat måste man väl rimligen skanna allt innehåll? Hur skall man annars kunna veta vilket som är brottsligt?

Inspektionen är tänkt ske med maskiner som inte bara skall identifiera känt olagligt material, utan även tidigare okänt dito. Och för att kunna göra det måste alla bilder som sänds (och lagras på molntjänster) analyseras.

Dessutom har man tänkt använda AI för att kontrollera innehållet i våra text- och röstkommunikationer, så att vi inte kommunicerar med minderåriga på ett otillbörligt sätt. Vilket är tekniskt outforskad mark, om alls möjligt.

När dessa verktyg sedan finns på plats, då kan Chat Control lätt utökas till syfte och omfattning. Ändamålsglidning, som det alltid blir med övervakningslagar.

Vad kan möjligen gå fel?

Fritzon:

»För att ett företag överhuvudtaget ska få genomföra en spårning efter övergrepps­material måste det finnas bevis för att det finns en betydande risk för att tjänsten används i detta syfte.«

Vad menas då med ”betydande risk”? Jo, till exempel att tjänsten gör det möjligt för användare att kontakta andra användare direkt… Tjänstens själva grundfunktion definieras således som en tillräcklig risk.

Som förslaget är skrivet kan jag inte se något annat än att i princip alla meddelandetjänster kommer att omfattas.

Fritzon:

»(…) Flera instanser gör bedömningar, en domstol ska utfärda beslutet och tillvägagångs­sättet för spårningen är begränsat.«

Detta börjar bli absurt. Heléne Fritzon upprepar ett påstående från EU-kommissionär Ylva Johansson som gång på gång påvisats vara fel.

Det finns inget krav i förslaget på att det behöver vara en domstol som fattar beslut om övervakningen. Ändå upprepar både Johansson och Fritzon envist detta felaktiga påstående gång på gång.

Men vad gäller kärnfrågor som inskränkningen av de mänskliga rättigheterna och rätten till krypterad, säker kommunikation har Fritzon inget att säga alls. Av lätt insedda skäl.

Jag är inte helt övertygad om att våra EU-politiker begriper vad de är på väg att ställa till med.

Låt mig avsluta med ett citat om den saken från Matthew Green som är professor i kryptografi vid Johns Hopkins University och en av världens främsta datasäkerhetsexperter:

»What concerns me is that the Commission does not appear to have a strong grasp on the technical implications of their proposal, and they do not seem to have considered how it will harm the security of our global communications systems.«

Läs mer:
• Allt du behöver veta om #ChatControl – resurser, analyser och länkar »
• ChatControl – Ylva Johansson säger orimliga saker, del 1 »
• ChatControl – Ylva Johansson säger orimliga saker, del 2 »
• Chat Control: Ylva Johanssons okunskap får internationell uppmärksamhet »

Lagstiftningsdokument:
• Kommissionens förslag »
• Legislative Observatory »

Relaterade länkar:
• Stop Scanning Me »
• ChatControl.eu »

• ChatControl – granskning av EU-kommissionens förslag
• EU-kommissionen: Övervakning är viktigare än mänskliga rättigheter »
• Why chat control is so dangerous »
• PP: EU-kommissionär Ylva Johansson ljuger om #ChatControl »
• ChatControl – nu är det skarpt läge i EU, men regeringen vill inte tala om saken »
• UN Human Rights Commissioner warns against chat control »

• Regeringen föreslår 18-årsgräns för meddelande-appar
• ChatControl – detta händer i ministerrådet »

• EU:s ministerråd vill kontrollera allt du gör på nätet
• ChatControl: EU-kommissionen duckar alla jobbiga frågor »
• Granskning: Lobbykampanjen för #ChatControl »

TL;DR:
• ChatControl / CSA Regulation – enkelt förklarad »

• Chat Control – på djupet

Youtube » | Soundcloud »

• EU: Övervakning är viktigare än mänskliga rättigheter

Youtube » | Soundcloud »

Arkiverad under: Dataskydd, EU, Kryptering, Länktips, Övervakning, Privatliv, Storebror Taggad som: AI, ChatControl, CSAR, mänskliga rättigheter

AI sågar AI-stödd massövervakning

3 januari 2023 av Henrik Alexandersson

Vad tycker en AI-chat om massövervakning i allmänhet och AI-stödd massövervakning i synnerhet? Varför bryr sig inte folk om övervakningsstaten och vad kan man göra åt det? Vi frågade ChatGPT, som även fick skriva en dikt om betydelsen av rätten till privatliv.

AI-verktyg som ChatGPT är intressanta, även om man inte ser dem som självständigt tänkande. Enkelt uttryckt styrs de av de texter de tränats på och av de människor som givit systemet feedback. Därför kan de vara intressanta för att sammanställa information från ett större fält, speciellt om de tränats på stora textvolymer.

Dessutom skall man vara medveten om att hur man ställer frågan påverkar svaret.

Så här kommer ett experiment. Vad har ChatGPT att säga om massövervakning och om AI-stödd dito? Med reservation för att våra frågor kan vara en smula ledande.

• Till att börja med gav vi ChatGPT i uppgift att sammanställa fem starka argument mot massövervakning. (Svaren är översatta och förkortade av oss.)

  1. Massövervakning strider mot rätten till privatliv, som i sin tur är en mänsklig rättighet.
  2. Massövervakning kan leda till maktmissbruk, utpressning, hot och diskriminering.
  3. Massövervakning har en avkylande effekt på yttrandefriheten, speciellt om åsikterna i fråga är impopulära eller kontroversiella.
  4. Massövervakning är ofta ineffektiv. Ofta är riktad övervakning bättre på att bekämpa brottslighet.
  5. Massövervakning är kostsam. Detta drabbar skattebetalarna och pengarna skulle kunna användas bättre.

• Ge oss nu fem starka skäl för massövervakning.

  1. Massövervakning kan hindra terrorism och annan brottslighet. Genom att sama in stora mängder data kan myndigheterna identifiera mönster och trender som kan identifiera och förebygga brottslighet.
  2. Massövervakning kan bidra till stärkt nationell säkerhet.
  3. Massövervakning kan bidra till att öka allmän säkerhet, till exempel genom att övervaka sociala media och andra kommunikationskanaler i realtid.
  4. Massövervakning kan användas för att fånga och åtala brottslingar samt förse myndigheterna med bevis som kan användas i domstol.
  5. Massövervakning kan rättfärdigas i vissa fall som till exempel när det gäller nationell eller allmän säkerhet. I dessa fall måste fördelarna vara större än de negativa konsekvenserna.

• EU:s nya AI Act reglerar AI på många sätt, men gör ett svepande undantag för statens egen användning för övervakning. Så vi frågade vilka riskerna är med AI-stödd massövervakning.

  1. Det finns en risk för att data och algoritmer blir partiska, beroende på vilken data de tränats på och hur de utvecklats.
  2. Bristande transparens – vilket leder till att det blir svårt att förstå hur de fattar beslut och att hålla någon ansvarig. Detta gör det även svårare att identifiera och hantera problem och fel i systemen.
  3. Missbruk och maktövergrepp. Till exempel kan myndigheter frestas att fokusera på grupper eller individer baserat på deras politiska uppfattning eller andra särskiljande drag.
  4. Förlorat privatliv, då AI stödd massövervakning kan analysera och tolka data på ett mer avancerat sätt än vad människor förmår. Detta kan leda till profilering och spårning av folks aktiviteter på ett aldrig tidigare skådat sätt.
  5. Lagliga och etiska problem – till exempel vad gäller balansen mellan säkerhet och privatliv.

• Intressant. Låt oss nu fråga varför människor inte tycks intressera sig för eller oroas över massövervakningen.

  1. Bristande medvetenhet om vad som sker, vilket i sin tur leder till att folk får svårt att förstå massövervakningens konsekvenser.
  2. Bristande förståelse även bland dem som är medvetna om massövervakningen, vilket gör att de inte förstår frågans allvar.
  3. Frikoppling från konsekvenser. Människor som inte känner sig personligt påverkade förstår inte vilken skada som kan uppkomma.
  4. Tro på auktoriteter. Många litar på att myndigheterna kommer att använda systemen på ett ansvarsfullt sätt och ser därför inte riskerna.
  5. Apati. Många bryr sig inte, har andra prioriteringar eller tror att de ändå inte kan göra något åt situationen.

• Hur får man då folk intresserade av kampen mot massövervakningen?

  1. Utbilda allmänheten.
  2. Understryk de negativa personliga konsekvenserna.
  3. Använd exempel och anekdoter.
  4. Betona de kollektiva konsekvenserna som minskat förtroende för myndigheterna, underminerad demokrati och maktmissbruk.
  5. Engagera er i media och använd sociala media.

• Finns det då några bättre alternativ till massövervakning?

  1. Riktad spaning mot grupper och personer som är misstänkta för brottslig verksamhet istället för mot hela befolkningen.
  2. Underrättelse-styrd spaning som inkluderar såväl traditionellt polisarbete som moderna metoder (som data-analys) – syftande till att förhindra brott innan de begås.
  3. Stärkt lagskydd för privatliv, ökad transparens och ansvarsutkrävande, främjande av kryptering och annan teknik som stärker rätten till privatliv (och privat korrespondens).

Visst, som man frågar får man svar. Men det är ändå rätt imponerande. Om inte annat som sökmotor för att samla information och argument om ett visst ämne. Med reservation för vilken information den tränats på, hur det skett och vem som styrt processen.

Det kan bli intressant om vi så småningom får AI-sytem baserad på större informationsmängder, kanske rent av hela internet. Tro inte annat än att Google jobbar på den saken.

Vad gäller poesi finns dock en del övrigt att önska vad gäller litterär verkshöjd – även om det inte går att invända mot innehållet i sak.

• ”Write an original poem about privacy.”

Privacy, a right
So often taken for granted
But oh so vital

In this age of technology
Where screens and cameras reign supreme
Privacy is threatened

But without it, we lose
A piece of ourselves, a sanctuary
In which to be alone

So let us fight for it
This right to be unseen, unknown
Privacy must be protected

Arkiverad under: Nätkultur, Övervakning, Privatliv, Rättssäkerhet, Spaning, Storebror Taggad som: AI, AI Act, ChatGPT

Och nu – biometrisk massövervakning

8 november 2022 av Henrik Alexandersson

Vi närmar oss en punkt där vi inte bara skall kameraövervakas på offentlig plats – utan även identifieras och få vårt beteende analyserat i realtid, av massövervakningens algoritmer.

Artificiell Intelligens (AI) är det senaste EU vill reglera. Något slutligt förslag finns inte ännu, men väl ett läckt arbetsdokument (PDF).

Den nya förordningen täcker väldigt mycket – men tycks göra undantag när det gäller övervakning. Vilket öppnar för en del dystopiska perspektiv.

Idag används AI bland annat för system med biometrisk identifiering. Vilket blivit en stridsfråga.

Sådan kan i sin tur delas upp i flera delar. I sin enklaste form kan det handla om kontroll av till exempel fingeravtryck, ansiktsform eller iris när man passerar EU:s yttre gräns. Eller för att fastställa en persons identitet vid andra tillfällen.

(Ett sådant system användes av de västliga styrkorna i Afghanistan. Tyvärr tycks det ha fallit i talibanernas händer, med potentiellt katastrofala konsekvenser för enskilda.)

Även om man kan tycka att det är rationellt att använda biometriska data för identifiering vid en viss säkerhetspunkt (som en gräns) – så kan systemet även användas för massövervakning. Till exempel genom att identifiera alla som passerar en viss knutpunkt. (Och spara biometrisk data om dem man ej lyckas identifiera.)

Då är man plötsligt inne på att massövervaka människor som inte misstänks för något brott – utan bara för att de rört sig på allmän plats. Vilket inte är OK. Det strider mot människans rätt till privatliv.

Sedan har vi användning av automatiserad ansiktsigenkänning för att identifiera personer på exempelvis en övervakningsfilm från en plats där ett brott de facto begåtts. Vilket är mindre problematiskt.

Dock har det visat sig finnas risker med att endast granska övervakningsvideos med maskiner. I jakt på ett ansikte kan det vara lätt hänt att algoritmen missar andra detaljer och händelser som är relevanta i sammanhanget.

Den tredje delen är automatiserad ansiktsigenkänning i realtid, med livefeed från övervakningskameror. När man sedan identifierat en person kan det kopplas direkt till olika databaser med information om personen i fråga.

EU har under årtionden finansierat utvecklingen av sådana system (gm. INDECT) – trots varningar och protester. Och nu tycks dystopin vara fullbordad.

Som vanligt är det en fråga om hur systemet används. För att till exempel skugga en misstänkt brottsling eller för att avvärja konkret fara kan det kanske vara försvarligt. Men finns det någon som tror att det stannar där?

Det finns även add-ons (vilka också finansierats av EU) som att koppla ljudupptagning med akustisk analys till systemen ovan. Ett annat exempel är automatiserad beteendeanalys för att upptäcka avvikande beteende.

Blotta vetskapen om att man är ständigt observerad, identifierad och att ens handlingar i varje stund analyseras av maskiner kommer att påverka människor och deras psykiska hälsa.

Detta för att inte nämna problemet med falska positiva. Även i ett system med orealistiska 99,9% träffsäkerhet kommer tusentals och åter tusentals människor att flaggas med fel identitet eller för helt oskyldigt avvikande beteende. Vilket kan få allvarliga konsekvenser.

Som vanligt tycks det finnas en övertro på teknisk övervakning, där polisen sitter vid en skärm istället för att patrullera gatorna och ägna sig åt traditionellt polisarbete. Vilket kan komma att straffa sig genom att i slutändan göra oss alla mindre säkra.

• EU governments open the door for biometric mass surveillance in public spaces »

Arkiverad under: EU, Forskning, Övervakning, Privatliv, Säkerhet, Storebror Taggad som: AI, Indect

Europol brainstormar om att knäcka krypterade kommunikationer

7 oktober 2022 av Henrik Alexandersson

Myndigheternas krig mot krypterad information fortsätter. Samtidigt vill EU:s ministerråd begränsa insynen i hur polisen använder artificiell intelligens i sitt arbete.

Bakdörrar, superdatorer och samarbete med internetoperatörer var några av de idéer som diskuterades när EU:s olika polis- och säkerhetsorgan nyligen brainstormade hur man kan gå vidare för att knäcka krypterade kommunikationer.

Detta skedde på en konferens med EU Innovation Hub for Internal Security som hölls förra månaden, enligt Statewatch som har utskrifter av vad som diskuterades.

Särskilt uppseendeväckande är att man öppnar för att hålla säkerhetsluckor i vår IT-infrastruktur öppna istället för att anmäla dem – för att själva kunna utnyttja dessa för övervakning.

Men sådana säkerhetsluckor kan även användas av andra, till exempel kriminella och främmande makt. Vilket gör oss alla mindre säkra.

Statewatch rapporterar:

»At a recent event hosted by Europol’s Innovation Hub, participants discussed questions relating to encrypted data and the ability of law enforcement authorities to access digital information. One issue raised was a possible ”EU Vulnerability Management Policy for Internal Security,” which could allow for ”temporary retention of vulnerabilities and their exploitation by the relevant authorities.” In effect, this would mean identifying weaknesses in software and, rather than informing the software developers of the problem, exploiting it for law enforcement purposes.«

EU Innovation Hub for Internal Security består av nio olika EU-myndigheter och organ som på olika sätt arbetar med polisiära och säkerhetsrelaterade frågor. Spindeln i nätet är EU:s polismyndighet Europol. Såväl EU-kommissionen som ministerrådet är medlemmar – men inte Europaparlamentet.

I övrigt diskuterade man även hur artificiell intelligens (AI) kan användas i polisiärt arbete samt vad man kan göra för att komma åt elektroniska kommunikationer i 5G-nätet (vilket tydligen är oväntat krångligt).

Intressant nog vill EU:s ministerråd begränsa transparensen vad gäller hur polisiära myndigheter använder AI i sitt arbete. Statewatch skriver:

»The Czech Presidency of the Council has inserted new provisions into the proposed AI Act that would make it possible to greatly limit the transparency obligations placed on law enforcement authorities using ”artificial intelligence” technologies. A new ”specific carve-out for sensitive operational data” has been added to a number of articles. If the provisions survive the negotiations, the question then becomes: what exactly counts as ”sensitive operational data”? And does the carve-out concern just the data itself, or the algorithms and systems it feeds as well?«

Detta är ytterligare en het fråga som lär hamna på det svenska EU-ordförandeskapets bord efter årsskiftet.

Läs mer:
• Statewatch: EU: Discussion on encryption ponders ”retention of vulnerabilities and exploitation by the authorities” »
• ”Wicked problem”: Europol considers vulnerability exploitation to break encryption »
• Statewatch: EU: AI Act: Council Presidency seeks more secrecy over police use of AI technology »

Arkiverad under: EU, Hemlig dataavläsning, Kryptering, Länktips, Övervakning, Privatliv, Säkerhet, Storebror Taggad som: AI

Faran med dåliga AI-system i statens tjänst

13 april 2022 av Henrik Alexandersson

Myndigheters användning av AI för kontroll av medborgarna har redan fått förfärande konsekvenser. Nu vill EU:s franska ordförandeskap utöka användningen.

I Nederländerna använde skattemyndigheten en dålig självlärande algoritm för att komma till rätta med bidragsfusk bland barnfamiljer. Resultatet blev katastrofalt.

Tiotusentals oskyldiga familjer drabbades av stora återbetalningskrav, som ödelade deras ekonomier. Människor begick självmord. Tusentals barn togs ifrån sina familjer.

Nu har skattemyndigheten dömts till 3,7 miljoner euro i böter. Regeringen tvingades avgå. Och tiotusentals människor har fått sina liv ödelagda.

Det kan hända igen – Frankrike driver på.

Detta kan vara bra att känna till när EU nu är på väg att sjösätta sin AI Act. Hittills har man varit försiktig vad gäller att använda AI för brottsbekämpning, just på grund av att det ibland kan gå fruktansvärt fel.

Nu flaggar det franska EU-ordförandeskapet för en kursändring som leder till ökad användning av AI bland de rättsvårdande myndigheterna. Speciellt gäller detta polisens användning av biometrisk data.

Vilket i sin tur ligger helt i linje med EU:s långsiktiga ekonomiska stöd till system som samkör bland annat kameraövervakning med ansiktsigenkänning i realtid, övrig biometrisk data, AI-baserad beteendeanalys samt myndigheternas existerande och nya register. Redan för tio år sedan varnades för konsekvenserna av detta.

Inget datasystem är bättre än hur det utformas. Och självlärande AI-system tycks tendera att förvärra ogenomtänkt input över tid.

Som vanligt är det den som är oskyldig som har mest att frukta.

Länkar:
• Dutch scandal serves as a warning for Europe over risks of using algorithms »
• EU: AI Act: Plans to loosen controls on law enforcement use of artificial intelligence »

• Civil society calls on the EU to ban predictive AI systems in policing and criminal justice in the AI Act »

Arkiverad under: Dataskydd, EU, Länktips, Övervakning, Rättssäkerhet, Storebror Taggad som: AI, AI Act, Frankrike, Indect

Uppladdningsfilter, datalagring, statligt godkända nätgranskare, av-kryptering och granskning av meddelanden och e-post på höstens politiska dagordning

18 augusti 2021 av Henrik Alexandersson

Sommarlovet är över och det är dags att se över vilka nät-, yttrandefrihets- och övervakningsfrågor som finns på den politiska dagordningen i höst.

Sverige

  • Redan i somras skulle EU:s nya upphovsrättsdirektiv ha varit svensk lag. Någon remiss eller proposition har dock inte synts till. Delvis kan det bero på att EU-kommissionen dragit benen efter sig i den kontroversiella frågan om uppladdningsfilter. En annan sak att hålla ögonen på är hur direktivets absurda länkskatt är tänkt att implementeras i svensk lag.
  • Efter att EU-domstolen meddelat att den svenska lagen om datalagring måste skrivas om har regeringen tillsatt en utredning. Visserligen skall utredningen presenteras först våren 2023, men det är viktigt att hålla frågan levande – och då inte minst det faktum att den svenska datalagringen fortfarande kolliderar med domstolens nej till svepande lagring av data om alla medborgares alla tele- och datakommunikationer utan misstanke om brott.

EU

  • EU:s nya Digital Services Act (DSA) föreslår så kallade Trusted Flaggers – som är tänkta att vara organisationer som är statligt godkända nätgranskare, med direktlinje till sociala medias abuse-avdelningar.
  • Det finns krafter i både Europaparlamentet och ministerrådet som vill att DSA också skall innehålla allmänna uppladdningsfilter.
  • EU:s ministerråd vill i ett inspel kopplat till DSA att inte bara olagligt material skall plockas bort på nätet. Man vill även att icke olagligt hat och hot skall bort, vilket i så fall innebär att yttrandefrihetens gränser inte längre sätts av lag.
  • Under hösten väntas dom i EU-domstolen, där Polen överklagat artikel 17 i det nya upphovsrättsdirektivet, som kommer att leda till automatiska uppladdningsfilter. Domstolens generaladvokat ger (med vissa förbehåll) grönt ljus till artikel 17, men det händer emellanåt att domstolen går på en annan linje än dennes rekommendationer.
  • ChatControl 2.0 är uppföljningen till beslutet att ge meddelande- och e-post-tjänster möjlighet att av-kryptera och granska användarnas kommunikationer i jakt på sexuellt utnyttjande av barn. Under vintern kommer nästa steg, som förvänts göra detta obligatoriskt.
  • Kopplat till detta har EU presenterat ett diskussionspapper där man överväger att använda den metod som Apple valt (i vart fall i USA) för att komma åt bilder och sexuella övergrepp på barn. Det vill säga att kringgå kryptering genom att med något slags spionprogram granska bilder och meddelanden redan på användarens telefon. Vilket är ett av flera olika förslag man skissar på.
  • EU-kommissionen och ministerrådet överväger hur de skall kunna komma runt EU-domstolens nej till urskiljningslös datalagring utan misstanke om brott.
  • EU-kommissionen har föreslagit European Digital Identity Wallets, som är tänkta att användas för ID, pass, licenser, körkort, kollektivtrafikkort, sjukvårdsinformation, recept, inloggning på nätplttformar, betalningmedel med mera. Vilket kan öppna för ett omfattande övervakningssamhälle i vilket vi får blippa oss fram.
  • Europaparlamentets utskott för medborgerliga fri- och rättigheter samt rättsliga och inrikes frågor (LIBE) har sagt nej till till AI och biometrisk analys för massövervakning. Delar av minsterrådet och då speciellt Frankrike vill gå åt andra hållet och använda dessa verktyg.
  • I EU-kommissionens Code of Practice on Disinformation vill man att nätplattformarna i högre utsträckning skall av-monetarisera oönskat innehåll.
  • EU-kommissionen vill förbjuda anonyma betalningar med kryptovalutor och kontantbetalningar på över 10.000 euro.
  • Det pågår en diskussion (framförallt i ministerrådet) om att utöka registreringen av våra flygresor (PNR) till att även gälla tågresor, båtresor, bilhyra och hotellövernattningar.

Detta är bara ett urval av sådant som är på gång i svensk och europeisk politik under hösten. Det händer också att nya frågor dyker upp väldigt plötsligt.

Vi bevakar dessa och fler frågor. Du följer utvecklingen här på bloggen.

Arkiverad under: Censur, Datalagring, Digital Services Act, EU, Kryptering, Kryptovaluta, Länktips, Övervakning, Privatliv, Rättssäkerhet, Storebror, Sverige, Upphovsrätt, Uppladdningsfilter, Yttrandefrihet Taggad som: AI, ansiktsigenkänning, biometrisk information, ChatControl, EU-domstolen, länkskatt, PNR, regeringen, Trusted Flaggers

EP/LIBE: Nej till AI och biometrisk analys för massövervakning

30 juni 2021 av Henrik Alexandersson

I Europaparlamentet har utskottet för medborgerliga fri- och rättigheter samt rättsliga och inrikes frågor (LIBE) antagit en rapport om AI och biometrisk massövervakning. MEP Patrick Breyer (PP, DE) skriver på sin blogg:

»Today, the Committee on Civil Liberties, Justice and Home Affairs (LIBE) adopted a report on the use of artificial intelligence by police and judiciary by 36 votes to 24 with 6 abstentions. The successful compromise text calls, among other things, on the Commission „to implement, through legislative and non-legislative means, and if necessary infringement proceedings, a ban on any processing of biometric data, including facial images, for law enforcement purposes that leads to mass surveillance in publicly accessible spaces” (paragraph 15b). MEPs also call on the Commission to stop funding biometric research that is likely to lead to indiscriminate mass surveillance in public spaces.«

Detta innebär att AI-baserad teknik för analys av biometrisk data (som till exempel automatiserad ansiktsigenkänning) inte får användas för massövervakning. Däremot får den användas för att söka specifika mål, till exempel från övervakningsfilmer från en brottsplats. Man håller således fast vid principen om att det skall finnas en misstanke eller ett konkret brott innan man får använda dessa verktyg.

Breyer kommenterar:

»This report is a milestone in the fight against biometric mass surveillance in Europe, because for the first time a majority in the European Parliament wants to put an end to this total form of surveillance. Biometric and mass surveillance and behavioral prediction technology in our public spaces undermines our freedoms and threatens our open society.«

Detta är en rapport, inte lagstiftning. Och det återstår att se hur Europaparlamentet kommer att rösta i plenum.

Arkiverad under: EU, Länktips, Övervakning, Storebror Taggad som: AI, ansiktsigenkänning, Europaparlamentet, LIBE

17 områden där EU vill bygga ut övervakning, kontroll och censur

7 maj 2021 av Henrik Alexandersson

Massor av internet-och IT-relaterad lagstiftning har redan klubbats eller är på väg genom EU-apparaten. Det är så mycket att det blir svårt att få en överblick. Låt oss därför ge en ögonblicksbild av vad som är att vänta under den innevarande europeiska mandatperioden (2019-24).

Artificiell Intelligens: EU uppmanar visserligen till försiktighet vad gäller användning av AI för övervakning – men öppnar samtidigt för en lång rad undantag där AI ändå kan användas för övervakning från myndigheternas sida.

ChatControl: Meddelanden och e-post skall av-krypteras för att kontrollera om det förekommer sexuellt utnyttjande av minderåriga. Detta kan lätt utökas till andra syften.

Code of Conduct on countering illegal hate speech online: EU-kommissionär Ylva Johansson har flaggat för att en ny EU-gemensam uppförandekod skall sättas upp vad gäller hat och hot på nätet.

Corona-pass: EU vill se en gemensam app för att möjliggöra en återgång till normalt liv för vaccinerade, testade och personer med antikroppar. Detta öppnar även nya möjligheter för övervakning.

Datalagring: Ett nytt datalagringsdirektiv är på väg. Tanken är att lagra data om alla medborgares alla tele- och datakommunikationer för att kunna kontrollera vem som har kontakt med vem, var folk befunnit sig och när de har varit uppkopplade. Frankrike vill ändra EU:s fördrag och stadgan om de mänskliga rättigheterna för att EU-domstolen inte skall kunna stoppa direktivet.

eBevis: Polisiära myndigheter i alla EU:s medlemsstater kommer att kunna begära ut uppgifter om användare samt kommunikationsdata och lagrad information från till exempel en internetoperatör, social plattform eller app-tjänst i vilket medlemsland som helst.

EU-ID: Ett elektroniskt EU-ID finns på EU-kommissionens önskelista. Vilket i princip kommer att göra det omöjligt att vara anonym på nätet.

European Democracy Action Plan: Syftet är bland annat att bekämpa hat och desinformation online. Vilket alltid brukar landa i kontroversiella frågor om var gränsen går och vem som skall bestämma vad som är rätt och sant.

Europol: Den europeiska polismyndigheten arbetar intensivt för att knäcka krypterade kommunikationer. Man har flaggat för att man vill ha direkt tillgång till information hos privata aktörer (som till exempel internetoperatörer). Europol håller även på att utöka sitt mandat till att bekämpa desinformation.

Interconnected bank account registers: Den hårt kritiserade och misskötta överföringen av europeisk bankdata för analys hos amerikanska säkerhetsmyndigheter är tänkt att ersättas av ett centralt EU-register – för att lagra och analysera data om alla finansiella transaktioner inom det europeiska banksystemet.

Länkskatt: EU:s nya upphovsrättdirektiv kommer att leda till att det blir enklast för sociala media att sluta avtal med de stora mediehusen – på små, nya och alternativa medias bekostnad.

Patientjournaler: EU-kommissionen vill se ett heltäckande, centraliserat europeiskt system för medicinska journaler.

PNR: EU-kommissionen och ministerrådet vill utöka registreringen av våra resor (och om detaljer kring dessa). Detta gäller redan för flygresor, men man diskuterar att utöka registreringen till att även gälla hyrbilar, tågresor, båtresor och hotellövernattningar.

ROXANNE: Ett EU-finansierat projekt för röstigenkänning,

TERREG: Förordningen om terror-relaterat innehåll online innebär censur av åsikter online. Notera att det handlar om åsikter som inte nödvändigtvis är olagliga. Detta kan enkelt utvidgas till andra syften. TERREG kommer även att tvinga fram användning av uppladdningsfilter. Förordningen säger också att flaggat material skall plockas ner inom en timma (utan föregående rättslig prövning) och öppnar för att myndigheter i ett EU-land kan beordra nedtagning av innehåll på servrar i andra medlemsstater.

Trusted flaggers: EU:s nya Digital Services Act kommer att ge oss statligt godkända innehållsgranskare på nätet – vars anmälningar skall prioriteras av nätplattformarna.

Uppladdningsfilter: Allt som alla laddar upp kommer att inspekteras, analyseras och i förekommande fall censureras. Detta för att stoppa upphovsrättsskyddat material och terror-relaterad information. Dessa syften kan enkelt komma att utvidgas. Vissa EU-länder vill även se uppladdningsfilter som ett allmänt verktyg inom the Digital Services Act.

Detta är bara en del av allt som är på gång när det gäller internet, IT, övervakning och kontroll i EU. Nya förslag tillkommer hela tiden. Men vi tycker att det är viktigt att man inte bara gräver ner sig i enskilda förslag, utan även ser till den större bilden. Och sammantaget är det ingen tvekan om att EU är på väg att utvecklas till en kontroll- och övervakningsstat, som även begränsar det fria ordet online.

Arkiverad under: Censur, Datalagring, Digital Services Act, EU, Kryptering, Övervakning, Privatliv, Rättssäkerhet, Sociala media, Storebror, Upphovsrätt, Uppladdningsfilter, Webben, Yttrandefrihet Taggad som: AI, anonymitet, ChatControl, desinformation, eBevis, Europol, länkskatt, PNR, TERREG

Kritiska röster om EU:s nya regelverk för AI

22 april 2021 av Henrik Alexandersson

I går presenterade EU-kommissionen sitt »Proposal for a Regulation on a European approach for Artificial Intelligence«.

Som vi tidigare rapporterat – utifrån läckt material  – vill EU-kommissionen ha ett förbud mot användning av AI för övervakning. Detta gäller speciellt övervakning kopplad till kameraövervakning med ansiktsigenkänning i realtid. Dock är detta inget heltäckande förbud, utan innehåller ett antal undantag och brasklappar.

Nu börjar reaktionerna på förslaget droppa in. Sarah Chander, Senior Policy Lead on AI hos European Digital Rights (EDRi) säger:

»Whilst it is positive that the Commission acknowledges that some uses of AI are simply unacceptable and need to be prohibited, the draft law does not prohibit the full extent of unacceptable uses of AI and in particular all forms of biometric mass surveillance. This leaves a worrying gap for discriminatory and surveillance technologies used by governments and companies. The regulation allows too wide a scope for self-regulation by companies profiting from AI. People, not companies need to be the centre of this regulation.«

Lotte Houwing, från nederländska Bits of Freedom:

»Biometric mass surveillance reduces our bodies to walking barcodes with the intention of judging the links between our data, physical appearance and our intentions. We should protect this sensitive data because we only have one face, which we cannot swap or leave at home. Once we give up this data we will have lost all control.«

ZDNet rapporterar:

»For Nick Holliman, professor at Newcastle University’s school of computing, the vagueness of the EU’s new rules reflect a lack of understanding of a technology that takes on many different shapes. ”There are risks of harm from not regulating AI systems, especially in high-risk areas, but the nature of the field is such that regulations are being drafted onto a moving target,” Holliman tells ZDNet.

In practice, says Holliman, the regulation seems unworkable, or designed to be defined in detail through case law – and the very idea of having to worry about this type of overhead is likely to drive many businesses away.«

Ytterligare ett citat från samma källa:

»”The EU has wider issues to do with the tech ecosystem: it’s very bureaucratic, it’s hard to get funding, it’s a top-down mentality,” Wolfgang Fengler, lead economist in trade and competitiveness at the World Bank, tells ZDNet. ”The challenge is that these new rules can be seen as business-unfriendly – and I’m not talking for Google, but for small startups operating in the EU.”«

Den tjeckiske ledamoten av Euopaparlamentet, piratpartisten Marcel Kolaja säger:

»The Commission’s plan on AI still leaves some loopholes. Even though the Commission pretends that practices such as biometric identification are banned, in reality, wide exemptions still remain. But these practices could easily be exploited by governments and lead to mass surveillance. And that is unacceptable for us. We have to set clear rules for AI that will protect the freedom of our citizens and will not discriminate against anyone of them. Once the proposal comes to “our table” in the Parliament, I will work to bring the necessary adjustments to the regulation.«

Man kan även notera att förslaget belyser ett problem med hela EU:s beslutsprocess. Med en reglering för hela EU, införd uppifrån, riskerar man att skapa single points of failure. Vilket kan ställas i kontrast mot om olika länder utformar sin egen politik och med tiden lär sig av varandras erfarenheter.

Och det är lite som med EU:s Digital Services Act – man sätter upp ett stelt regelverk för något som ständigt genomgår en dynamisk förändring.

Resurser:
• EDRi: Artificial Intelligence and Fundamental Rights: Document Pool »

Arkiverad under: Citat, EU, Övervakning, Storebror Taggad som: AI, artificiell intelligens

  • « Go to Föregående sida
  • Sida 1
  • Sida 2
  • Sida 3
  • Go to Nästa sida »

Primärt sidofält

Nätfrihet och integritet!

Femte juli är en nätpolitisk nyhetssajt som står på internetanvändarnas sida. Läs mer.

Nyhet: Merch!

Visa ditt stöd för ett fritt internet genom att bära våra kläder – här hittar du vår shop!

Prenumerera på inlägg


Loading

Senaste inlägg

  • EU:s nätcensur hör inte hemma i en rättsstat24 februari 2026
  • ID-krav för din telefon och dator23 februari 2026
  • UK: Åldersgräns för VPN, del 220 februari 2026
  • Digital Networks Act – mer politisk makt över internet19 februari 2026
  • Till X försvar17 februari 2026
  • X: Femtejuli
  • Youtube
  • Soundcloud: 5july
  • RSS-flöde

CC BY 4.0 · Logga in

  • Youtube
  • Twitter
  • RSS