• Hoppa till huvudnavigering
  • Hoppa till huvudinnehåll
  • Hoppa till det primära sidofältet

Femte juli

Nätet till folket!

  • Om oss
  • Remissvar

AI

EU ångrar GDPR och sin nya AI Act

9 april 2025 av Henrik Alexandersson

EU-kommissionen ångrar nu delar av GDPR och sin nya AI-lagstiftning: Satsar 20 miljarder euro på att kompensera med AI Gigafactories och nya datacenter.

När jag arbetade i Europaparlamentet brukade vi säga att först beslutar EU, sedan debatterar man saken och därefter tar man reda på fakta. It’s funny because it’s true.

Man kan också notera att dåliga EU-förslag nästan aldrig går i papperskorgen. Istället kompromissar man tills man kommer fram till något otympligt som alla kan bli missnöjda med. Mycket talar för att Chat Control 2 kommer att bli ett exempel på detta.

Med de bästa och vackraste ambitioner ger man sig in i projekt, skriver omfattande och detaljerad lagstiftning och hinner som regel ställa till problem ute i verkligheten och näringslivet innan man inser att man kanske gått för långt. Då backar man. När skadan redan är skedd.

EU:s dataskyddsförordning, GDPR, är ett exempel. Grundprincipen att människor skall ha makten över sin egen persondata är vacker och bra på så många sätt. Men lagstiftningen har lett till tunga regelbördor och kostsam byråkrati (10-20 miljarder euro/år enligt Accenture), i delar till liten eller ingen nytta i sak. Och till en väldig massa cookie-banners.

Så nu backar EU-kommissionen. Politico rapporterar:

»The European Commission plans to present a proposal to cut back the General Data Protection Regulation, or GDPR for short, in the next couple of weeks. Slashing regulation is a key focus for Commission President Ursula von der Leyen, as part of an attempt to make businesses in Europe more competitive with rivals in the United States, China and elsewhere.«

Jag såg på nära håll när GDPR förhandlades fram och kunde redan då säga att man skapade ett byråkratiskt monster – som ständigt växte under processens gång. Utan att nödvändigtvis tillföra mer substans i kärnfrågan, persondataskyddet.

(En paradox i sammanhanget är att EU med ena handen försökt stärka persondataskyddet i kommersiella sammanhang – och med andra handen ständigt försöker försvaga medborgarnas konventionsskyddade rätt till privatliv och privat korrespondens gentemot staten.)

Ett annat exempel är EU:s nya AI Act, som i delar också är ett exempel på överreglering, detaljstyrning och byråkrati. Även där inser man nu att man skapat något som kommer att skada europeisk AI-industri, i den mån någon sådan existerar. Politico rapporterar:

»The EU executive will launch a new ”AI Continent” plan on Wednesday. According to an undated draft of the plan obtained by POLITICO, the executive wants to ”streamline” rules and get rid of ”obstacles” that it feels are slowing companies in Europe down in competing with the U.S. and China.«

Vilket är så dags nu när man redan etablerat ett omfattande regelverk – som företagen tvingats anpassa sig till. Eller som drivit nyetableringar till andra delar av världen.

Så nu överkompenserar man. EU-kommissionen vill inte bara förenkla de regler som man ägnat sju år av sammanträden åt ta ta fram. Enligt uppgifter i media lovar ordförande von der Leyen att satsa 20 miljarder euro av skattebetalarnas pengar på fem nya »AI Gigafactories« och att tredubbla kapaciteten i EU:s datacenter till år 2032. Om elen räcker och om man kan säkra tillgången till halvledare.

Om detta är vad som krävs för att stimulera europeiskt kreativt, innovativt entreprenörskap på AI-området är oklart. Vi vill inte vara onödigt EU-kritiska på denna blogg – men vi måste ändå ställa frågan om EU:s beslutsfattare begriper vad de sysslar med.

En inte allt för vågad gissning är att även delar av EU:s nya Digital Services Act kan komma att revideras. Detta då den utestänger nya aktörer (som inte har en rejäl kassakista, bra advokater och en kår av compliance officers) från att etablera sig och på allvar ta upp konkurrensen med Meta, Google, X och ByteDance på den europeiska marknaden för sociala media.

Länkar:
• Europe’s GDPR privacy law is headed for red tape bonfire within ‘weeks’ »
• Europe prepares AI charm offensive as industry trembles from tariff shocks »

CC0

Arkiverad under: Dataskydd, Digital Services Act, EU, Länktips, Sociala media, Spaning Taggad som: AI, AI Act, EU-kommissionen, GDPR, Ursula von der Leyen

EU AI Act – politiken tar makten över AI

15 mars 2024 av Henrik Alexandersson

Biometrisk massövervakning och teknikflykt till andra delar av världen kan bli konsekvensen av EU:s nya AI Act.

I veckan klubbade Europaparlamentet EU:s nya AI Act. Den innebär i korthet:

  • Ett förbud mot AI-applikationer som hotar medborgarnas rättigheter eller kränker deras integritet, till exempel social scoring.
  • Extra höga krav på AI-system som anses medföra en hög risk.
  • Transparenskrav för General-purpose AI (t.ex. hur man tränar AI-modeller).
  • Undantag från reglerna för ordningsmakten.

Den sista punkten är extra intressant. Ur parlamentets pressmeddelande:

»The use of biometric identification systems (RBI) by law enforcement is prohibited in principle, except in exhaustively listed and narrowly defined situations. “Real-time” RBI can only be deployed if strict safeguards are met, e.g. its use is limited in time and geographic scope and subject to specific prior judicial or administrative authorisation. Such uses may include, for example, a targeted search of a missing person or preventing a terrorist attack. Using such systems post-facto (“post-remote RBI”) is considered a high-risk use case, requiring judicial authorisation being linked to a criminal offence.«

Från början sa Europaparlamentet helt nej till biometrisk massövervakning, men gav med sig i trilogförhandlingarna med ministerrådet och kommissionen.

Ett uppenbart problem är att när ordningsmakten väl får tillgång till verktyget, då kan regelverket lätt ändras. Övervakningslagar utökas i princip alltid till syfte och metod.

På ett mer filosofiskt plan kan noteras att till exempel kameraövervakning med automatiserad ansiktsigenkänning är en form av massövervakning. Detta då sådan innebär att alla som befinner sig inom det övervakade området kommer att få sina anletsdrag kontrollerade och i förekommande fall registrerade.

Erfarenheter från andra länder visar att det inte är ovanligt att sådana system felaktigt pekar ut helt oskyldiga. Speciellt svårt tycks systemen ha för personer med mörk hudfärg.

För övrigt är kontroversiell användning av AI i polisiär verksamhet inte begränsad till biometrisk identifiering. Till exempel kan myndigheters AI-stödda data mining slå helt fel.

Ett annat problem med EU:s nya AI Act är att den tillför ett betungande regelverk, byråkrati och till och med en helt ny myndighet för AI-branschen.

Visserligen säger förordningen att man vill underlätta för små och medelstora företag, start-ups med flera. Man säger till och med att EU skall bli ledande på AI-området. Men av erfarenhet vet vi att sådana löften med tiden brukar visa sig vara tomma.

Sett i detta perspektiv riskerar denna förordning att bli ytterligare en börda för innovativa företag – som då hellre lägger sin verksamhet i andra delar av världen.

Och med tanke på att internet är gränslöst kommer många av dessa utflyttade tjänster ändå att användas av oss européer – även om tekniken, jobben och pengarna hamnar på andra ställen. Detta på samma sätt som till exempel GDPR och DSA/DMA gör det enklare att driva IT-verksamhet på annat håll.

Arkiverad under: EU, Övervakning, Privatliv, Rättssäkerhet Taggad som: AI, AI Act

EU:s AI Act och ministerrådets fulspel

2 februari 2024 av Henrik Alexandersson

I EU:s ministerråd används paradoxalt nog de mänskliga rättigheterna som argument för mer övervakning.

Just nu processar medlemsstaterna i ministerrådet EU:s nya AI Act. Det är ett märkligt skådespel.

Artificiell intelligens kan möjligen behöva regleras. Problemet är att sådan reglering bygger på hur AI fungerar idag, trots att konceptet ständigt förändras i rasande fart.

Risken är att lagstiftningen kommer att vara föråldrad redan när den klubbas. En annan risk är att detta kommer att bli ännu ett hinder för utvecklingen av europeisk IT-industri.

Men det finns ett område ministerrådet inte vill reglera. Det gäller nationell säkerhet och polisiärt arbete. Då är det plötsligt viktigt att vara flexibel…

En absurd twist är att länder som Frankrike och Tyskland nu försöker blockera förslaget till AI Act med argumentet att den kan strida mot de grundläggande mänskliga rättigheterna. Detta trots att det är uppenbart att det verkliga skälet är att de vill kunna använda AI för att övervaka medborgarna.

Under rubriken dubbla budskap kan noteras att Tyskland motiverar sitt motstånd mot förordningen med att den inte innehåller något förbud mot användning av biometrisk data vid övervakning. Men ingenstans tidigare i processen har Tyskland framfört någon sådan invändning.

Skulle EU:s AI Act bli allt för urvattnad, blockeras eller falla är det fritt fram för medlemsstaterna och övervakningsindustrin att använda både biometrisk data och AI för att övervaka medborgarna.

EU:s AI Act är i sig en märklig lagstiftning. Den känns framstressad av politiker som vill reglera en teknik de inte riktigt förstår. För att de kan.

Kanske vore det rimligare om AI föll under övrig lagstiftning och dess mer generella principer. Såväl vad gäller civil som offentlig och polisiär användning. Men det är bara en lös tanke.

EDRi: Council to vote on EU AI Act: What’s at stake? »

Arkiverad under: EU, Länktips, Övervakning, Storebror Taggad som: AI, AI Act

Så vill EU ta makten över AI

11 december 2023 av Henrik Alexandersson

Nu reglerar EU användningen av artificiell intelligens – med stora undantag för brottsbekämpande myndigheter. Här är vad man har förhandlat fram.

Det finns nu i princip en överenskommelse mellan EU:s tre institutioner om dess nya reglering av artificiell intelligens, the AI Act. I princip, eftersom det fortfarande tycks råda en viss oklarhet om vad man beslutat i detalj.

Överenskommelsen är resultatet av trilog-förhandlingar – i vilka kommissionen, ministerrådet och parlamentet stänger in sig bakom stängda dörrar för att utarbeta en kompromiss utan offentlig insyn.

Trots att det inte finns något stöd för triloger i EU:s fördrag avgörs idag nio av tio lagförslag i EU genom dessa hemliga förhandlingar. Vilket är ett demokratiskt problem. Lagstiftning måste tåla insyn.

Än mer svajigt blir det om man betänker att detta är lagstiftning där den tekniska utvecklingen går med rasande fart. Plus att det är oklart om beslutsfattarna verkligen förstår vad AI är och hur den fungerar.

Men det är som det är. Till saken. Vad har man kommit fram till?

  • EU vill ha insyn i och viss möjlighet att påverka AI-system som anses vara hög risk för individen, samhället och ekonomin. Här ställs även krav på transparens, konsekvensanalyser och energianvändning.
  • Man förbjuder automatiserad ansiktsigenkänning i realtid, utom vad gäller att identifiera gärningsmän och offer vid vissa typer av brott och för att bekämpa terrorism.
  • Automatiserad ansiktsigenkänning i efterhand begränsas till utredning av allvarliga brott.
  • Användning av AI för förebyggande brotssbekämpning (pre-crime) begränsas delvis, speciellt om den bygger på personlighets- och karaktärsdrag (t.ex. ras, politisk åsikt eller religion – om inte sådana uppgifter har en direkt betydelse till ett visst brott eller hot).
  • Användning av AI för att upptäcka och registrera känslor förbjuds på arbetsplatser och inom utbildningsväsendet utom när det sker i säkerhetssyfte.
  • AI får inte användas för manipulation, exploatering av sårbarheter och sociala poängsystem (social scoring).
  • Militär användning undantas från begränsningar, så länge den är i linje med EU:s fördrag.
  • Fri och open source-mjukvara undantas från lagstiftningen utom när tillämpningen anses vara förenad med hög risk eller förbud enligt ovan.
  • Ett AI Office skall upprättas hos EU-kommissionen, en European Artificial Intelligence Board skall etableras liksom ett rådgivande forum och en vetenskaplig panel.

EU:s AI Act är tänkt att träda ikraft inom två år, med undantag för vissa förbud som skall börja gälla redan efter sex månader från det att rådet och parlamentet bekräftat trilogens kompromiss.

Hur tekniken kommer att se ut om två år och om lagstiftningen över huvud taget är relevant då är en öppen fråga.

Och som vanligt finns alltid en påtaglig risk för ändamålsglidning, missbruk av dessa verktyg och för vad de kan komma att användas till av auktoritära eller totalitära politiska krafter.

EU:s AI Act sätter också strålkastarljuset på Chat Control som nu av allt att döma skjutits på framtiden, till nästa mandatperiod. Att låta AI granska innehållet i medborgarnas elektroniska meddelanden samtidigt som man ger myndigheterna relativt fria händer på området tar frågan till en ny nivå. Detta bör uppmärksammas i vårens EU-valrörelse.

Några länkar:
• Europaparlamentet: Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI »
• EU-kommissionen: Commission welcomes political agreement on Artificial Intelligence Act »
• EDRi – EU AI Act: Deal reached, but too soon to celebrate »
• Euractiv: AI Act: EU policymakers nail down rules on AI models, butt heads on law enforcement »
• Euractiv: European Union squares the circle on the world’s first AI rulebook »

Från trilogförhandlingarna om EU:s nya AI Act.

Arkiverad under: Dataskydd, EU, Länktips, Övervakning, Privatliv, Storebror Taggad som: AI, AI Act, artificiell intelligens, trilog

AI – när allt du skriver påverkar framtiden

21 juli 2023 av Henrik Alexandersson

Vad vi får ut av AI beror på vad den tränas på. Vilket måste vara en oerhörd frestelse för den som vill påverka vårt samhälle.

Det finns de som fruktar att artificiell intelligens – AI – kommer att utveckla något slags eget medvetande – och till exempel bestämma sig för att den klarar sig bättre utan oss människor. Eller att den kan komma att förslava oss.

Själv är jag inte alls så dyster. AI kommer att lyfta oss in i framtiden. Plötsligt har vi ett människovänligt användargränssnitt för att hantera vår samlade kunskap.

Vilket medför sina speciella problem. Maskiner gör vad man säger åt dem att göra. AI styrs av det material den tränas på.

Vilket väcker frågan: Finns det intressenter som skulle ha något att vinna på att algoritmen snedvrids genom ett subjektivt urval av vad systemet tränas på?

Därför känns det angeläget att AI tränas på så stor del av internets innehåll som möjligt. Så att man kan vara trygg med att det till exempel inte ligger några ekonomiska eller politiska filter mellan mänsklighetens samlade kunskap och användaren.

Så mycket som möjligt trålas redan upp. Twitter var nyligen tvingade att begränsa antalet visade tweets per användare och dag på grund av att massor av AI-botar var inne och skrapade upp all information de kunde komma över.

Man kan utgå från att samma sak gäller även på nätet i övrigt. Allt samlas in från tidningar, bloggar, sociala media, avhandlingar, rapporter, presentationer etc. Man är redan på gång med att även samla in och analysera ljud och video.

Allt du har sagt i en podcast, allt du publicerat på nätet och allt du länkat till är på väg att bli en del av det kollektiva medvetandet. Vilket även gäller alla andra.

Dock kommer ingen AI att kunna få tag i all information, så i strikt mening blir ändå en viss bias något slags default-läge.

Frestelsen att sålla bland all denna input – tänk på barnen; hat & hot; rikets säkerhet; kriget mot narkotikan; klimatet; terroristerna; fake news etc. – måste vara enorm.

Kineserna håller tydligen på att bygga ett eget AI-system. Vilket låter lika intressant som förfärande. Där kommer garanterat den information man använder för att träna sitt AI att vara sållad. Så att resultatet inte blir politiskt fel eller olämpligt…

Utrymmet för oförutsedda och oönskade effekter om ett AI tränas på subjektivt utvald information kan bli stort.

I grunden känns det hela som något slags yttrandefrihetsfråga. Eller informationsfrihet i ett vidare perspektiv. Kommer den enes input till det kollektiva medvetandet att bli lika värderat som den andres? Och om inte, på vilka grunder?

Vilket känns som en mer närliggande och konkret fråga än om AI kommer att ta över världen.

Arkiverad under: Censur, Propaganda, Storebror, Yttrandefrihet Taggad som: AI, artificiell intelligens

EP-utskott: Nej till biometrisk massövervakning

11 maj 2023 av Henrik Alexandersson

I Europaparlamentet är man skeptisk mot biometrisk massövervakning. Vilket bäddar för konflikt med EU-kommissionen och ministerrådet.

Europaparlamentets utskott för mänskliga rättigheter (LIBE) och den inre marknaden (IMCO) har idag fattat ett par viktiga och intressanta beslut om artificiell intelligens. Eller i vart fall om AI som vi känner den just nu.

• Nej till biometrisk massövervakning

Utskotten vill förbjuda biometrisk massövervakning (till exempel automatiserad ansiktsigenkänning) i realtid på allmän plats; användning av biometrisk analys i efterhand i de flesta fall; automatiserad känsloanalys i polisiära syften, vid gränskontroller, på arbetsplatser och inom utbildning.

Detta går emot EU-kommissionens ursprungliga förslag om att i princip undanta förbud mot biometrisk massövervakning för brottsbekämpande ändamål.

Det finns i sammanhanget skäl att anta att ministerrådet kommer att gå på kommissionens linje.

Om Europaparlamentet röstar i enlighet med utskottens förslag när frågan kommer upp i plenum lär det alltså bli krångliga trilog-förhandlingar med de två andra institutionerna.

• Diskriminering och mänskliga rättigheter

Utskotten säger nej till biometrisk massövervakning – speciellt sådan som kan leda till diskriminering, biometrisk kategorisering, förebyggande brottsbekämpning (”pre crime”) samt masstrålning efter biometrisk data med syfte att upprätta databaser för övervakning.

Utvecklare av AI med hög riskprofil skall genomföra en konsekvensanalys ur ett människorättsperspektiv – som sedan skall publiceras av berörda myndigheter.

Bland annat kan utvecklare av chat bots (som Chat GPT) åläggas ökad transparens.

Man vill även begränsa användningen av AI vad gäller gränskontroller och migration – vilket medlemsstaterna knappast kommer att gå med på.

• Frågetecken

Som synes fokuserar man på biometrisk massövervakning. Samtidigt skall man komma ihåg att LIBEs rapport om Chat Control / CSA Regulation stöder EU-kommissionens förslag om att använda AI för att granska innehållet i alla människors elektroniska meddelanden, i syfte att upptäcka visst olagligt beteende.

Det kan alltså vara värt att notera att användning av AI för massövervakning är en betydligt större fråga än bara biometrisk data.

Precis som när det gäller DSA/DMA utgår den nya lagstiftningen (av naturliga skäl) från dagens teknik och marknad. Vilket kan leda till oväntade konsekvenser i framtiden.

Man bör även hålla i minnet att internet är gränslöst. Lagstiftarna säger sig vilja skapa en världsledande standard som andra ansluter sig till. Men konsekvensen kan lika gärna bli att företagen (och då speciellt start ups) kan komma att etablera sig i andra delar av världen. Vilket är något vi redan ser tecken på med EU:s allt mer omfattande och byråkratiska nätlagstiftning.

Ambitionen i LIBE och IMCO är god. Grundläggande mänskliga rättigheter skall försvaras. Men här finns massor av frågetecken och möjliga oväntade och oönskade konsekvenser. Samt en risk för att lagstiftningen kommer att vara föråldrad redan innan den införs.

Det finns, som sagt, även en överhängande risk för att kommissionen och ministerrådet kommer att köra över parlamentet i denna fråga.

Men, för att avrunda positivt ger vi ordet till den piratpartistiske, tyske ledamoten av Europaparlamentet Patrick Breyer:

“Today’s vote is a historic breakthrough for the movement to prevent a China-style dystopian future of biometric mass surveillance in Europe. There is no evidence whatsoever that this error-prone technology ever found a single terrorist. We will continue to fight against facial surveillance technology in our public spaces, because they wrongfully report large numbers of innocent citizens, systematically discriminate against under-represented groups and have a chilling effect on a free and diverse society. In the upcoming plenary vote, monitoring our behavior in public to report us for allegedly ‘abnormal’ activity needs to be added to the list of bans. This mass surveillance technology, which the French government plans to bring to Europe, chills diversity and pushes us into conformity, which is the opposite of the open society we want to live in.“

• Patrick Breyer (PP, DE) AI Act: Lead committees to ban facial surveillance in Europe »
• EDRi: EU Parliament sends a global message to protect human rights from AI »

Arkiverad under: Dataskydd, EU, Länktips, Övervakning, Privatliv, Rättssäkerhet, Storebror Taggad som: AI, AI Act, ansiktsigenkänning, Europaparlamentet, IMCO, LIBE, mänskliga rättigheter

Heléne Fritzon (S) svamlar om #ChatControl

11 april 2023 av Henrik Alexandersson

Misstanken att våra EU-politiker inte begriper vad de beslutar om stärks.

Heléne Fritzon är socialdemokrat och ledamot av Europaparlamentet. I parlamentets kvinnoutskott – FEMM – är hon ansvarig rapportör för EU-kommissionens förslag om att granska innehållet i folks elektroniska meddelanden, Chat Control.

Fritzon har nu skrivit en debattartikel i Svenska Dagbladet där hon försvarar förslaget. Efter att omsorgsfullt uttryckt sitt engagemang för barnens bästa kommer hon till slut till kärnfrågorna:

»Kritikerna pratar om massövervakning och att all din kommunikation kommer läsas. Det stämmer inte. Det stämmer bara om du delar övergrepps­material på barn.«

Så Heléne Fritzon har uppfunnit en maskin som bara skannar brottsligt material?

Skall man kunna skilja visst innehåll från annat måste man väl rimligen skanna allt innehåll? Hur skall man annars kunna veta vilket som är brottsligt?

Inspektionen är tänkt ske med maskiner som inte bara skall identifiera känt olagligt material, utan även tidigare okänt dito. Och för att kunna göra det måste alla bilder som sänds (och lagras på molntjänster) analyseras.

Dessutom har man tänkt använda AI för att kontrollera innehållet i våra text- och röstkommunikationer, så att vi inte kommunicerar med minderåriga på ett otillbörligt sätt. Vilket är tekniskt outforskad mark, om alls möjligt.

När dessa verktyg sedan finns på plats, då kan Chat Control lätt utökas till syfte och omfattning. Ändamålsglidning, som det alltid blir med övervakningslagar.

Vad kan möjligen gå fel?

Fritzon:

»För att ett företag överhuvudtaget ska få genomföra en spårning efter övergrepps­material måste det finnas bevis för att det finns en betydande risk för att tjänsten används i detta syfte.«

Vad menas då med ”betydande risk”? Jo, till exempel att tjänsten gör det möjligt för användare att kontakta andra användare direkt… Tjänstens själva grundfunktion definieras således som en tillräcklig risk.

Som förslaget är skrivet kan jag inte se något annat än att i princip alla meddelandetjänster kommer att omfattas.

Fritzon:

»(…) Flera instanser gör bedömningar, en domstol ska utfärda beslutet och tillvägagångs­sättet för spårningen är begränsat.«

Detta börjar bli absurt. Heléne Fritzon upprepar ett påstående från EU-kommissionär Ylva Johansson som gång på gång påvisats vara fel.

Det finns inget krav i förslaget på att det behöver vara en domstol som fattar beslut om övervakningen. Ändå upprepar både Johansson och Fritzon envist detta felaktiga påstående gång på gång.

Men vad gäller kärnfrågor som inskränkningen av de mänskliga rättigheterna och rätten till krypterad, säker kommunikation har Fritzon inget att säga alls. Av lätt insedda skäl.

Jag är inte helt övertygad om att våra EU-politiker begriper vad de är på väg att ställa till med.

Låt mig avsluta med ett citat om den saken från Matthew Green som är professor i kryptografi vid Johns Hopkins University och en av världens främsta datasäkerhetsexperter:

»What concerns me is that the Commission does not appear to have a strong grasp on the technical implications of their proposal, and they do not seem to have considered how it will harm the security of our global communications systems.«

Läs mer:
• Allt du behöver veta om #ChatControl – resurser, analyser och länkar »
• ChatControl – Ylva Johansson säger orimliga saker, del 1 »
• ChatControl – Ylva Johansson säger orimliga saker, del 2 »
• Chat Control: Ylva Johanssons okunskap får internationell uppmärksamhet »

Lagstiftningsdokument:
• Kommissionens förslag »
• Legislative Observatory »

Relaterade länkar:
• Stop Scanning Me »
• ChatControl.eu »

• ChatControl – granskning av EU-kommissionens förslag
• EU-kommissionen: Övervakning är viktigare än mänskliga rättigheter »
• Why chat control is so dangerous »
• PP: EU-kommissionär Ylva Johansson ljuger om #ChatControl »
• ChatControl – nu är det skarpt läge i EU, men regeringen vill inte tala om saken »
• UN Human Rights Commissioner warns against chat control »

• Regeringen föreslår 18-årsgräns för meddelande-appar
• ChatControl – detta händer i ministerrådet »

• EU:s ministerråd vill kontrollera allt du gör på nätet
• ChatControl: EU-kommissionen duckar alla jobbiga frågor »
• Granskning: Lobbykampanjen för #ChatControl »

TL;DR:
• ChatControl / CSA Regulation – enkelt förklarad »

• Chat Control – på djupet

Youtube » | Soundcloud »

• EU: Övervakning är viktigare än mänskliga rättigheter

Youtube » | Soundcloud »

Arkiverad under: Dataskydd, EU, Kryptering, Länktips, Övervakning, Privatliv, Storebror Taggad som: AI, ChatControl, CSAR, mänskliga rättigheter

AI sågar AI-stödd massövervakning

3 januari 2023 av Henrik Alexandersson

Vad tycker en AI-chat om massövervakning i allmänhet och AI-stödd massövervakning i synnerhet? Varför bryr sig inte folk om övervakningsstaten och vad kan man göra åt det? Vi frågade ChatGPT, som även fick skriva en dikt om betydelsen av rätten till privatliv.

AI-verktyg som ChatGPT är intressanta, även om man inte ser dem som självständigt tänkande. Enkelt uttryckt styrs de av de texter de tränats på och av de människor som givit systemet feedback. Därför kan de vara intressanta för att sammanställa information från ett större fält, speciellt om de tränats på stora textvolymer.

Dessutom skall man vara medveten om att hur man ställer frågan påverkar svaret.

Så här kommer ett experiment. Vad har ChatGPT att säga om massövervakning och om AI-stödd dito? Med reservation för att våra frågor kan vara en smula ledande.

• Till att börja med gav vi ChatGPT i uppgift att sammanställa fem starka argument mot massövervakning. (Svaren är översatta och förkortade av oss.)

  1. Massövervakning strider mot rätten till privatliv, som i sin tur är en mänsklig rättighet.
  2. Massövervakning kan leda till maktmissbruk, utpressning, hot och diskriminering.
  3. Massövervakning har en avkylande effekt på yttrandefriheten, speciellt om åsikterna i fråga är impopulära eller kontroversiella.
  4. Massövervakning är ofta ineffektiv. Ofta är riktad övervakning bättre på att bekämpa brottslighet.
  5. Massövervakning är kostsam. Detta drabbar skattebetalarna och pengarna skulle kunna användas bättre.

• Ge oss nu fem starka skäl för massövervakning.

  1. Massövervakning kan hindra terrorism och annan brottslighet. Genom att sama in stora mängder data kan myndigheterna identifiera mönster och trender som kan identifiera och förebygga brottslighet.
  2. Massövervakning kan bidra till stärkt nationell säkerhet.
  3. Massövervakning kan bidra till att öka allmän säkerhet, till exempel genom att övervaka sociala media och andra kommunikationskanaler i realtid.
  4. Massövervakning kan användas för att fånga och åtala brottslingar samt förse myndigheterna med bevis som kan användas i domstol.
  5. Massövervakning kan rättfärdigas i vissa fall som till exempel när det gäller nationell eller allmän säkerhet. I dessa fall måste fördelarna vara större än de negativa konsekvenserna.

• EU:s nya AI Act reglerar AI på många sätt, men gör ett svepande undantag för statens egen användning för övervakning. Så vi frågade vilka riskerna är med AI-stödd massövervakning.

  1. Det finns en risk för att data och algoritmer blir partiska, beroende på vilken data de tränats på och hur de utvecklats.
  2. Bristande transparens – vilket leder till att det blir svårt att förstå hur de fattar beslut och att hålla någon ansvarig. Detta gör det även svårare att identifiera och hantera problem och fel i systemen.
  3. Missbruk och maktövergrepp. Till exempel kan myndigheter frestas att fokusera på grupper eller individer baserat på deras politiska uppfattning eller andra särskiljande drag.
  4. Förlorat privatliv, då AI stödd massövervakning kan analysera och tolka data på ett mer avancerat sätt än vad människor förmår. Detta kan leda till profilering och spårning av folks aktiviteter på ett aldrig tidigare skådat sätt.
  5. Lagliga och etiska problem – till exempel vad gäller balansen mellan säkerhet och privatliv.

• Intressant. Låt oss nu fråga varför människor inte tycks intressera sig för eller oroas över massövervakningen.

  1. Bristande medvetenhet om vad som sker, vilket i sin tur leder till att folk får svårt att förstå massövervakningens konsekvenser.
  2. Bristande förståelse även bland dem som är medvetna om massövervakningen, vilket gör att de inte förstår frågans allvar.
  3. Frikoppling från konsekvenser. Människor som inte känner sig personligt påverkade förstår inte vilken skada som kan uppkomma.
  4. Tro på auktoriteter. Många litar på att myndigheterna kommer att använda systemen på ett ansvarsfullt sätt och ser därför inte riskerna.
  5. Apati. Många bryr sig inte, har andra prioriteringar eller tror att de ändå inte kan göra något åt situationen.

• Hur får man då folk intresserade av kampen mot massövervakningen?

  1. Utbilda allmänheten.
  2. Understryk de negativa personliga konsekvenserna.
  3. Använd exempel och anekdoter.
  4. Betona de kollektiva konsekvenserna som minskat förtroende för myndigheterna, underminerad demokrati och maktmissbruk.
  5. Engagera er i media och använd sociala media.

• Finns det då några bättre alternativ till massövervakning?

  1. Riktad spaning mot grupper och personer som är misstänkta för brottslig verksamhet istället för mot hela befolkningen.
  2. Underrättelse-styrd spaning som inkluderar såväl traditionellt polisarbete som moderna metoder (som data-analys) – syftande till att förhindra brott innan de begås.
  3. Stärkt lagskydd för privatliv, ökad transparens och ansvarsutkrävande, främjande av kryptering och annan teknik som stärker rätten till privatliv (och privat korrespondens).

Visst, som man frågar får man svar. Men det är ändå rätt imponerande. Om inte annat som sökmotor för att samla information och argument om ett visst ämne. Med reservation för vilken information den tränats på, hur det skett och vem som styrt processen.

Det kan bli intressant om vi så småningom får AI-sytem baserad på större informationsmängder, kanske rent av hela internet. Tro inte annat än att Google jobbar på den saken.

Vad gäller poesi finns dock en del övrigt att önska vad gäller litterär verkshöjd – även om det inte går att invända mot innehållet i sak.

• ”Write an original poem about privacy.”

Privacy, a right
So often taken for granted
But oh so vital

In this age of technology
Where screens and cameras reign supreme
Privacy is threatened

But without it, we lose
A piece of ourselves, a sanctuary
In which to be alone

So let us fight for it
This right to be unseen, unknown
Privacy must be protected

Arkiverad under: Nätkultur, Övervakning, Privatliv, Rättssäkerhet, Spaning, Storebror Taggad som: AI, AI Act, ChatGPT

Och nu – biometrisk massövervakning

8 november 2022 av Henrik Alexandersson

Vi närmar oss en punkt där vi inte bara skall kameraövervakas på offentlig plats – utan även identifieras och få vårt beteende analyserat i realtid, av massövervakningens algoritmer.

Artificiell Intelligens (AI) är det senaste EU vill reglera. Något slutligt förslag finns inte ännu, men väl ett läckt arbetsdokument (PDF).

Den nya förordningen täcker väldigt mycket – men tycks göra undantag när det gäller övervakning. Vilket öppnar för en del dystopiska perspektiv.

Idag används AI bland annat för system med biometrisk identifiering. Vilket blivit en stridsfråga.

Sådan kan i sin tur delas upp i flera delar. I sin enklaste form kan det handla om kontroll av till exempel fingeravtryck, ansiktsform eller iris när man passerar EU:s yttre gräns. Eller för att fastställa en persons identitet vid andra tillfällen.

(Ett sådant system användes av de västliga styrkorna i Afghanistan. Tyvärr tycks det ha fallit i talibanernas händer, med potentiellt katastrofala konsekvenser för enskilda.)

Även om man kan tycka att det är rationellt att använda biometriska data för identifiering vid en viss säkerhetspunkt (som en gräns) – så kan systemet även användas för massövervakning. Till exempel genom att identifiera alla som passerar en viss knutpunkt. (Och spara biometrisk data om dem man ej lyckas identifiera.)

Då är man plötsligt inne på att massövervaka människor som inte misstänks för något brott – utan bara för att de rört sig på allmän plats. Vilket inte är OK. Det strider mot människans rätt till privatliv.

Sedan har vi användning av automatiserad ansiktsigenkänning för att identifiera personer på exempelvis en övervakningsfilm från en plats där ett brott de facto begåtts. Vilket är mindre problematiskt.

Dock har det visat sig finnas risker med att endast granska övervakningsvideos med maskiner. I jakt på ett ansikte kan det vara lätt hänt att algoritmen missar andra detaljer och händelser som är relevanta i sammanhanget.

Den tredje delen är automatiserad ansiktsigenkänning i realtid, med livefeed från övervakningskameror. När man sedan identifierat en person kan det kopplas direkt till olika databaser med information om personen i fråga.

EU har under årtionden finansierat utvecklingen av sådana system (gm. INDECT) – trots varningar och protester. Och nu tycks dystopin vara fullbordad.

Som vanligt är det en fråga om hur systemet används. För att till exempel skugga en misstänkt brottsling eller för att avvärja konkret fara kan det kanske vara försvarligt. Men finns det någon som tror att det stannar där?

Det finns även add-ons (vilka också finansierats av EU) som att koppla ljudupptagning med akustisk analys till systemen ovan. Ett annat exempel är automatiserad beteendeanalys för att upptäcka avvikande beteende.

Blotta vetskapen om att man är ständigt observerad, identifierad och att ens handlingar i varje stund analyseras av maskiner kommer att påverka människor och deras psykiska hälsa.

Detta för att inte nämna problemet med falska positiva. Även i ett system med orealistiska 99,9% träffsäkerhet kommer tusentals och åter tusentals människor att flaggas med fel identitet eller för helt oskyldigt avvikande beteende. Vilket kan få allvarliga konsekvenser.

Som vanligt tycks det finnas en övertro på teknisk övervakning, där polisen sitter vid en skärm istället för att patrullera gatorna och ägna sig åt traditionellt polisarbete. Vilket kan komma att straffa sig genom att i slutändan göra oss alla mindre säkra.

• EU governments open the door for biometric mass surveillance in public spaces »

Arkiverad under: EU, Forskning, Övervakning, Privatliv, Säkerhet, Storebror Taggad som: AI, Indect

Europol brainstormar om att knäcka krypterade kommunikationer

7 oktober 2022 av Henrik Alexandersson

Myndigheternas krig mot krypterad information fortsätter. Samtidigt vill EU:s ministerråd begränsa insynen i hur polisen använder artificiell intelligens i sitt arbete.

Bakdörrar, superdatorer och samarbete med internetoperatörer var några av de idéer som diskuterades när EU:s olika polis- och säkerhetsorgan nyligen brainstormade hur man kan gå vidare för att knäcka krypterade kommunikationer.

Detta skedde på en konferens med EU Innovation Hub for Internal Security som hölls förra månaden, enligt Statewatch som har utskrifter av vad som diskuterades.

Särskilt uppseendeväckande är att man öppnar för att hålla säkerhetsluckor i vår IT-infrastruktur öppna istället för att anmäla dem – för att själva kunna utnyttja dessa för övervakning.

Men sådana säkerhetsluckor kan även användas av andra, till exempel kriminella och främmande makt. Vilket gör oss alla mindre säkra.

Statewatch rapporterar:

»At a recent event hosted by Europol’s Innovation Hub, participants discussed questions relating to encrypted data and the ability of law enforcement authorities to access digital information. One issue raised was a possible ”EU Vulnerability Management Policy for Internal Security,” which could allow for ”temporary retention of vulnerabilities and their exploitation by the relevant authorities.” In effect, this would mean identifying weaknesses in software and, rather than informing the software developers of the problem, exploiting it for law enforcement purposes.«

EU Innovation Hub for Internal Security består av nio olika EU-myndigheter och organ som på olika sätt arbetar med polisiära och säkerhetsrelaterade frågor. Spindeln i nätet är EU:s polismyndighet Europol. Såväl EU-kommissionen som ministerrådet är medlemmar – men inte Europaparlamentet.

I övrigt diskuterade man även hur artificiell intelligens (AI) kan användas i polisiärt arbete samt vad man kan göra för att komma åt elektroniska kommunikationer i 5G-nätet (vilket tydligen är oväntat krångligt).

Intressant nog vill EU:s ministerråd begränsa transparensen vad gäller hur polisiära myndigheter använder AI i sitt arbete. Statewatch skriver:

»The Czech Presidency of the Council has inserted new provisions into the proposed AI Act that would make it possible to greatly limit the transparency obligations placed on law enforcement authorities using ”artificial intelligence” technologies. A new ”specific carve-out for sensitive operational data” has been added to a number of articles. If the provisions survive the negotiations, the question then becomes: what exactly counts as ”sensitive operational data”? And does the carve-out concern just the data itself, or the algorithms and systems it feeds as well?«

Detta är ytterligare en het fråga som lär hamna på det svenska EU-ordförandeskapets bord efter årsskiftet.

Läs mer:
• Statewatch: EU: Discussion on encryption ponders ”retention of vulnerabilities and exploitation by the authorities” »
• ”Wicked problem”: Europol considers vulnerability exploitation to break encryption »
• Statewatch: EU: AI Act: Council Presidency seeks more secrecy over police use of AI technology »

Arkiverad under: EU, Hemlig dataavläsning, Kryptering, Länktips, Övervakning, Privatliv, Säkerhet, Storebror Taggad som: AI

  • Sida 1
  • Sida 2
  • Sida 3
  • Go to Nästa sida »

Primärt sidofält

Nätfrihet och integritet!

Femte juli är en nätpolitisk nyhetssajt som står på internetanvändarnas sida. Läs mer.

  • Twitter: Femtejuli
  • Youtube
  • Soundcloud: 5july
  • RSS-flöde

Prenumerera på inlägg


Loading

Senaste inlägg

  • EU överväger digital-skatt16 maj 2025
  • Mänskliga rättigheter online15 maj 2025
  • Chat Control 2 – fortsatt låst läge i ministerrådet12 maj 2025
  • EU rullar ut app för åldersverifikation8 maj 2025
  • Svenska folket säger ja till »censur« av media och enskilda7 maj 2025

Senaste kommentar

  1. Chat Control 2 i långbänk om Chat Control 2 – omvända roller i ministerrådet15 mars 2025

    […] Läs mer om de låsta positionerna i EU:s ministerråd: Chat Control 2 – omvända roller i ministerrådet » […]

CC BY 4.0 · Logga in

  • Youtube
  • Twitter
  • RSS