• Hoppa till huvudnavigering
  • Hoppa till huvudinnehåll
  • Hoppa till det primära sidofältet

Femte juli

Nätet till folket!

  • Om oss
  • Remissvar

AI

EU-parlamentariker vill förbjuda bild-AI

5 februari 2026 av Henrik Alexandersson

Ett antal ledamöter i Europaparlamentet vill utöka AI-reglerna i EU:s Digital Omnibus med ett förbud mot… »pornification apps« – vilka inte ens existerar.

Detta efter att Grok (precis som många andra AI) genererat bilder där en persons ansikte används på en av- eller lättklädd kropp. (T.ex. Ebba Buschs bikinibild.)

Vad som åsyftas torde vara de AI-tjänster som kan generera bilder. Vilket omfattar allt från OpenAI:s ChatGPT och Grok till rena bildgeneratorer som Midjourney och Googles NanoBanana. (Vilket även går att göra med Photoshop eller skalpell och klister.)

Det vill säga tjänster där bildgeneration ofta är en mindre del av verksamheten – och där lättklädda fejkbilder är en försumbar del av den totala mängden genererade bilder, i den mån de går att prompta fram över huvud taget.

Men några »pornification apps« existerar inte i AI:s ekosystem och allmänna utbud. Vill man ha ett förbud, då får man förbjuda AI som sådant.

Man kan förvisso styra bild-AI-tjänster till att inte generera lättklätt och vågat eller på andra sätt stötande innehåll. Vilket redan sker på i stort sett alla större AI-tjänster.

Men det är en helt annan sak att förbjuda dessa tjänster – med omfattande oönskade konsekvenser för alla som sysslar med sådant som bildhantering, grafisk formgivning och konst.

Det är som att förbjuda ordbehandlingsprogram för att någon kan använda dem för att skriva något snuskigt eller kränkande.

I sammanhanget kan man även fråga sig om det är så klokt att gå efter de verktyg som eventuellt används istället för den person som använder dem för att göra något som eventuellt är olagligt.

Som vanligt tycks politikerna inte begripa vad de sysslar med. Specielt inte när det råder moralpanik.

En av de ansvariga rapportörerna i Europaparlamentet är svenska Arba Kokalari (m) – som dock inte svarat på medias frågor om vad hon tycker.

• Parliament AI leads split on banning pornification apps »

CC0

Arkiverad under: Censur, Dataskydd, EU, Kultur, Länktips, Nätkultur, Spaning, Storebror, Yttrandefrihet Taggad som: AI, Europaparlamentet

AI-agenter, säkerhet och lagstiftning

3 februari 2026 av Henrik Alexandersson

Om man ser bortom den science fiction-artade hypen kring AI-agenter väcker de massor av praktiska frågor som rör säkerhet och lagstiftning.

En AI-agent är en proaktiv och självständig assistent som inte bara svarar på frågor, utan utför faktiska uppgifter i din digitala miljö. Genom att använda språkmodeller för att planera och verktyg för att agera kan den fatta egna beslut för att uppnå ett slutmål, som att boka en resa eller skriva kod. Den kan även samverka med andra AI-agenter. Det är i praktiken steget från en chatbot som pratar till en digital medarbetare som gör jobbet åt dig.

Vilket ju är praktiskt och bekvämt. Men inte utan problem.

Cyber Insider:

»Signal Foundation president Meredith Whittaker said artificial intelligence agents embedded within operating systems are eroding the practical security guarantees of end-to-end encryption (E2EE).

(…) While encryption remains mathematically sound, Whittaker argued that its real-world protections are increasingly bypassed by the privileged position AI systems occupy inside modern user environments.«

Problemet uppstår när AI-agenter integreras med operativsystem genom omfattande behörigheter och tillgång till användardata.

Detta rycker undan den grund som till exempel säkra meddelande-appar vilar på. För att fungera som utlovat behöver agenterna tillgång till meddelanden, inloggningsuppgifter och interaktion mellan applikationer.

Detta kan bli en säkerhetsmässig mardröm. För att inte tala om när AI-agenter går online och/eller samverkar med andra AI-agenter. Här finns risk för allt från missförstånd och dataläckage till prompt injection.

Vad gäller meddelande-appar kan AI-agenter komma att göra det som EU:s ministerråd försökte få till med Chat Control 2: Client-side-scanning. Det vill säga komma åt innehåll innan det krypteras och sänds alternativt efter att det mottagits och dekrypterats.

Juridiskt är detta otrampad mark. Vem är ansvarig för vad en autonom AI-agent tar sig för? Eller för samverkande AI-agenter? Fattas beslut och utförs handlingar självständigt eller är det bara kod? Omfattas AI-agenter av yttrandefriheten?

AI-agenter kringgår till stora delar de premisser för lagstiftning som Digital Services Act och EU:s AI Act vilar på. Hur utövar man ens tillsyn över denna exponentiella utveckling?

Räkna med att detta kommer att leda till politiska panikåtgärder. Denna gång på ett område där de politiska makthavarna är extra okunniga.

• Signal president warns AI agents are making encryption irrelevant »

CC0

Arkiverad under: Dataskydd, Digital Services Act, EU, Kryptering, Länktips, Säkerhet, Spaning Taggad som: AI

Chat Control 2 – the soundtrack

20 oktober 2025 av Henrik Alexandersson

Varför finns det inga protestsånger mot Chat Control 2? Vi bad ChatGPT skriva en text. Viss… kreativ frihet kan spåras. Några geniala rim och några nödrim. Och så är det ju intressant att se hur AI uppfattar sakfrågan. Sedan bad vi Suno ge oss sång och musik. Här är resultatet i fem olika musikstilar. För vad det är värt.

Fantastiska maskiner. Tänk vad man skulle kunna göra med en mer genomarbetad, proffsig text.

• Chatcontrol.se »
• Chatcontrol.eu »

CC0

Arkiverad under: Aktivism, EU, Humor, Övervakning, Podcast, Privatliv, Storebror Taggad som: AI, chat control, ChatControl

Brittiska myndigheter kartlägger folks sociala medie-poster med AI

22 augusti 2025 av Henrik Alexandersson

I Storbritannien använder både skattemyndigheten och polisen AI för att snoka i folks privatliv, bland annat på sociala media.

Den brittiska skattemyndigheten HMRC är pigg på att använda ny teknik för att hålla koll på medborgarna. Det visar sig nu att man använder AI för att gå igenom folks poster på sociala media.

Vilket väcker flera frågor. Till exempel om automatiserad myndighetsutövning och rättsskipning. Även om HMRC menar att det finns säkerhetsrutiner på plats finns det en uppenbar risk för att maskiner som inte begriper kontext och mänskligt beteende flaggar oskyldiga.

Men det är inte bara skattemyndigheten som trålar efter information om befolkningen.

Övervakningsverktyget Palantir har använts av polisen i östra England för att dela känslig information om medborgarnas politiska åsikter, filosofiska övertygelser, hälsojournaler med mera. Och polisen i Bedfordshire använder Palantir för att hålla koll på folks politiska uppfattningar, etnicitet och sexliv.

Vilket är oroväckande med tanke på hur lågt till tak det numera är i Storbritannien vad gäller medborgarnas rätt att uttrycka politiska åsikter.

Britterna anstränger sig verkligen för att behålla positionen som Västeuropas ledande övervaknings- och polisstat.

CC0

Arkiverad under: Dataskydd, Europa, Övervakning, Privatliv, Rättssäkerhet, Storebror Taggad som: AI, polis, skattemyndigheterna, UK

Amerikansk domstol tvingar OpenAI att spara alla ChatGPT-loggar

5 juni 2025 av Henrik Alexandersson

Nu öppnas dörren för global datalagring av AI-loggar. Som användare bör du utgå från att allt du frågar AI om kan hamna i fel händer.

Hur mycket av våra AI-konversationer sparas och i vilket syfte? Detta är en fråga många användare ställt sig. Även de som valt att inte spara historik.

En amerikansk domstol har nu beordrat OpenAI att spara alla ChatGPT-loggar. Ars Technica rapporterar:

»OpenAI is now fighting a court order to preserve all ChatGPT user logs—including deleted chats and sensitive chats logged through its API business offering—after news organizations suing over copyright claims accused the AI company of destroying evidence.«

Denna gång är det alltså inte myndigheterna som vill åt informationen, utan media. Och skälet som anges är upphovsrätt. Närmare bestämt en misstanke om att folk använder AI för att gå runt betalväggar.

Det kommer att drabba användare globalt, oavsett integritetsinställningar.

Att detta kan komma att missbrukas och att lagrade loggar kan komma att läcka är en uppenbar risk.

Det var kanske bara en tidsfråga. Och även om upphovsrättsindustrin hann först finns det skäl att anta att myndigheterna ligger hack i häl.

Dörren har nu öppnats och det är ingen vågad gissning att politiker och myndigheter kommer att vilja ha allmän lagring av medborgarnas interaktioner med AI. Skälet kommer att vara det gamla vanliga: Informationen kan vara bra att ha.

Det kan möjligen vara klokt att utgå från att så redan sker.

Läs mer: OpenAI slams court order to save all ChatGPT logs, including deleted chats »

CC0

Arkiverad under: Datalagring, Länktips, Media, Privatliv, Säkerhet, Upphovsrätt Taggad som: AI

EU ångrar GDPR och sin nya AI Act

9 april 2025 av Henrik Alexandersson

EU-kommissionen ångrar nu delar av GDPR och sin nya AI-lagstiftning: Satsar 20 miljarder euro på att kompensera med AI Gigafactories och nya datacenter.

När jag arbetade i Europaparlamentet brukade vi säga att först beslutar EU, sedan debatterar man saken och därefter tar man reda på fakta. It’s funny because it’s true.

Man kan också notera att dåliga EU-förslag nästan aldrig går i papperskorgen. Istället kompromissar man tills man kommer fram till något otympligt som alla kan bli missnöjda med. Mycket talar för att Chat Control 2 kommer att bli ett exempel på detta.

Med de bästa och vackraste ambitioner ger man sig in i projekt, skriver omfattande och detaljerad lagstiftning och hinner som regel ställa till problem ute i verkligheten och näringslivet innan man inser att man kanske gått för långt. Då backar man. När skadan redan är skedd.

EU:s dataskyddsförordning, GDPR, är ett exempel. Grundprincipen att människor skall ha makten över sin egen persondata är vacker och bra på så många sätt. Men lagstiftningen har lett till tunga regelbördor och kostsam byråkrati (10-20 miljarder euro/år enligt Accenture), i delar till liten eller ingen nytta i sak. Och till en väldig massa cookie-banners.

Så nu backar EU-kommissionen. Politico rapporterar:

»The European Commission plans to present a proposal to cut back the General Data Protection Regulation, or GDPR for short, in the next couple of weeks. Slashing regulation is a key focus for Commission President Ursula von der Leyen, as part of an attempt to make businesses in Europe more competitive with rivals in the United States, China and elsewhere.«

Jag såg på nära håll när GDPR förhandlades fram och kunde redan då säga att man skapade ett byråkratiskt monster – som ständigt växte under processens gång. Utan att nödvändigtvis tillföra mer substans i kärnfrågan, persondataskyddet.

(En paradox i sammanhanget är att EU med ena handen försökt stärka persondataskyddet i kommersiella sammanhang – och med andra handen ständigt försöker försvaga medborgarnas konventionsskyddade rätt till privatliv och privat korrespondens gentemot staten.)

Ett annat exempel är EU:s nya AI Act, som i delar också är ett exempel på överreglering, detaljstyrning och byråkrati. Även där inser man nu att man skapat något som kommer att skada europeisk AI-industri, i den mån någon sådan existerar. Politico rapporterar:

»The EU executive will launch a new ”AI Continent” plan on Wednesday. According to an undated draft of the plan obtained by POLITICO, the executive wants to ”streamline” rules and get rid of ”obstacles” that it feels are slowing companies in Europe down in competing with the U.S. and China.«

Vilket är så dags nu när man redan etablerat ett omfattande regelverk – som företagen tvingats anpassa sig till. Eller som drivit nyetableringar till andra delar av världen.

Så nu överkompenserar man. EU-kommissionen vill inte bara förenkla de regler som man ägnat sju år av sammanträden åt ta ta fram. Enligt uppgifter i media lovar ordförande von der Leyen att satsa 20 miljarder euro av skattebetalarnas pengar på fem nya »AI Gigafactories« och att tredubbla kapaciteten i EU:s datacenter till år 2032. Om elen räcker och om man kan säkra tillgången till halvledare.

Om detta är vad som krävs för att stimulera europeiskt kreativt, innovativt entreprenörskap på AI-området är oklart. Vi vill inte vara onödigt EU-kritiska på denna blogg – men vi måste ändå ställa frågan om EU:s beslutsfattare begriper vad de sysslar med.

En inte allt för vågad gissning är att även delar av EU:s nya Digital Services Act kan komma att revideras. Detta då den utestänger nya aktörer (som inte har en rejäl kassakista, bra advokater och en kår av compliance officers) från att etablera sig och på allvar ta upp konkurrensen med Meta, Google, X och ByteDance på den europeiska marknaden för sociala media.

Länkar:
• Europe’s GDPR privacy law is headed for red tape bonfire within ‘weeks’ »
• Europe prepares AI charm offensive as industry trembles from tariff shocks »

CC0

Arkiverad under: Dataskydd, Digital Services Act, EU, Länktips, Sociala media, Spaning Taggad som: AI, AI Act, EU-kommissionen, GDPR, Ursula von der Leyen

EU AI Act – politiken tar makten över AI

15 mars 2024 av Henrik Alexandersson

Biometrisk massövervakning och teknikflykt till andra delar av världen kan bli konsekvensen av EU:s nya AI Act.

I veckan klubbade Europaparlamentet EU:s nya AI Act. Den innebär i korthet:

  • Ett förbud mot AI-applikationer som hotar medborgarnas rättigheter eller kränker deras integritet, till exempel social scoring.
  • Extra höga krav på AI-system som anses medföra en hög risk.
  • Transparenskrav för General-purpose AI (t.ex. hur man tränar AI-modeller).
  • Undantag från reglerna för ordningsmakten.

Den sista punkten är extra intressant. Ur parlamentets pressmeddelande:

»The use of biometric identification systems (RBI) by law enforcement is prohibited in principle, except in exhaustively listed and narrowly defined situations. “Real-time” RBI can only be deployed if strict safeguards are met, e.g. its use is limited in time and geographic scope and subject to specific prior judicial or administrative authorisation. Such uses may include, for example, a targeted search of a missing person or preventing a terrorist attack. Using such systems post-facto (“post-remote RBI”) is considered a high-risk use case, requiring judicial authorisation being linked to a criminal offence.«

Från början sa Europaparlamentet helt nej till biometrisk massövervakning, men gav med sig i trilogförhandlingarna med ministerrådet och kommissionen.

Ett uppenbart problem är att när ordningsmakten väl får tillgång till verktyget, då kan regelverket lätt ändras. Övervakningslagar utökas i princip alltid till syfte och metod.

På ett mer filosofiskt plan kan noteras att till exempel kameraövervakning med automatiserad ansiktsigenkänning är en form av massövervakning. Detta då sådan innebär att alla som befinner sig inom det övervakade området kommer att få sina anletsdrag kontrollerade och i förekommande fall registrerade.

Erfarenheter från andra länder visar att det inte är ovanligt att sådana system felaktigt pekar ut helt oskyldiga. Speciellt svårt tycks systemen ha för personer med mörk hudfärg.

För övrigt är kontroversiell användning av AI i polisiär verksamhet inte begränsad till biometrisk identifiering. Till exempel kan myndigheters AI-stödda data mining slå helt fel.

Ett annat problem med EU:s nya AI Act är att den tillför ett betungande regelverk, byråkrati och till och med en helt ny myndighet för AI-branschen.

Visserligen säger förordningen att man vill underlätta för små och medelstora företag, start-ups med flera. Man säger till och med att EU skall bli ledande på AI-området. Men av erfarenhet vet vi att sådana löften med tiden brukar visa sig vara tomma.

Sett i detta perspektiv riskerar denna förordning att bli ytterligare en börda för innovativa företag – som då hellre lägger sin verksamhet i andra delar av världen.

Och med tanke på att internet är gränslöst kommer många av dessa utflyttade tjänster ändå att användas av oss européer – även om tekniken, jobben och pengarna hamnar på andra ställen. Detta på samma sätt som till exempel GDPR och DSA/DMA gör det enklare att driva IT-verksamhet på annat håll.

Arkiverad under: EU, Övervakning, Privatliv, Rättssäkerhet Taggad som: AI, AI Act

EU:s AI Act och ministerrådets fulspel

2 februari 2024 av Henrik Alexandersson

I EU:s ministerråd används paradoxalt nog de mänskliga rättigheterna som argument för mer övervakning.

Just nu processar medlemsstaterna i ministerrådet EU:s nya AI Act. Det är ett märkligt skådespel.

Artificiell intelligens kan möjligen behöva regleras. Problemet är att sådan reglering bygger på hur AI fungerar idag, trots att konceptet ständigt förändras i rasande fart.

Risken är att lagstiftningen kommer att vara föråldrad redan när den klubbas. En annan risk är att detta kommer att bli ännu ett hinder för utvecklingen av europeisk IT-industri.

Men det finns ett område ministerrådet inte vill reglera. Det gäller nationell säkerhet och polisiärt arbete. Då är det plötsligt viktigt att vara flexibel…

En absurd twist är att länder som Frankrike och Tyskland nu försöker blockera förslaget till AI Act med argumentet att den kan strida mot de grundläggande mänskliga rättigheterna. Detta trots att det är uppenbart att det verkliga skälet är att de vill kunna använda AI för att övervaka medborgarna.

Under rubriken dubbla budskap kan noteras att Tyskland motiverar sitt motstånd mot förordningen med att den inte innehåller något förbud mot användning av biometrisk data vid övervakning. Men ingenstans tidigare i processen har Tyskland framfört någon sådan invändning.

Skulle EU:s AI Act bli allt för urvattnad, blockeras eller falla är det fritt fram för medlemsstaterna och övervakningsindustrin att använda både biometrisk data och AI för att övervaka medborgarna.

EU:s AI Act är i sig en märklig lagstiftning. Den känns framstressad av politiker som vill reglera en teknik de inte riktigt förstår. För att de kan.

Kanske vore det rimligare om AI föll under övrig lagstiftning och dess mer generella principer. Såväl vad gäller civil som offentlig och polisiär användning. Men det är bara en lös tanke.

EDRi: Council to vote on EU AI Act: What’s at stake? »

Arkiverad under: EU, Länktips, Övervakning, Storebror Taggad som: AI, AI Act

Så vill EU ta makten över AI

11 december 2023 av Henrik Alexandersson

Nu reglerar EU användningen av artificiell intelligens – med stora undantag för brottsbekämpande myndigheter. Här är vad man har förhandlat fram.

Det finns nu i princip en överenskommelse mellan EU:s tre institutioner om dess nya reglering av artificiell intelligens, the AI Act. I princip, eftersom det fortfarande tycks råda en viss oklarhet om vad man beslutat i detalj.

Överenskommelsen är resultatet av trilog-förhandlingar – i vilka kommissionen, ministerrådet och parlamentet stänger in sig bakom stängda dörrar för att utarbeta en kompromiss utan offentlig insyn.

Trots att det inte finns något stöd för triloger i EU:s fördrag avgörs idag nio av tio lagförslag i EU genom dessa hemliga förhandlingar. Vilket är ett demokratiskt problem. Lagstiftning måste tåla insyn.

Än mer svajigt blir det om man betänker att detta är lagstiftning där den tekniska utvecklingen går med rasande fart. Plus att det är oklart om beslutsfattarna verkligen förstår vad AI är och hur den fungerar.

Men det är som det är. Till saken. Vad har man kommit fram till?

  • EU vill ha insyn i och viss möjlighet att påverka AI-system som anses vara hög risk för individen, samhället och ekonomin. Här ställs även krav på transparens, konsekvensanalyser och energianvändning.
  • Man förbjuder automatiserad ansiktsigenkänning i realtid, utom vad gäller att identifiera gärningsmän och offer vid vissa typer av brott och för att bekämpa terrorism.
  • Automatiserad ansiktsigenkänning i efterhand begränsas till utredning av allvarliga brott.
  • Användning av AI för förebyggande brotssbekämpning (pre-crime) begränsas delvis, speciellt om den bygger på personlighets- och karaktärsdrag (t.ex. ras, politisk åsikt eller religion – om inte sådana uppgifter har en direkt betydelse till ett visst brott eller hot).
  • Användning av AI för att upptäcka och registrera känslor förbjuds på arbetsplatser och inom utbildningsväsendet utom när det sker i säkerhetssyfte.
  • AI får inte användas för manipulation, exploatering av sårbarheter och sociala poängsystem (social scoring).
  • Militär användning undantas från begränsningar, så länge den är i linje med EU:s fördrag.
  • Fri och open source-mjukvara undantas från lagstiftningen utom när tillämpningen anses vara förenad med hög risk eller förbud enligt ovan.
  • Ett AI Office skall upprättas hos EU-kommissionen, en European Artificial Intelligence Board skall etableras liksom ett rådgivande forum och en vetenskaplig panel.

EU:s AI Act är tänkt att träda ikraft inom två år, med undantag för vissa förbud som skall börja gälla redan efter sex månader från det att rådet och parlamentet bekräftat trilogens kompromiss.

Hur tekniken kommer att se ut om två år och om lagstiftningen över huvud taget är relevant då är en öppen fråga.

Och som vanligt finns alltid en påtaglig risk för ändamålsglidning, missbruk av dessa verktyg och för vad de kan komma att användas till av auktoritära eller totalitära politiska krafter.

EU:s AI Act sätter också strålkastarljuset på Chat Control som nu av allt att döma skjutits på framtiden, till nästa mandatperiod. Att låta AI granska innehållet i medborgarnas elektroniska meddelanden samtidigt som man ger myndigheterna relativt fria händer på området tar frågan till en ny nivå. Detta bör uppmärksammas i vårens EU-valrörelse.

Några länkar:
• Europaparlamentet: Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI »
• EU-kommissionen: Commission welcomes political agreement on Artificial Intelligence Act »
• EDRi – EU AI Act: Deal reached, but too soon to celebrate »
• Euractiv: AI Act: EU policymakers nail down rules on AI models, butt heads on law enforcement »
• Euractiv: European Union squares the circle on the world’s first AI rulebook »

Från trilogförhandlingarna om EU:s nya AI Act.

Arkiverad under: Dataskydd, EU, Länktips, Övervakning, Privatliv, Storebror Taggad som: AI, AI Act, artificiell intelligens, trilog

AI – när allt du skriver påverkar framtiden

21 juli 2023 av Henrik Alexandersson

Vad vi får ut av AI beror på vad den tränas på. Vilket måste vara en oerhörd frestelse för den som vill påverka vårt samhälle.

Det finns de som fruktar att artificiell intelligens – AI – kommer att utveckla något slags eget medvetande – och till exempel bestämma sig för att den klarar sig bättre utan oss människor. Eller att den kan komma att förslava oss.

Själv är jag inte alls så dyster. AI kommer att lyfta oss in i framtiden. Plötsligt har vi ett människovänligt användargränssnitt för att hantera vår samlade kunskap.

Vilket medför sina speciella problem. Maskiner gör vad man säger åt dem att göra. AI styrs av det material den tränas på.

Vilket väcker frågan: Finns det intressenter som skulle ha något att vinna på att algoritmen snedvrids genom ett subjektivt urval av vad systemet tränas på?

Därför känns det angeläget att AI tränas på så stor del av internets innehåll som möjligt. Så att man kan vara trygg med att det till exempel inte ligger några ekonomiska eller politiska filter mellan mänsklighetens samlade kunskap och användaren.

Så mycket som möjligt trålas redan upp. Twitter var nyligen tvingade att begränsa antalet visade tweets per användare och dag på grund av att massor av AI-botar var inne och skrapade upp all information de kunde komma över.

Man kan utgå från att samma sak gäller även på nätet i övrigt. Allt samlas in från tidningar, bloggar, sociala media, avhandlingar, rapporter, presentationer etc. Man är redan på gång med att även samla in och analysera ljud och video.

Allt du har sagt i en podcast, allt du publicerat på nätet och allt du länkat till är på väg att bli en del av det kollektiva medvetandet. Vilket även gäller alla andra.

Dock kommer ingen AI att kunna få tag i all information, så i strikt mening blir ändå en viss bias något slags default-läge.

Frestelsen att sålla bland all denna input – tänk på barnen; hat & hot; rikets säkerhet; kriget mot narkotikan; klimatet; terroristerna; fake news etc. – måste vara enorm.

Kineserna håller tydligen på att bygga ett eget AI-system. Vilket låter lika intressant som förfärande. Där kommer garanterat den information man använder för att träna sitt AI att vara sållad. Så att resultatet inte blir politiskt fel eller olämpligt…

Utrymmet för oförutsedda och oönskade effekter om ett AI tränas på subjektivt utvald information kan bli stort.

I grunden känns det hela som något slags yttrandefrihetsfråga. Eller informationsfrihet i ett vidare perspektiv. Kommer den enes input till det kollektiva medvetandet att bli lika värderat som den andres? Och om inte, på vilka grunder?

Vilket känns som en mer närliggande och konkret fråga än om AI kommer att ta över världen.

Arkiverad under: Censur, Propaganda, Storebror, Yttrandefrihet Taggad som: AI, artificiell intelligens

  • Sida 1
  • Sida 2
  • Sida 3
  • Go to Nästa sida »

Primärt sidofält

Nätfrihet och integritet!

Femte juli är en nätpolitisk nyhetssajt som står på internetanvändarnas sida. Läs mer.

Nyhet: Merch!

Visa ditt stöd för ett fritt internet genom att bära våra kläder – här hittar du vår shop!

Prenumerera på inlägg


Loading

Senaste inlägg

  • EU:s nätcensur hör inte hemma i en rättsstat24 februari 2026
  • ID-krav för din telefon och dator23 februari 2026
  • UK: Åldersgräns för VPN, del 220 februari 2026
  • Digital Networks Act – mer politisk makt över internet19 februari 2026
  • Till X försvar17 februari 2026
  • X: Femtejuli
  • Youtube
  • Soundcloud: 5july
  • RSS-flöde

CC BY 4.0 · Logga in

  • Youtube
  • Twitter
  • RSS