• Hoppa till huvudnavigering
  • Hoppa till huvudinnehåll
  • Hoppa till det primära sidofältet

Femte juli

Nätet till folket!

  • Om oss
  • Remissvar

Faran med dåliga AI-system i statens tjänst

13 april 2022 av Henrik Alexandersson

Myndigheters användning av AI för kontroll av medborgarna har redan fått förfärande konsekvenser. Nu vill EU:s franska ordförandeskap utöka användningen.

I Nederländerna använde skattemyndigheten en dålig självlärande algoritm för att komma till rätta med bidragsfusk bland barnfamiljer. Resultatet blev katastrofalt.

Tiotusentals oskyldiga familjer drabbades av stora återbetalningskrav, som ödelade deras ekonomier. Människor begick självmord. Tusentals barn togs ifrån sina familjer.

Nu har skattemyndigheten dömts till 3,7 miljoner euro i böter. Regeringen tvingades avgå. Och tiotusentals människor har fått sina liv ödelagda.

Det kan hända igen – Frankrike driver på.

Detta kan vara bra att känna till när EU nu är på väg att sjösätta sin AI Act. Hittills har man varit försiktig vad gäller att använda AI för brottsbekämpning, just på grund av att det ibland kan gå fruktansvärt fel.

Nu flaggar det franska EU-ordförandeskapet för en kursändring som leder till ökad användning av AI bland de rättsvårdande myndigheterna. Speciellt gäller detta polisens användning av biometrisk data.

Vilket i sin tur ligger helt i linje med EU:s långsiktiga ekonomiska stöd till system som samkör bland annat kameraövervakning med ansiktsigenkänning i realtid, övrig biometrisk data, AI-baserad beteendeanalys samt myndigheternas existerande och nya register. Redan för tio år sedan varnades för konsekvenserna av detta.

Inget datasystem är bättre än hur det utformas. Och självlärande AI-system tycks tendera att förvärra ogenomtänkt input över tid.

Som vanligt är det den som är oskyldig som har mest att frukta.

Länkar:
• Dutch scandal serves as a warning for Europe over risks of using algorithms »
• EU: AI Act: Plans to loosen controls on law enforcement use of artificial intelligence »

• Civil society calls on the EU to ban predictive AI systems in policing and criminal justice in the AI Act »

Dela på Facebook Dela på X (Twitter) Dela på Reddit Dela på E-post

Arkiverad under: Dataskydd, EU, Länktips, Övervakning, Rättssäkerhet, Storebror Taggad som: AI, AI Act, Frankrike, Indect

Femte juli drivs av den ideella 5 juli-stiftelsen. Stöd gärna vårt arbete genom att swisha ett bidrag till 123 194 47 50 eller bära våra kläder!

Läsarkommentarer

Kommentarer

  1. Pewe säger

    13 april 2022 kl. 22:34

    Du ska nog vara tydlig med att algoritmen i sig troligen inte är dålig utan snarare underlaget den fått för att lära upp sig. Det finns ganska få sätt att implementera en AI men desto fler sätt att träna den och underlaget för att träna dem är oftast dåligt till uselt, därför är det så otroligt viktigt att om en myndighet vill driftsätta en AI att befolkningen inte bara har tillgång till algoritmen utan även underlaget för träning och parametrarna man satt för att träna den, utan den infon kan man aldrig replikera AI’n och därför aldrig avgöra var problemet ligger.
    Politiker bör hålla sig till att stifta lagar och myndigheterna till att efterfölja dem inom de ramarna politikerna sagt att lagarna avgränsas av, AI varken bör eller skall implementeras i oficiella system som är styrda av lag.

Primärt sidofält

Varning för Chat Control!


EUs nya massövervakning är nu farligt nära att bli verklighet. Vi har samlat allt du behöver veta på vår specialsida om Chat Control!

Nyhet: Merch!

Visa ditt stöd för ett fritt internet genom att bära våra kläder – här hittar du vår shop!

Prenumerera på inlägg


Loading

Senaste inlägg

  • Var ett fritt och öppet internet bara en parentes?11 maj 2026
  • Sociala medier är barnens sista fria rum10 maj 2026
  • Åldersgränser för sociala medier – EU mot verkligheten8 maj 2026
  • Europol bryter mot lagen – igen7 maj 2026
  • Flopp för Australiens åldersgräns för sociala medier5 maj 2026
  • X: Femtejuli
  • Youtube
  • RSS-flöde

CC BY 4.0 · Logga in

  • Youtube
  • Twitter
  • RSS