• Hoppa till huvudnavigering
  • Hoppa till huvudinnehåll
  • Hoppa till det primära sidofältet

Femte juli

Nätet till folket!

  • Om oss
  • Remissvar

AI

De verkliga riskerna med AI

23 april 2019 av Henrik Alexandersson

Artificiell intelligens – AI – är begreppet på allas läppar. Och debatten tycks till största delen röra sig i något slags science fiction-kontext. Tillspetsat är frågan om AI kan komma att bli självständigt och hota mänskligheten. Det är förvisso en intressant diskussion. Men det finns mer närstående och mer akuta frågor att diskutera. Detta speciellt som organisationer som EU, G7 och G20 nu försöker utforma en politik på området.

• AI – under vems kontroll och med vilket syfte?

AI – oavsett om det handlar om kompletta system eller enskilda applikationer – är oerhört kraftfulla verktyg. De kan till exempel användas för att manipulera opinionen, filtrera information eller rent av för att förtrycka människor.

Diskussionen har hitintills mest handlat om hur de etablerade nätjättarna kan komma att använda sådana verktyg. Vilket naturligtvis är på sin plats. Men vi får inte glömma hur de kan användas i statens och politikens händer. Detta speciellt i en tid då yttrandefriheten blir allt mer kringskuren och det fria flödet av information stryps genom politiska beslut.

Vi har redan system för massövervakning och datalagring som saknar motstycke i historien. Vad händer när all denna information kan analyseras, systematiseras och kontrolleras i stor skala med AI eller AI-liknande verktyg?

Hur kommer det att bli när överheten inser att AI kan användas för att manipulera folkets känslor och för politisk »nudging«? Eller för att påverka olika åsikters genomslag och spridning?

Här gäller det att vara ytterst uppmärksam på alla politiska initiativ – och att se till att de medborgerliga fri- och rättigheterna upprätthålls även i online-världen. Detta är rättigheter som redan urholkas i många små steg, inte minst genom beslut i EU.

• AI på riktigt?

Min andra farhåga är av en mer teknisk karaktär. Att utveckla AI är en gigantisk uppgift. Och alla vill vara med på tåget. Risken är att vi (i vart fall inledningsvis) kommer att möta mycket »fusk-AI« som egentligen inte är AI, utan mer en anpassning och återanvändning av redan existerande koncept och systemmoduler. Men som ändå kommer att användas och presenteras som om det handlade om fullvärdig AI.

Detta kan få märkliga och oönskade konsekvenser. Vi kan få se mycket av övervakning, kontroll och datalagring re-lanseras som AI med något överordnat syfte – trots att det egentligen bara handlar om vanlig massövervakning och vilja att snoka i människors privatliv.

AI kan i sig vara en risk. Och AI i EU:s, statens och politikernas händer är garanterat en risk.

/ HAX

• Techcrunch: Europe to pilot AI ethics rules, calls for participants »
• EU-kommissionen: Ethics guidelines for trustworthy AI »
• Europaparlamentet: EU planerar att investera 9,2 miljarder euro i viktig digital teknik »

Arkiverad under: EU, Forskning, Nätkultur, Övervakning, Privatliv, Rättssäkerhet, Spaning, Storebror, Yttrandefrihet Taggad som: AI

Johann Scheff

Ansiktsigenkänning den nya rasbiologin?

8 september 2017 av admin

En ny studie visar att en dator genom mönsterigenkänning av ansiktsbilder kan gissa rätt på en persons sexualitet i 80 procent av fallen vad gäller män och i 74 procent av fallen vad gäller kvinnor. Detta är en högre träffsäkerhet än hos människor. Dessutom ökade datorns träffsäkerhet till 91 respektive 83 procent om den matades med fem bilder av försökspersonen.

Det som ska gissas är om personer på en dejtingsajt identifierar sig som homo- eller heterosexuella. TNW beskriver mönstret som framträdde:

What they found was, gay men tend to have “gender-atypical” features, expressions, and grooming styles. Simply put, to the algorithm, these men often appeared more feminine and often had narrower jaws, longer noses, and larger foreheads than straight men. Gay women were the opposite, generally having larger jaws and smaller foreheads.

Beskrivningen hade kunnat vara tagen från Magnus Hirschfelds Institut für Sexualwissenschaft, som mätte kropparna på homosexuella män och kvinnor i 1920-talets Berlin, för att stärka tesen om ett ”tredje kön”. Sedan andra världskriget har den typen av mätande av människor ansetts kontroversiell, och Hirschfelds idéer om ett tredje kön – framförallt att detta skulle manifestera sig kroppsligt – har förkastats av gayrörelsen. Men allt går i vågor och numera är tankar om ett tredje kön inte bara rumsrena utan närmast mainstream – tänk hen.

Jag deltog i tyska Netzpolitiks årliga konferens den 1 september 2017, där Maya Indira Ganesh talade om olika slags forskning på ansiktsigenkänning:

Maya Indira Ganesh, Netzpolitik NP13, Berlin 1 september 2017

Hon berättade att hon sett ett föredrag av Michal Kosinski, medförfattare till den nya studien, där han berättade om sin forskning på ansiktsigenkänning av människor som identifierar sig som homo- och heterosexuella:

And the next slide he showed us was a map with all the places in the world where homosexuality is criminalized and in some places punishable by death, and he said: ”Wouldn’t it be really unfortunate if this kind of technology was available to governments in these places?” I think he was concerned, but that did not make him think about the technology he was developing.

Det är den eviga frågan: Är det etiskt försvarbart att forska på sådant som kan användas i ont syfte?

Michal Kosinski skapade senast rubriker när hans företag Cambridge Analytica kunde gissa sig till en hel del saker om facebookanvändare baserat på deras gillningar. Se HAX post How dangerous is Big Data? från januari 2017. Företaget har även ansetts ha haft en del i Donald Trumps seger i det amerikanska presidentvalet 2016.

Huvudbild: Johann Scheff, en ung prostituerad man i Berlin 1932. Homosexuell? Heterosexuell?

Läs mer

  • Michal Kosinski, Yilun Wang: Deep neural networks are more accurate than humans at detecting sexual orientation from facial images
  • TNW: This AI knows whether you’re gay or straight by looking at a single photo
  • Techcrunch: AI that can determine a person’s sexuality from photos shows the dark side of the data age

Se hela Maya Indira Ganesh föredrag här:

Arkiverad under: Forskning, Världen Taggad som: AI, artificiell intelligens, HBTQ, homosexualitet, LGBT, maskininlärning, Michal Kosinski, mönsterigenkänning, Yilun Wang

  • « Go to Föregående sida
  • Sida 1
  • Sida 2
  • Sida 3

Primärt sidofält

Nätfrihet och integritet!

Femte juli är en nätpolitisk nyhetssajt som står på internetanvändarnas sida. Läs mer.

  • Twitter: Femtejuli
  • Youtube
  • Soundcloud: 5july
  • RSS-flöde

Prenumerera på inlägg


Loading

Senaste inlägg

  • EU rullar ut app för åldersverifikation8 maj 2025
  • Svenska folket säger ja till »censur« av media och enskilda7 maj 2025
  • Övervakningsstaten i de kriminellas händer?6 maj 2025
  • Regeringen bygger ut kontrollstaten29 april 2025
  • Kryptering: Rikspolischefen kräver det omöjliga28 april 2025

Senaste kommentar

  1. Chat Control 2 i långbänk om Chat Control 2 – omvända roller i ministerrådet15 mars 2025

    […] Läs mer om de låsta positionerna i EU:s ministerråd: Chat Control 2 – omvända roller i ministerrådet » […]

CC BY 4.0 · Logga in

  • Youtube
  • Twitter
  • RSS