Live kl 15:30: Europaparlamentet håller hearing om AI

Europaparlamentets utskott för rättsliga frågor (JURI) anordnar idag en hearing om etik och artificiell intelligens – som streamas live för den som är intresserad.

»MEPs will also hold an exchange of views on Ethics in Artificial Intelligence at 15.30 with Andrea Renda, member of the High Level Experts Group on Artificial Intelligence (AI HLEG).«

Politisk kontroll över AI känns som en fråga som man bör hålla ögonen på.

Livestreamen hittar du här. Start 15:30 (kan även ses i efterhand) »

Pressmeddelande: Legal Affairs MEPs will discuss better law making and ethics in AI »

En av EU fastställd värdegrund för AI?

EU:s ministerråd har diskuterat artificiell intelligens. Speciellt upprymda tycks man vara över möjligheten att använda AI för att identifiera tal, video och bilder som man vill få bort från nätet.

Man har även en vision om digitala AI-assistenter:

”Combined with a natural language interface, this technology could form the basis for a digital assistant. Such an assistant could take instructions through a natural written and spoken discussion, providing a common interface to a variety of applications at the same time, and adapt to the needs of the user. The same technology could power customer service bots that answer questions from citizens. In spoken language mode, the assistant would be helpful to police patrols busy dealing with people involved in incidents. Developing smart digital assistants is vital for making future information overload manageable, but at the same time, we must ensure that the resulting system is transparent to the user.”

Det är säkert, ur ministrarnas perspektiv, önskvärt. Dock kan man fråga sig om AI-verktyg bäst växer fram om de formuleras, specificeras och blir låsta av politiker – eller om spontan utveckling, erfarenhet och best practice kanske är en bättre väg.

Ministrarna funderar vidare…

A society permeated with AI may become too complex to comprehend, which would entail a fundamental lack of transparency. This can be mitigated through system design: for example, a digital assistant should be required to be able to explain its reasoning, and undergo an ethical audit.”

Men bör detta vara en politisk fråga?

Och vad menas egentligen med att AI skall underställas »an ethical audit«? I så fall måste vi först komma överens om ett gemensamt gällande etiskt regelverk. Givet att detta skall fungera mot ett AI som enligt den populära uppfattningen är »smartare«, mer logiskt och mer rationellt än människor – så kan man ana att politiskt fastställda etiska ramar kan orsaka en del absurda syntaxfel.

Ministrarna förutspår även att AI kan möjliggöra autonoma miniatyrdrönare med ansiktsigenkänning. Och om det gläder dem, då skulle de bara veta vilka oerhört kraftfulla verktyg för övervakning som AI kan komma att sätta i deras händer – som de ännu inte ens kan föreställa sig.

Där har politiken en uppgift – att sätta lagliga gränser för hur överheten får använda AI för att övervaka folket.

Länk: EU plans for Artificial Intelligence (AI): Get ready to meet you friendly ”digital assistant” »

Behöver AI en värdegrund? I så fall vilken?

Debatten om artificiell intelligens – AI – är på väg in på ett nytt spår. Nu handlar det om vilken »värdegrund« AI-systemen skall utrustas med.

Här finns två kolliderande synsätt: Antingen att AI-system skall utgå från verkliga förhållanden, vara objektiva och neutrala – för att åstadkomma optimala resultat. Eller att framtidens AI bör utrustas med något slags värdegrund.

Båda synsätten har sina problem.

Ett »neutralt« AI kan bli överdrivet utilitaristiskt på ett sätt som strider mot humanistiska principer, rättsstatens grunder och de demokratiska värdena.

Ett moraliskt riggat AI måste å andra sidan matas med något slags värdegrund. Frågan är då vilken värdegrund. Och vem som skall bestämma över detta.

(Sedan är AI naturligtvis inte ett universellt system, utan många olika.)

Detta är frågor som redan diskuteras och där det kan bli fråga om politiska beslut.

EU vill ta fram ett etiskt regelverk för AI. I den sammanfattande beskrivningen kan vi bland annat läsa… »AI systems should be used to enhance positive social change and enhance sustainability and ecological responsibility.« Vilket i sig är parametrar som öppnar för många olika, subjektiva tolkningar.

Samtidigt menar en del forskare att det är ett problem att AI främst utvecklas av vita, heterosexuella män…

Man kan även fundera över vad AI kommer att innebära vad gäller frågor som centralplanering, övervakning och maktutövning i vidare termer. Dessa verktyg kommer att kunna användas för att manipulera folket – och för att förtrycka det. I det fördolda eller öppet. Detta är dock en aspekt av frågan som i princip inte alls diskuteras.

Länkar:
• Europe to pilot AI ethics rules, calls for participants »
• Forskare varnar för diskriminerande artificiell intelligens »

De verkliga riskerna med AI

Artificiell intelligens – AI – är begreppet på allas läppar. Och debatten tycks till största delen röra sig i något slags science fiction-kontext. Tillspetsat är frågan om AI kan komma att bli självständigt och hota mänskligheten. Det är förvisso en intressant diskussion. Men det finns mer närstående och mer akuta frågor att diskutera. Detta speciellt som organisationer som EU, G7 och G20 nu försöker utforma en politik på området.

• AI – under vems kontroll och med vilket syfte?

AI – oavsett om det handlar om kompletta system eller enskilda applikationer – är oerhört kraftfulla verktyg. De kan till exempel användas för att manipulera opinionen, filtrera information eller rent av för att förtrycka människor.

Diskussionen har hitintills mest handlat om hur de etablerade nätjättarna kan komma att använda sådana verktyg. Vilket naturligtvis är på sin plats. Men vi får inte glömma hur de kan användas i statens och politikens händer. Detta speciellt i en tid då yttrandefriheten blir allt mer kringskuren och det fria flödet av information stryps genom politiska beslut.

Vi har redan system för massövervakning och datalagring som saknar motstycke i historien. Vad händer när all denna information kan analyseras, systematiseras och kontrolleras i stor skala med AI eller AI-liknande verktyg?

Hur kommer det att bli när överheten inser att AI kan användas för att manipulera folkets känslor och för politisk »nudging«? Eller för att påverka olika åsikters genomslag och spridning?

Här gäller det att vara ytterst uppmärksam på alla politiska initiativ – och att se till att de medborgerliga fri- och rättigheterna upprätthålls även i online-världen. Detta är rättigheter som redan urholkas i många små steg, inte minst genom beslut i EU.

• AI på riktigt?

Min andra farhåga är av en mer teknisk karaktär. Att utveckla AI är en gigantisk uppgift. Och alla vill vara med på tåget. Risken är att vi (i vart fall inledningsvis) kommer att möta mycket »fusk-AI« som egentligen inte är AI, utan mer en anpassning och återanvändning av redan existerande koncept och systemmoduler. Men som ändå kommer att användas och presenteras som om det handlade om fullvärdig AI.

Detta kan få märkliga och oönskade konsekvenser. Vi kan få se mycket av övervakning, kontroll och datalagring re-lanseras som AI med något överordnat syfte – trots att det egentligen bara handlar om vanlig massövervakning och vilja att snoka i människors privatliv.

AI kan i sig vara en risk. Och AI i EU:s, statens och politikernas händer är garanterat en risk.

/ HAX

• Techcrunch: Europe to pilot AI ethics rules, calls for participants »
• EU-kommissionen: Ethics guidelines for trustworthy AI »
• Europaparlamentet: EU planerar att investera 9,2 miljarder euro i viktig digital teknik »

Johann Scheff

Ansiktsigenkänning den nya rasbiologin?

En ny studie visar att en dator genom mönsterigenkänning av ansiktsbilder kan gissa rätt på en persons sexualitet i 80 procent av fallen vad gäller män och i 74 procent av fallen vad gäller kvinnor. Detta är en högre träffsäkerhet än hos människor. Dessutom ökade datorns träffsäkerhet till 91 respektive 83 procent om den matades med fem bilder av försökspersonen.

Det som ska gissas är om personer på en dejtingsajt identifierar sig som homo- eller heterosexuella. TNW beskriver mönstret som framträdde:

What they found was, gay men tend to have “gender-atypical” features, expressions, and grooming styles. Simply put, to the algorithm, these men often appeared more feminine and often had narrower jaws, longer noses, and larger foreheads than straight men. Gay women were the opposite, generally having larger jaws and smaller foreheads.

Beskrivningen hade kunnat vara tagen från Magnus Hirschfelds Institut für Sexualwissenschaft, som mätte kropparna på homosexuella män och kvinnor i 1920-talets Berlin, för att stärka tesen om ett ”tredje kön”. Sedan andra världskriget har den typen av mätande av människor ansetts kontroversiell, och Hirschfelds idéer om ett tredje kön – framförallt att detta skulle manifestera sig kroppsligt – har förkastats av gayrörelsen. Men allt går i vågor och numera är tankar om ett tredje kön inte bara rumsrena utan närmast mainstream – tänk hen.

Jag deltog i tyska Netzpolitiks årliga konferens den 1 september 2017, där Maya Indira Ganesh talade om olika slags forskning på ansiktsigenkänning:

Maya Indira Ganesh, Netzpolitik NP13, Berlin 1 september 2017

Hon berättade att hon sett ett föredrag av Michal Kosinski, medförfattare till den nya studien, där han berättade om sin forskning på ansiktsigenkänning av människor som identifierar sig som homo- och heterosexuella:

And the next slide he showed us was a map with all the places in the world where homosexuality is criminalized and in some places punishable by death, and he said: ”Wouldn’t it be really unfortunate if this kind of technology was available to governments in these places?” I think he was concerned, but that did not make him think about the technology he was developing.

Det är den eviga frågan: Är det etiskt försvarbart att forska på sådant som kan användas i ont syfte?

Michal Kosinski skapade senast rubriker när hans företag Cambridge Analytica kunde gissa sig till en hel del saker om facebookanvändare baserat på deras gillningar. Se HAX post How dangerous is Big Data? från januari 2017. Företaget har även ansetts ha haft en del i Donald Trumps seger i det amerikanska presidentvalet 2016.

Huvudbild: Johann Scheff, en ung prostituerad man i Berlin 1932. Homosexuell? Heterosexuell?

Läs mer

Se hela Maya Indira Ganesh föredrag här:

Klicka här för att visa innehåll från YouTube