• Hoppa till huvudnavigering
  • Hoppa till huvudinnehåll
  • Hoppa till det primära sidofältet

Femte juli Nätet till folket!

Nätet till folket!

  • Om oss

artificiell intelligens

Kritiska röster om EU:s nya regelverk för AI

22 april 2021 av Henrik Alexandersson Lämna en kommentar

I går presenterade EU-kommissionen sitt »Proposal for a Regulation on a European approach for Artificial Intelligence«.

Som vi tidigare rapporterat – utifrån läckt material  – vill EU-kommissionen ha ett förbud mot användning av AI för övervakning. Detta gäller speciellt övervakning kopplad till kameraövervakning med ansiktsigenkänning i realtid. Dock är detta inget heltäckande förbud, utan innehåller ett antal undantag och brasklappar.

Nu börjar reaktionerna på förslaget droppa in. Sarah Chander, Senior Policy Lead on AI hos European Digital Rights (EDRi) säger:

»Whilst it is positive that the Commission acknowledges that some uses of AI are simply unacceptable and need to be prohibited, the draft law does not prohibit the full extent of unacceptable uses of AI and in particular all forms of biometric mass surveillance. This leaves a worrying gap for discriminatory and surveillance technologies used by governments and companies. The regulation allows too wide a scope for self-regulation by companies profiting from AI. People, not companies need to be the centre of this regulation.«

Lotte Houwing, från nederländska Bits of Freedom:

»Biometric mass surveillance reduces our bodies to walking barcodes with the intention of judging the links between our data, physical appearance and our intentions. We should protect this sensitive data because we only have one face, which we cannot swap or leave at home. Once we give up this data we will have lost all control.«

ZDNet rapporterar:

»For Nick Holliman, professor at Newcastle University’s school of computing, the vagueness of the EU’s new rules reflect a lack of understanding of a technology that takes on many different shapes. ”There are risks of harm from not regulating AI systems, especially in high-risk areas, but the nature of the field is such that regulations are being drafted onto a moving target,” Holliman tells ZDNet.

In practice, says Holliman, the regulation seems unworkable, or designed to be defined in detail through case law – and the very idea of having to worry about this type of overhead is likely to drive many businesses away.«

Ytterligare ett citat från samma källa:

»”The EU has wider issues to do with the tech ecosystem: it’s very bureaucratic, it’s hard to get funding, it’s a top-down mentality,” Wolfgang Fengler, lead economist in trade and competitiveness at the World Bank, tells ZDNet. ”The challenge is that these new rules can be seen as business-unfriendly – and I’m not talking for Google, but for small startups operating in the EU.”«

Den tjeckiske ledamoten av Euopaparlamentet, piratpartisten Marcel Kolaja säger:

»The Commission’s plan on AI still leaves some loopholes. Even though the Commission pretends that practices such as biometric identification are banned, in reality, wide exemptions still remain. But these practices could easily be exploited by governments and lead to mass surveillance. And that is unacceptable for us. We have to set clear rules for AI that will protect the freedom of our citizens and will not discriminate against anyone of them. Once the proposal comes to “our table” in the Parliament, I will work to bring the necessary adjustments to the regulation.«

Man kan även notera att förslaget belyser ett problem med hela EU:s beslutsprocess. Med en reglering för hela EU, införd uppifrån, riskerar man att skapa single points of failure. Vilket kan ställas i kontrast mot om olika länder utformar sin egen politik och med tiden lär sig av varandras erfarenheter.

Och det är lite som med EU:s Digital Services Act – man sätter upp ett stelt regelverk för något som ständigt genomgår en dynamisk förändring.

Resurser:
• EDRi: Artificial Intelligence and Fundamental Rights: Document Pool »

Arkiverad under: Citat, EU, Övervakning, Storebror Taggad som: AI, artificiell intelligens

EU: AI och övervakning – regler med många undantag

14 april 2021 av Henrik Alexandersson 1 kommentar

EU-kommissionens förslag till reglering av artificiell intelligens (AI) har läckt ut via olika media.

Bloomberg rapporterar följande:

  • AI systems used to manipulate human behavior, exploit information about individuals or groups of individuals, used to carry out social scoring or for indiscriminate surveillance would all be banned in the EU. Some public security exceptions would apply.
  • Remote biometric identification systems used in public places, like facial recognition, would need special authorization from authorities.
  • AI applications considered to be ‘high-risk’ would have to undergo inspections before deployment to ensure systems are trained on unbiased data sets, in a traceable way and with human oversight.
  • High-risk AI would pertain to systems that could endanger people’s safety, lives or fundamental rights, as well as the EU’s democratic processes — such as self-driving cars and remote surgery, among others.
  • Some companies will be allowed to undertake assessments themselves, whereas others will be subject to checks by third-parties. Compliance certificates issued by assessment bodies will be valid for up to five years.
  • Rules would apply equally to companies based in the EU or abroad.

Särskilt intressant är att titta på undantagen. Till exempel kommer dessa regler inte att gälla för militär verksamhet. Vidare är »public security exceptions« en brasklapp som i praktiken kan öppna för vad som helst.

Medias rubriker talar om att EU skulle införa ett förbud mot AI-stödd ansiktsigenkänning. Vilket inte är vad som står i den läckta texten. Istället talas om »special authorization from authorities« – vilket är ytterligare en brasklapp som ger politiker och myndigheter stort svängrum.

Läckta texter är ofta arbetstexter som kan komma att ändras innan de läggs fram, så det ovanstående kan komma att ändras. I detta fall väntas ett skarpt förslag från EU-kommissionen den 21 april. Förslaget skall sedan knådas och godkännas av medlemsstaterna och av Europaparlamentet.

Relaterat: EDRi om AI och grundläggande rättigheter (PDF) »

Arkiverad under: EU, Länktips, Övervakning, Säkerhet Taggad som: AI, artificiell intelligens

Live kl 15:30: Europaparlamentet håller hearing om AI

6 november 2019 av Henrik Alexandersson Lämna en kommentar

Europaparlamentets utskott för rättsliga frågor (JURI) anordnar idag en hearing om etik och artificiell intelligens – som streamas live för den som är intresserad.

»MEPs will also hold an exchange of views on Ethics in Artificial Intelligence at 15.30 with Andrea Renda, member of the High Level Experts Group on Artificial Intelligence (AI HLEG).«

Politisk kontroll över AI känns som en fråga som man bör hålla ögonen på.

Livestreamen hittar du här. Start 15:30 (kan även ses i efterhand) »

Pressmeddelande: Legal Affairs MEPs will discuss better law making and ethics in AI »

Arkiverad under: EU Taggad som: AI, artificiell intelligens

Ett ovanligt sansat samtal om AI

25 januari 2019 av Henrik Alexandersson Lämna en kommentar

Det här är intressant – och har till skillnad från mycket annat som sägs om AI något att tillföra.

Via Axess TV:

”Artificiell intelligens (AI) klarar redan att utföra ytterst avancerade uppgifter. Fast man måste ha klart för sig att det är stor skillnad mellan förmåga och förståelse. Det är lätt att låta sig luras av den mekaniska skickligheten och börja lita för mycket på robotar alltför tidigt. Det säger Nicklas Berild Lundblad i samtal med programledaren PJ Anders Linder. Lundblad ser ingen risk för att AI ska göra människan överflödig på arbetsmarknaden. Om det finns något orosmoment så är det att mänskligheten misslyckas med att utveckla den AI som behövs för att lösa våra komplexa problem. Nicklas Berild Lundblad är fil dr i informatik och adjungerad professor vid KTH.”

Youtube »

Arkiverad under: Forskning, Spaning Taggad som: artificiell intelligens

Pornhub inför ansiktsigenkänning

13 oktober 2017 av admin Lämna en kommentar

Den amerikanska porrsajten Pornhub berättar i ett pressmeddelande att de håller på att införa ansiktsigenkänning av personerna som förekommer i videorna på sajten.

Genom maskininlärning har Pornhub lyckats få systemet att känna igen 10 000 professionella porrstjärnor, vars filmer nu kan hittas lättare av besökarna. Hittills har man skannat igenom 50 000 filmer, men under det kommande året ska Pornhubs samtliga fem miljoner videor skannas.

Naturligtvis väcker detta frågor. Till exempel om hur ansiktsigenkänning påverkar de glada amatörer som lägger upp sina egna filmer från sovrummet. I nästa steg skulle ansiktsigenkänning kunna kopplas till sociala media-konton, vilket kanske skulle ses som olyckligt av många.

Detta är Pornhub medvetna om, och kommer därför bara tillämpa ansiktsigenkänningen på kända porrstjärnor. Men som tyska Netzpolitik skriver:

Även om Pornhub använder teknologin etiskt oklanderligt, så är det inte uteslutet att tredje part kan använda den allt lättillgängligare mjukvaran för ansikts- och mönsterigenkänning för att avslöja skådespelare och även offer för hemliga inspelningar, för att stalka dem eller pressa dem.

(Auch wenn Pornhub die Technologie ethisch einwandfrei anwendet, ist nicht ausgeschlossen, dass die in den nächsten Jahren immer einfacher verfügbare Software für Gesichts- und Mustererkennung von Dritten genutzt werden kann, um Darstellerinnen und Darsteller sowie Opfer heimlicher Aufnahmen zu enttarnen, zu stalken oder unter Druck zu setzen.)

Pornhub grundades 2007 och säger sig vara världens största porrsajt med över 80 miljoner besökare per dag.

Trevlig helg!

Arkiverad under: Forskning, Världen Taggad som: ansiktsigenkänning, artificiell intelligens, maskininlärning, mönsterigenkänning, porr

Johann Scheff

Ansiktsigenkänning den nya rasbiologin?

8 september 2017 av admin 4 kommentarer

En ny studie visar att en dator genom mönsterigenkänning av ansiktsbilder kan gissa rätt på en persons sexualitet i 80 procent av fallen vad gäller män och i 74 procent av fallen vad gäller kvinnor. Detta är en högre träffsäkerhet än hos människor. Dessutom ökade datorns träffsäkerhet till 91 respektive 83 procent om den matades med fem bilder av försökspersonen.

Det som ska gissas är om personer på en dejtingsajt identifierar sig som homo- eller heterosexuella. TNW beskriver mönstret som framträdde:

What they found was, gay men tend to have “gender-atypical” features, expressions, and grooming styles. Simply put, to the algorithm, these men often appeared more feminine and often had narrower jaws, longer noses, and larger foreheads than straight men. Gay women were the opposite, generally having larger jaws and smaller foreheads.

Beskrivningen hade kunnat vara tagen från Magnus Hirschfelds Institut für Sexualwissenschaft, som mätte kropparna på homosexuella män och kvinnor i 1920-talets Berlin, för att stärka tesen om ett ”tredje kön”. Sedan andra världskriget har den typen av mätande av människor ansetts kontroversiell, och Hirschfelds idéer om ett tredje kön – framförallt att detta skulle manifestera sig kroppsligt – har förkastats av gayrörelsen. Men allt går i vågor och numera är tankar om ett tredje kön inte bara rumsrena utan närmast mainstream – tänk hen.

Jag deltog i tyska Netzpolitiks årliga konferens den 1 september 2017, där Maya Indira Ganesh talade om olika slags forskning på ansiktsigenkänning:

Maya Indira Ganesh, Netzpolitik NP13, Berlin 1 september 2017

Hon berättade att hon sett ett föredrag av Michal Kosinski, medförfattare till den nya studien, där han berättade om sin forskning på ansiktsigenkänning av människor som identifierar sig som homo- och heterosexuella:

And the next slide he showed us was a map with all the places in the world where homosexuality is criminalized and in some places punishable by death, and he said: ”Wouldn’t it be really unfortunate if this kind of technology was available to governments in these places?” I think he was concerned, but that did not make him think about the technology he was developing.

Det är den eviga frågan: Är det etiskt försvarbart att forska på sådant som kan användas i ont syfte?

Michal Kosinski skapade senast rubriker när hans företag Cambridge Analytica kunde gissa sig till en hel del saker om facebookanvändare baserat på deras gillningar. Se HAX post How dangerous is Big Data? från januari 2017. Företaget har även ansetts ha haft en del i Donald Trumps seger i det amerikanska presidentvalet 2016.

Huvudbild: Johann Scheff, en ung prostituerad man i Berlin 1932. Homosexuell? Heterosexuell?

Läs mer

  • Michal Kosinski, Yilun Wang: Deep neural networks are more accurate than humans at detecting sexual orientation from facial images
  • TNW: This AI knows whether you’re gay or straight by looking at a single photo
  • Techcrunch: AI that can determine a person’s sexuality from photos shows the dark side of the data age

Se hela Maya Indira Ganesh föredrag här:

Arkiverad under: Forskning, Världen Taggad som: AI, artificiell intelligens, HBTQ, homosexualitet, LGBT, maskininlärning, Michal Kosinski, mönsterigenkänning, Yilun Wang

Primärt sidofält

Nätfrihet och integritet!

Femte juli är en nätpolitisk nyhetssajt som står på internetanvändarnas sida. Läs mer.

  • Twitter: Femtejuli
  • Youtube
  • Soundcloud: 5july
  • RSS-flöde

Aktuellt från Twitter

Retweet on Twitter Femte juli Retweeted
piratpartiet Piratpartiet @piratpartiet ·
8h

Femte juli-stiftelsen skriver: Statligt ”Bank-ID”?
https://femtejuli.se/2023/01/31/statligt-bank-id/

Retweet on Twitter Femte juli Retweeted
echo_pbreyer Patrick Breyer #JoinMastodon @echo_pbreyer ·
8h

🇬🇧I have been assessed as MEDIUM risk of committing crime in the future according to @fairtrials.
We need to ban both #BiometricMassSurveillance and #predictivePolicing in the #AIAct! #AutomatedInjustice
Take the quiz: https://www.fairtrials.org/predictive-policing/?lang=de

Retweet on Twitter Femte juli Retweeted
echo_pbreyer Patrick Breyer #JoinMastodon @echo_pbreyer ·
4h

🇬🇧 Without our votes, the LIBE Committee approves that EU countries will in future have direct access to your #subscriberdata, #trafficdata, #locationdata and #contentdata (#eEvidence). Why this is dangerous: https://www.eco.de/wp-content/uploads/2022/11/e-evidence-letter-political-trilogue-22112022.pdf

Retweet on Twitter Femte juli Retweeted
computersweden Computer Sweden @computersweden ·
4h

Certifikat för kodsignering stulna i Github-intrång https://computersweden.idg.se/2.2683/1.775722/kodsigneringscertifikat-stulna-i-github-intrang?utm_source=dlvr.it&utm_medium=twitter

Retweet on Twitter Femte juli Retweeted
evasimon_info Eva Simon @evasimon_info ·
4h

Listen to this discussion on why a strong EMFA is needed across the EU 👇
- plural media market
- Transparency of media ownership
- reliable Public Service Media
- protection of journalist sources
- protection against Pegasus and other spywares
- limits on state advertising
A https://twitter.com/EP_Justice/status/1620433093109710851

Prenumerera på inlägg


Loading

Senaste inlägg

  • Statligt ”Bank-ID”?31 januari 2023
  • EU-kommissionen: Övervakning är viktigare än mänskliga rättigheter25 januari 2023
  • ChatControl – granskning av EU-kommissionens förslag23 januari 2023
  • ChatControl – nu är det skarpt läge i EU, men regeringen vill inte tala om saken19 januari 2023
  • PP: EU-kommissionär Ylva Johansson ljuger om #ChatControl17 januari 2023

Senaste kommentar

  1. Statligt ”Bank-ID” om Ett europeiskt eID – snart i din mobil31 januari 2023

    […] att välja eID måste även fungera med EU:s planerade digitala plånbok (EU:s eIDAS Regulation). Det talas om att denna…

CC BY 4.0 · Logga in

  • Soundcloud
  • Youtube
  • Twitter
  • RSS