Framåt sommaren kan alla företag som förmedlar elektroniska meddelanden människor emellan tvingas att granska allt. Detta kommer att ske med automatiska filter. Flaggat material kommer sedan att översändas till relevanta myndigheter och organisationer, utan föregående mänsklig granskning.
Ledamoten av Europaparlamentet, Patrick Breyer (PP,DE) skriver:
»The EU wants all private electronic messages to be monitored and searched by unreliable algorithms for possible child pornographic content. Providers of e-mail, messenger and chat services are to be allowed to search the content of all private messages without suspicion for known and unknown child and youth pornography and for the “initiation of sexual contacts” with minors – also with the help of error-prone “artificial intelligence”. If an algorithm flags a message as suspicious, message content and customer data may be disclosed to law enforcement agencies and non-governmental organisations worldwide, without human review. The users reported will never know about this, regardless of the outcome of the investigation.
Until now, only major US services such as GMail, Outlook.com and Facebook Messenger are indiscriminately screening all private messages. However, the EU Commission wants to oblige all providers to do so in future.«
Den här gången är det alltså sexuellt utnyttjande av barn som används som murbräcka. Vilket är en fiffig teknik – eftersom i princip ingen försvarar sådana övergrepp. På så sätt kan man tysta eller i vart fall minska kritiken mot förslaget. Men vi vet av erfarenhet att övervakning som sätts upp i ett syfte tenderar att drabbas av ändamålsglidning. När verktygen väl är på plats är det lätt ordnat att utöka övervakningen till att även omfatta annat.
Därför kan det nog vara klokt att inte sända några nakenbilder alls, inte ens av samtyckande vuxna. Utgå från att de kan komma att hamna på drift och eventuellt användas på annat sätt än det avsedda.
»You could be wrongfully suspected of possessing child pornography. US corporations algorithms often report perfectly legal holiday photos of children on the beach to the police – up to 90% of the algorithmically generated reports are unfounded. If you are sent unsolicited illegal material you will also be reported to the police. Teenagers who send self-generated nude pictures are particularly at risk of being reported – 40% of investigations for “child pornography” in Germany target minors.«
Men det är inte den enda risken:
»You could be in big trouble the next time you travel abroad. Reports are forwarded to various countries like the US, which lacks basic data protection rules – with unforeseeable consequences for you.
Your private messages and flirtations can be read by employees of US corporations if algorithms wrongfully flag you for „soliciting minors“.«
Till detta skall man lägga EU:s (och andras) enträgna försök att få tillgång till bakdörrar till krypterade meddelandetjänster.
Hur detta går ihop med det generella förbudet mot övervakning (som även finns kvar i the Digital Services Act) är högst oklart. Det samma gäller skyddet för privat korrespondens, som är en konventionsskyddad grundläggande mänsklig rättighet.
Bara vetskapen om att alla meddelanden kommer att granskas ställer naturligtvis till det för alla som sänder (legitim) känslig information. Dina meddelanden till kollegor, läkare, psykolog, media och annat som kan vara känsligt kommer att granskas och kan flaggas av misstag. Detta för att inte tala om hur besvärligt det kommer att bli för visselblåsare och andra som avslöjar hemligheter som myndigheter och andra inte vill att folket skall få vetskap om.
Man räknar, som sagt, med att 90% av alla flaggningar är felaktiga.
En första nyckelvotering kan komma att äga rum i Europaparlamentet redan under februari månad.