Igår fick Facebooks algoritmer fnatt och började censurera / spam-märka helt seriösa länkade artiklar från etablerad media – vilket fick som konsekvens att folk inte kunde dela dem.
Enligt uppgift skall ett underliggande problem vara att den pågående smittspridningen reducerat Facebooks stab av mänskliga granskare av innehåll. När systemet då började få egna idéer tog det därför ett tag innan det upptäcktes och kunde åtgärdas.
Kan man få ett bättre exempel på riskerna med automatisk filtrering av uppladdat innehåll?
Ändå är det precis vad som krävs med EU:s nya upphovsrättsdirektiv. Då måste allt som laddas upp (bild, text, ljud, rörliga bilder, filer) granskas, analyseras och godkännas. Det samma gäller med den föreslagna EU-regleringen mot terror-relaterat innehåll på nätet – för att kunna blockera visst innehåll måste allt som laddas upp förhandsgranskas och analyseras.
Med tanke på volymerna måste denna granskning utföras av maskiner som saknar känsla för till exempel kontext, även om det förhoppningsvis kommer att finnas något sätt att begära omprövning inför en människa.
EU är på väg att driva oss in i en situation där vi inte bara får förhandscensur – utan även automatiserad förhandscensur utförd av humorfria maskiner.
Det är inte acceptabelt.
Lämna ett svar