Apple skjuter upp sin skanning av användarnas meddelanden och bilder på iCloud. Samtidigt kommer signaler om att man kommer att övervaka sökningar och Siri i jakt på olagligt material.
Efter protester har Apple meddelat att man skjuter upp skanning av meddelanden (text och eventuella bilder) i jakt på olagliga kontakter med barn. Man skjuter även upp skanningen av användarnas lagrade bilder på ICloud.
Detta är möjligen en god nyhet. Men att Apple skjuter upp denna form av övervakning av sina användare innebär inte att förslaget skrotats. Det har bara lagts på is för tillfället.
I samband med att Apple meddelade detta dök det upp en annan intressant sak:
»Siri and Search are also being updated to intervene when users perform searches for queries related to CSAM. These interventions will explain to users that interest in this topic is harmful and problematic, and provide resources from partners to get help with this issue.«
Man tänker alltså låta Siri och nätsökningar tolka användarnas förfrågningar för att utreda om de håller på med något som kan vara kopplat till sexuellt utnyttjande av barn. Även om få kanske har invändningar mot just detta, skall man ha klart för sig att syftet snabbt kan utökas eller förändras.
Vi är alltså på väg mot en situation där sökmotorer förväntas tolka vad vi vill och håller på med – och sedan tillrättavisa oss ifall vi gör något som den som för tillfället kontrollerar systemet ogillar.
Sorry Dave, I cannot do that.
• Apple: Expanded Protections for Children »
• EFF: Why EFF Flew a Plane Over Apple’s Headquarters »
Relaterat:
• Forskare varnar för Apples nya meddelande- och bildkontroll »
• Femte juli protesterar mot Apple »