Efter attacken mot en moské i Nya Zeeland har Facebook och Youtube kämpat för att rensa bort nya uppladdningar av den live-stream som sändes av attentatsmannen.
Det rör sig om stora volymer och man har fått använda sig av automatisk filtrering för uppgiften. Detta är dock inte utan problem. EDRi förklarar:
”How many unrelated videos have been wrongfully removed by automatic filters? Facebook says, for example: “Out of respect for the people affected by this tragedy and the concerns of local authorities, we’re also removing all edited versions of the video that do not show graphic content.” This is information that is apparently not in violation of the rules of the platform (or even the law), but that is blocked out of deference to the next of kin.
However empathetic that might be, it also shows how much our public debate depends on the whims of one commercial company. What happens to videos of journalists reporting on the events? Or to a video by a victim’s relative, who uses parts of the recording in a commemorative video of her or his own? In short, it’s very problematic for a dominant platform to make such decisions.”
Det beskriver rätt väl problemet med automatisk filtrering. Resultatet blir överfiltrering utan någon hänsyn till den kontext i vilken publiceringen sker. Vilket i slutändan är till skada för det fria ordet.
EDRi: What the YouTube and Facebook statistics aren’t telling us »
Lämna ett svar