New Zealand Shooting Wasn’t Flagged When it Came on Facebook--Why?

김동수 기자 / 기사승인 : 2019-03-21 17:39:26
  • 카카오톡 보내기
  • -
  • +
  • 인쇄
[Photo source : Flickr]
[Photo source : Flickr]

[스페셜경제= Dongsu Kim]


Race, unfortunately, has continued to become a hot-button topic even in recent years, and with the New Zealand mosque shooting, it has only continued to become a lingering question in everyone’s mind as to why, in the first 17 minutes that the live feed of the mosque shooting came on to Facebook, was it not reported?


Such is the question on everyone’s mind. And it gets worse when Facebook reports that the user report actually came until 12 minutes after the broadcast ended. That in itself is worrying, and though Facebook acted quickly by removing the post “within minutes” after being notified by New Zealand authorities, what of those who watched it?


Facebook has already changed up its filtering systems, as it shares to the US News, and actually have features on-board the platform specifically for flagging this type of content. For instance, there is a feature on every post that allows users to report it to the people Facebook employs to review content.


These people are just one of the ways in which Facebook tracks down violent and disturbing, or fake news content on the platform, and are even helped by something called “computer vision” which detects “97 percent of graphic violence before anyone reports it.”


So, what do we make of it? According to Tim Cigelske, who works as a teacher about social media at Marquette University in Milwaukee, it’s too early to brand all those who failed to report the video as enablers or racists, in large part because not only does Facebook not have access to that specific information, and the fact that most people really won’t really know what to do.


They could be dealing with shock at that moment, or disbelief, or, since it’s on Facebook, a certain internal debate if it was just for entertainment purposes.


"It's like calling 911 in an emergency," likens Cigelske. "We had to train people and make it easy for them. You have to train people in a new way if you see an emergency happening not in person but online."


뉴질랜드 총격 사건 페이스북에 그대로 방송, 왜 차단되지 않았나?


[스페셜경제= 김동수 기자]


인종차별에 관한 논란이 계속되고 있다. 얼마 전 뉴질랜드에서 극단주의자들이 이슬람 사원에 난입해 무차별 총격을 가하는 사건이 발생했다. 범인 중 한 사람은 라이브 방송을 진행하고 있었고, 이 총격 사건은 17분이나 페이스북(Facebook)에서 그대로 방송됐다.


많은 페이스북 사용자들이 이에 대해 궁금증을 참지 못하고 있다. 실제로 이 영상을 본 사람들이 페이스북에 신고한 다음 방송이 중단될 때까지 12분이 더 걸렸다. 페이스북은 여태까지 논란이 되는 포스팅을 빠른 속도로 차단하고 있었다. 그런데 어째서 이번에는 방송이 오래 지속된 것일까?


페이스북은 수준 높은 필터링 시스템을 사용하고 있다. 해당 플랫폼에 게시되는 극단주의적인, 혹은 혐오 발언 등이 담긴 포스팅을 차단하기 위해서다.


이것은 페이스북에서 사람들을 선동할 우려가 있는 폭력적이거나 혼란스러운 가짜 뉴스 콘텐츠를 추적하는 방식 중 하나다. 폭력적인 그래픽의 97%는 컴퓨터 비전으로 걸러진다.


마케트대학에서 소셜 미디어에 대해 가르치는 팀 시겔스크는 "해당 동영상이 인종차별적인 콘텐츠로 플래그 표시가 빠르게 이루어지지 않은 이유는 페이스북이 특정 정보에 접근할 수 없었을 뿐만 아니라 대부분의 사람들이 뭘 해야 할지 몰랐기 때문이다"라고 말했다.


말하자면 시청자들은 순간 지나치게 큰 충격을 받거나, 혹은 이것이 페이스북에서 진행하는 엔터테인먼트(게임이나 영화 등)의 광고라고 생각했을지도 모른다.


시겔스크는 "이것은 응급 상황에서 구조 전화를 하는 것과 같다. 사람들은 누구나 응급 상황이 오면 곧바로 구조대에 전화를 해야지하고 생각하지만 실제 상황에서는 당황하고 만다. 제대로 행동하기 위해서는 미리 훈련을 받아야 한다"고 덧붙였다.



[저작권자ⓒ 스페셜경제. 무단전재-재배포 금지]

김동수 기자

오늘의 이슈

뉴스댓글 >

주요기사

+

많이 본 기사

이슈포커스