▲ 출처= inteligentsia.net

소셜미디어 플랫폼에서 과격분자의 콘텐츠를 가려매는데 충분한 대처가 이뤄지지 않고 있다는 비판에 대응하기 위해  사회관계망서비스(SNS)  페이스북이 부적절한 콘텐츠를 삭제하기 위해 인공 지능을 사용할 것이라고 발표했다고 뉴욕타임스(NYT)가 15일(현지시간) 보도했다.

현재 건건별로 콘텐츠를 검토하는 인간 모니터링 요원과 더불어 인공 지능을 이용하겠다는 것이다. 개발자들은 인공 지능의 사용이 점차 확대되기를 바란다고 페이스북의 모니카 빅커트 글로벌 정책관리팀장은 밝혔다.

인공 지능 기술은, 사람의 목을 자르거나  끔직한 이미지의 사진이나 동영상 게재 등 페이스북의 이용 조건을 명백히 위반하는 콘텐츠를 확인하고 그런 것들을 올리는 것을 막는 데 최우선 적용된다. 

페이스북은 이날 게시한 블로그에서 인공 지능시스템이 이미 알려진 테러 그룹들을 파악하기 위해사전에 표시된 중요한 문구들을 어떻게 발견해 스스로에게 알리는지를 설명하고 있다.

이 시스템이 과격분자들의 콘텐츠를 퍼뜨리는 페이지나 그룹들과 관련되거나 가짜 뉴스를 만들고 그것을 온라인에 퍼뜨리는 페이스북 사용자들을 찾아내는 것을 알 수 있다는 것이다 .그러나 이 기술은 아직 개발단계이며 전체 맥락을 파악하기 위한 인간 감시요원은 여전히 필요한 실정이다.

페이스북의 브라이언 피쉬맨 테러방지 대책팀장은 그런 검토를 맡고 있는 전문가 150명이 일하고 있으며   이들은 30개국의 언어를 구사한다고 설명했다.

페이스북은 그동안 과격 그룹의 게시물을 모니터하는 데 충분한 노력을 기울이지 않고 있다는 비판을 받아왔다. 영국의 테레사 메이 총리는 지난 달 페이스북을 포함한 인터넷 회사들이 그런 게시물을 모니터하고 막는 데 더 많은 노력을 해야 한다고 촉구했다.

메이 총리는 22명이 숨진 체스터 콘서트 폭발 사고 후  "우리는 이런 극단적 이념들이 자랄 수 있도록 안전한 공간을 허용해서는 안 된다"면서 "엄연한 사실은 인터넷 서비스를 제공하는 대기업들이 그런 공간을 제공하고 있다는 것"이라고 강하게 비판했다.

헤이그의 테러방지 국제센터의 J. M. 버거 위원도, 페이스북 같은 대기업들이, 이슬람국가(IS)와 같은 테러 집단을 지지하는 성명 등과 같은 테러를 정당화하는 것들을 가려 낼 책임이 있다고 강조했다.

버거 위원은 “문제는 누가 과격 분자들이고 누구는 아닌 지 판단하는 것"이라면서 "그것은 지하드 투사들을 가려내는 것 이상의 문제"라면서 "그들이 ISIS나 알 카에다를 말하고 있는지, 백인 우월주의나 신 나찌 운동을 거론하고 있는지 까지 알아내야 한다"고 덧붙였다.

페이스북의 빅커트 팀장은 새 인공 지능 기술이 회사의 조건을 위반한 어떤 형태의 극단 과격 주의에도 대처할 수 있기를 바라고 있다.

그러나, 전자프런티어재단의 질리언 요크 국제 언론자유 소장은 기술에 대한 여전한 의문을 제기한다.

“과연 이 기술이 효과적일지 아니면 도를 넘을 것인가? 이 기술이 사람들이 테러 집단에 참여하는 것을 초기에 막아줄 것인가? 아니면 사람들이 테러에 관한 글을 페이스북에 올리는 것 자체를 금지해 의사 통로를 막는 결과를 초래할 것인가?”