[이코노믹리뷰=홍석윤 기자] 일본에서 쇼핑객들의 몸짓을 감시하고 그들이 물건을 훔칠 것이라는 신호를 찾는데 새로운 인공지능 소프트웨어가 위해 사용되고 있다고 CNN이 초근 보도했다.

도쿄의 스타트업 바아크(Vaak)가 만든 이 소프트웨어 바아크아이(VaakEye)는 쇼핑객의 얼굴을 범죄기록과 조회해 작동시키는 기존의 안면 인식 기술과는 다른 제품이다. 바아크아이는 사람의 행동과 몸짓으로 범죄 행위를 예측한다.

이 회사 창업자인 다나카 료는 이 인공지능의 알고리즘에 10만 시간 상당의 감시 데이터를 주입해 쇼핑객들의 얼굴 표정에서부터 움직임, 심지어 입고 있는 옷까지 모니터하도록 훈련시켰다고 말했다.

바아크아이는 지난 3월 처음 선 보인 후 일본 전역의 50개 매장에서 사용되고 있다.

바아크는 이 소프트웨어를 지역의 편의점에 시험 사용하는 동안, 상품의 도난으로 인한 손실이 77% 감소했다고 주장한다. 전세계 소매매장의 손실을 측정하는 글로벌 소매매장 손실지수(Global Shrink Index)에 따르면, 2017년에 한해 동안 전세계에 소매 매장에서 도난으로 인한 손실이 340억 달러(39조 5천억원)에 달했다. 바아크는 이 소프트웨어가 도난으로 인한 소매 매장의 손실을 줄이는 데 기여할 수 있을 것이다.

도덕적인 질문

그런데 AI를 이용해 도둑을 잡는 것은 여러 가지 측면에서 윤리적 문제를 제기한다.

글로벌 시장조사기관 유로모니터(Euromonitor)의 소매부문 애널리스트 미셸 그랜트는 "이 소프트웨어로 도난을 막으려는 목적으로 특정인을 매장 안에 들어오는 것을 막는 것이 합법적인가, 아니 그 이전에 과연 도덕적인가?"라고 질문했다.

그러나 바아크의 다나카 료는 그것은 소프트웨어 개발자를 탓할 문제는 아니라고 생각한다고 말했다.

"우리는 누가 범죄자인지 결정하지 않습니다. 우리가 제공하는 것은 의심스럽다고 탐지되는 이미지 정보입니다. 범죄자인지를 결정하는 것은 매장이 판단할 문제입니다."

그러나 그것이 바로 영국에서 안면인식 기술을 금지하기 위한 캠페인을 벌이고 있는 인권 자선단체 리버티(Liberty)가 우려하는 것이다.

리버티의 정책 담당자인 한나 코치먼은 "민간 업체에 불과한 소매 업체가 경찰과 유사한 기능을 수행하기 시작하고 있다."고 비판한다.

▲ 도쿄의 스타트업 바아크(Vaak)가 만든 소트웨어 바아크아이(VaakEye)는 보안 카메라 화면을 모니터링해 의심스러운 행동을 포착한다.   출처= Vaak

리버티는 AI가 차별을 부추길 가능성에 대해서도 우려하고 있다. MIT와 스탠포드 대학의 2018년 연구는 여러 상업적인 얼굴 분석 프로그램이 피부 타입과 성별에 관한 편견을 보여준다는 것을 발견했다.

다나카는 바아크의 소프트웨어가 인종이나 성별보다는 행동에 기반을 두고 있기 때문에 그것은 문제가 될 수 없다고 설명한다. 그러나 코치먼은 여전히 회의적이다.

"알고리즘에 기반하는 기술, 특히 인간의 행동과 관련된 기술에, 차별의 가능성은 항상 존재합니다. 인간은 알고리즘이 단순 행동으로 판단하지 않도록 무엇을 의심스럽게 생각해야 하는지를 알고리즘에게 가르쳐야 합니다."

고객 동의

그리고 투명성의 문제도 있다. 코치먼은 다음과 같이 질문한다.

"과연 무슨 일이 일어나고 있는지 사람들이 알고 있는가? 그들이 그에 대해 동의했는가? 그 동의는 의미 있는가? 일반 사람들의 데이터는 어떻게 되는가? 과연 보호되고 있는가? 그렇지 않으면 누구에게 공유되고 있는가?"

유로모니터의 그랜트는 애널리스트는 “소비자들이 지불 인증을 위해 얼굴 인식을 사용하는 경우처럼 편리함을 위해 약간의 프라이버시를 희생할 용의가 있지만, 그것도 그런 기술이 사용되고 있다는 것을 알고 있을 때만 그렇게 할 수 있다”고 말했다.

다나카도 이에 대해서는 이의를 제기하지 않는다. 그는 "고객들이 매장에 들어가기 전에 이런 기술에 대한 고지가 있어야 하며, 그에 따라 고객은 매장에 들어오지 않는 것을 선택할 수 있다”고 말했다.

"정부는 소매점들이 (매장에 사용하고 있는 기술에 대해) 정보를 공개하게 하는 법을 제정할 수 있을 것입니다. 즉 그들이 어디에서 무엇을 분석하고, 그 데이터를 어떻게 그리고 얼마나 오래 사용하는지 같은 것들을 말입니다."

법무법인 필드피셔(Fieldfisher)의 AI 전문가 크리스토퍼 이스덤은 이 기술을 규제하기 위한 법적인 틀이 아직 마련되지 않았다고 말했다.

"어떤 환경에서 이 기술의 사용이 과연 공공 정책의 문제로서 적절한지 또는 바람직한지, 또 누가 그런 것을 결정해야 하는지에 대해 입법 기관과 규제 당국의 명확한 지침이 필요합니다.”