▲ 경제협력개발기구(OECD) 회원국을 대상으로 인공지능 관련 강의를 하고 있는 할 아벨슨 MIT 교수.     출처= 뉴욕타임스(NYT) 캡처

[이코노믹리뷰=홍석윤 기자] 매사추세츠 공과대학(MIT)의 저명한 컴퓨터 과학자 할 아벨슨이 한 강의실에서 좌우로 왔다갔다하며 강의에 열중하고 있다. 주제는 인공지능이었고, 그의 학생들은 경제협력개발기구(OECD) 36개국의 고위 정책입안자들이었다.

아벨슨 교수는 1950년대부터 시작된 머신러닝의 활발한 역사를 주제로 수업을 시작했다. 그리고 컴퓨터 시각(computer-vision) 모델을 사용해 실습 프로젝트에서 기술이 어떻게 작동하는지 설명한 다음, 사례 연구를 진행했다. 이 강의의 목적은 프랑스, 일본, 스웨덴과 같은 국가의 정책 입안자들에게 인간 선택이 얼마나 중요한 역할을 하는 지를 강조하는 한편, 기술의 장단점에 대한 인식을 심어주는 것이다.

"이 기계들이 지금 이 같은 일을 할 수 있는 것은 훈련을 받았기 때문입니다.”

이 수업은 경제협력개발기구(OECD)가 인공지능 정책 권고안에 대한 국제적 합의를 모색하면서 MIT에서 3일 동안 가졌던 전문가 패널, 토론, 협의 모임의 일환이다.

하지만 정책 입안자들은 도대체 어디서부터 시작해야 할까? 오늘날 인공지능은 거의 모든 분야에 없는 곳이 없을 정도로 확산되어 있는데 우리는 아직 이해보다는 두려움이 더 많은 것 같다. AI가 번영의 만병통치약이라고 선언하는 사람들이 있는가 하면, AI가 인간의 일자리를 빼앗아갈 뿐 아니라 심지어 인류에 대한 실존적 위협이 될 것이라고 경고하는 사람들도 있다.

OECD의 권고안은 비록 법적 강제력은 없지만, 여러 국가들의 표준을 제시해 왔다. OECD는 1980년에 각 국가들이 프라이버시를 보호하기 위한 법률을 제정하고 개인 데이터를 개인 식별에 사용할 수 있는 정보로 규정할 것을 촉구했다.

OECD라는 단체의 사명이 책임 있는 경제 개발, 균형적인 혁신, 사회적 보호를 발전시키는 것이라는 관점에서 볼 때, OECD의 권고안은 역사적으로 매우 중요하다.

OECD의 과학, 기술, 혁신그룹 책임자 앤드류 와이코프는 "우리는 AI에 관한 일관된 정책을 앞장서 만들고자 한다.”고 말했다.

OECD의 이번 모임에서 몇 가지 주제들이 제기되었는데, 앞으로 몇 년 동안 계속될 논쟁에 도움이 될 수 있는 아이디어들이다. 뉴욕타임스(NYT)가 이를 상세히 소개했다. 

AI가 더욱 발전하려면 세상을 안전하게 만들기 위한 규칙이 필요하다

AI에 대한 규제 움직임이 시작되고 있다. 그것은 좋은 일이다. 경쟁과 행동의 규칙은 건강하게 성장하는 시장의 기반이 된다. 그것이 MIT에 모인 정책입안자들의 일치된 의견이었다. 그들은 인공지능에 대한 새로운 정책 규제가 필요하다는 데에도 동의했다.

오늘날의 머신러닝 시스템은 너무 복잡하고, 너무 많은 데이터를 소화하기 때문에, 그들이 어떻게 의사 결정을 내리는지 설명하는 것 자체가 불가능해 질 지 모른다. 그러니 과정은 몰라도 그냥 결과만 테스트해야 할까? 자율주행차를 인간 운전자를 통해 시험해야 할까? AI 시스템이 인간 의사보다 유방암을 더 잘 예측한다면, 기계를 그냥 믿을 것인가? 이 모든 질문의 대답은 아마도 ‘그럴 것’이다.

MIT의 컴퓨터 과학자이자 유방암에서 살아남은 장본인인 레지나 바질레이는 "의심의 여지가 없다. 우리는 AI를 사용할 수 밖에 없다.”고 말했다.

그러나 AI가 점점 더 많은 결정을 내리는 것은 불편하다. 국민을 안심시키는 실질적인 규칙만이 AI 세계로 가는 유일한 길이다.

오바마 행정부에서 정책고문을 지낸 대니얼 웨이츠너 MIT 컴퓨터과학 및 인공지능연구소 수석연구원은 "사람들이 AI를 신뢰하게 하려면 정부가 역할을 해야 한다"고 강조했다.

▲ 컴퓨터에 입력된 데이터가 인종차별∙편견등을 야기시켜서는 안 된다. 얼굴 인식에 있어서 백인 남성에게 치우쳤기 때문에 법정에서 사용되는 범죄예방 프로그램이 흑인 여성을 차별하거나, 흑인 여성의 얼굴을 제대로 인식하지 못하는 오류를 범했다.    출처= Stripes

AI 정책, 강대국만의 문제 아냐

새로운 규제는 종종 성장의 방해와 동일시된다. 그러나 이번 모임에 참석한 정책 입안자들은 AI의 성장을 중단시키고 싶지 않다는 점을 분명히 하고, 대신 각국 정부가 완전히 참여하기를 원한다고 밝혔다. 프랑스나 캐나다 같이 AI 전략을 명시적으로 가지고 있는 나라들은 AI를 성장의 엔진으로 간주하고, 차세대 연구원들을 교육시키고 채용할 것을 적극 추구한다.

정부출연 기관인 캐나다 고등연구소(Canadian Institute for Advanced Research)에서 AI 전략을 총괄하는 엘리사 스트롬은 "머신러닝은 진정으로 차세대의 혁신적 기술"이며 "에너지, 환경, 교통, 건강 관리 분야에서 그 기회는 엄청나다."고 말했다.

참석자들은 국제적인 협력이 AI 정책이 단지 미국이나 중국 같은 AI 강대국의 부전승이 되지 않기 위해서라도 국제적 협력이 필요하다고 말했다.

베르트랑 파일레스 프랑스 AI 전략 국가조정관은 "미국이나 중국과는 다른 새로운 인공지능 개발 모델이 등장할 수 있다고 생각한다"고 말했다. 중국은 정부가 통제하는 감시국이다. 미국은 실리콘밸리의 몇몇 인터넷 회사들이 큰 승자가 되고 사회는 마음대로 데이터를 생성하는 자원으로 취급된다.

일본에서는 인공지능을 위계적이고 정체된 기업문화 속에서 역동성을 자극할 지렛대가 될 최후의 보루로 인식하고 있다. 일본정부의 AI 전략 고문인 도쿄대학교 오사무 수도 교수는 “일본은 스타트업, 중소기업, 청년들을 중심으로 AI 개발을 장려하기 위해 많은 투자를 하고 있다”고 강조했다.

AI 정책은 결국 데이터 정책

하나의 특정한 정책 이슈가 다른 모든 정책에 큰 영향을 미칠 수 있다. 데이터의 수집, 처리, 사용에 관한 정책이 바로 그것이다.

빠른 컴퓨터와 영리한 알고리즘도 중요하지만, 최근 웹, 스마트폰, 센서, 게놈 프로젝트 등으로부터의 디지털 데이터의 폭발적인 증가가 현대 AI의 산소라고 할 수 있다.

MIT의 인공지능 탐구(Quest for Intelligence) 프로젝트의 안토니오 토랄바 소장은 ‘과학을 발전시키는데 가장 중요한 것은 데이터 접근’이라고 단언했다. 개인정보보호와 책임에 관한 규칙이 없다면, 그 많은 데이터는 공유되지 않을 것이고 의료 같은 분야의 발전은 좌절될 것이다.

그러나 인공지능은 데이터로 인한 불평등 위험을 확대할 수 있다. 공익 옹호자들은, 그런 예로, 법정에서 사용되는 범죄예방 프로그램이 흑인 여성을 차별하거나, 흑인 여성의 얼굴을 제대로 인식하지 못하는 이 기술의 오류 등을 지적한다.

이런 경우도 데이터에 문제가 있기 때문이다. 그것은 컴퓨터에 입력된 데이터가 얼굴 인식에 있어서 백인 남성에게 치우쳤기 때문에 발생한 편파적 결과였다. 그리고 수감자 중 흑인의 비율이 상대적으로 높았기 때문이다.

매사추세츠주 미국시민자유연합(American Civil Liberties Union)의 캐롤 로즈 대표는 "우리는 과연AI의 사용으로 인종차별 문제를 보다 효과적으로 다루거나 뿌리깊게 내재된 편견을 없앨 수 있을 것인가?"라고 반문한다.

물론 그것은 기술 설계와 정책 모두의 문제다. 할 아벨슨 교수는 이렇게 말한다.

"누가 학대 받고 있는가, 누가 소외되는 있는가? 이것이 우리가 규제를 생각하면서 함께 생각해야 할 것들입니다."