> INSIDE > 전문가 칼럼
[이준정의 미래탐험] 인공지능에게 투표를 맡길 수 있을까?
이준정 미래탐험연구소 대표  |  2040ironman@gmail.com  |  승인 2017.05.15  07:04:16
   

지난해 촛불집회부터 대통령 보궐선거를 마칠 때까지 일련의 과정에서 확인할 수 있었던 점은 세상에는 아주 다양한 의견이 공존하고 있다는 점이다. 페이스북을 통해 전달되는 각종 뉴스나 의견들을 직접 접하면서 평소에 알고 지내던 사람들을 포함해서 많은 사람이 세상을 보는 관점이나 기준이 필자와는 사뭇 다르다는 걸 뼈저리게 느꼈다. 특히 평소에 존경하던 원로학자가 사석에서 강조하던 정치관을 듣고는 오랫동안 가슴이 저릴 만큼 안타까웠다. 과연 이 시대에 우리가 소중하게 다뤄야 할 가치가 무엇인가? 마음속에 새겨야 할 정의는 무엇이고 생활 속에서 실천해야 할 도덕의 기준은 무엇인가? 과연 내가 생각하는 가치와 정의 그리고 도덕만이 옳고 다른 사람의 기준들은 틀린 것인가? 생각 끝에 내린 결론은 정의나 윤리라는 것도 타협의 대상이 될 수밖에 없는 거구나라는 깨달음이었다. 다만 어느 선에서 타협할지는 주변 상황에 따라서 달라질 수밖에 없다. 그러고 보면 정의나 윤리란 그리스 철학자 플라톤이 주장했던 천상의 진리라기보다는 플라톤의 제자인 아리스토텔레스가 주장했던 유기체적인 관점 즉, 도덕이란 우리에 관한 것이지 우리가 따라야만 하는 외부의 어떤 것이 아니라는 점을 인정할 수밖에 없었다.

표심은 본성에서 우러난 도덕적 판단이다. 아리스토텔레스는 이 세상 모든 것들이 예를 들면 숲 속의 다람쥐, 집 안의 사물, 짐승, 인간 등이 서로 다른 본성을 지니고 있어서 그 각자의 독특한 본성을 반영하는 각자의 최선의 길이 다르다고 설명했다. 즉 본성이 다르므로 각기 다른 도덕적 기준을 갖게 되는 것이 당연하다는 말이다. 대선 과정에서 한 후보가 특정 지역에서 비상식적으로 많은 지지를 받는다는 의미는 그 지역의 특성 즉 본성이 다르기 때문이라고 이해하면 된다. 또 어느 후보가 특별히 노년층으로부터 압도적인 지지를 받았다면 그것은 노년층의 본성이 다른 연령층의 본성과 많이 다르기 때문이라고 이해하면 마음이 편해진다. 누가 세상을 더 알고 덜 알고의 문제가 아니고 몸으로 체득한 문화가 다르다고 이해해본다.

고대 그리스 철학자들이 고민했던 정의와 도덕이란 개념을 천상학적인 절대가치로 보는가 아니면 유기체적인 본성을 반영한 가치로 보아야 하는지는 디지털 인공지능시대에서도 중요한 의미를 지닌다. 인공지능이 갖춰야 할 도덕심은 인공지능의 활용분야나 활용가치와 밀접한 관계를 갖기 때문이다. 지금까지 많은 사람들이 인공지능의 판단은 인간의 도덕적 기준에 잘 맞도록 설계되어야 한다고 생각하고 있다. 그러나 인간의 지능을 모방해서 만든 지능형 기계가 인간이 기대하는 대로 행동한다고 장담할 수 없다는 점을 설명하고 싶다.

지난해 알파고와 이세돌의 바둑 대전 제2국에서 37번째 수는 바둑 전문가들이 전혀 예상하지 못했던 착점이었다. 당시 이세돌 9단은 36번째 수를 두면서 우변 실리작전을 구사했다. 그러자 알파고는 장고를 하더니 바둑계에서 흔히 ‘어깨 짚기’ 전략이라 표현하는 37수로 응수했다. 이때 이세돌은 잠깐 반상을 떠나 화장실에 다녀왔다. 이세돌은 알파고가 어떤 의도로 그 수를 두었는지 생각할 틈이 필요했던 것 같다. 실제로 당시 전문가들은 그 수가 잘못된 건 아닐까 하는 의문을 표하기도 했다. 하지만 그 한 수는 신의 수라고 평가받을 만큼 이세돌의 패배에 결정적 타격을 줬다. 인공지능이 스스로 학습해도 인간보다 더 뛰어난 역량을 갖출 수 있음을 보여줬다. 알파고는 인간과 같은 방식으로 바둑을 두지 않았다. 알파고 개발자들도 알파고가 선택한 각 게임의 전략이 구체적으로 어떤 논리로 이뤄진 것인지 복기가 불가능했다. 인공지능이 자율적으로 판단하게 되면 인간이 전혀 예상하지 못한 방법이나 과정을 거쳐서 원하는 성과를 얻으려 한다는 경험을 안겨줬다. 인간의 수법이 아닌 인공지능 기계 나름의 방식이 창조될 수 있다는 점이다.

인공지능이 인간의 종족보존 본능을 알까? 2025년 이후가 되면 자율주행자동차가 현실화될 것으로 전망한다. 자율주행자동차로 두 자녀를 등교시키는 길이라고 가정해 보자. 갑자기 세 명의 어린이가 주행차량의 앞으로 뛰어들었다. 차량은 빗길에 미끄러져 제대로 멈출 수가 없다. 이때 도로를 무단 횡단하는 세 아이를 차량이 피할 수 있는 유일한 방법은 인도로 핸들을 꺾어 담벼락에 차량을 세게 부딪치는 길밖에 없다. 과연 차량 속에 탄 두 자녀가 큰 부상을 입는 상황을 용인해야 하는가? 우리의 도덕적 기준은 위험에 처한 세 아이보다 차 속에 있는 두 아이의 안위가 더 소중하다. 하지만 인간의 보편적 도덕에 잘 훈련된 로봇차량은 망설이지 않고 세 명의 생명을 구하는 선택을 하게 된다. 인간들은 자신의 이익을 위해선 도덕적으로 쉽게 타협하지만 로봇은 좌고유면하지 않고 주인이 불쾌하게 여길 만한 선택을 하게 된다. 지능로봇은 인간의 생물학적 종족보존 본능을 모른다. 그렇다고 지능 로봇에게 내 아이만은 어떤 경우에도 지키라고 입력해 두는 비도덕적 인간의 결함을 추종하게 할 수는 없는 일이다.

지금까지의 기술발전 결과를 보면 지능기계가 인간보다 도덕적으로 훨씬 더 나은 추론을 할 수 있다고 본다. 기계를 훈련시킬 때 초기에는 기계가 느끼는 단순한 자극의 특성에 따라서 적절히 반응하는 방법을 가르칠 수 있다. 하지만 기계들의 반복된 학습 결과로 기계들이 스스로 도덕적 판단을 내리는 기준을 갖게 될 것이다. 기계가 아주 정교해지면 다른 기계의 경험을 차용하거나 자체 소프트웨어의 로직에 의해 스스로 훈련할 수도 있다. 만약 인공지능이 초기조건을 고집하지 않고 피드백 수정을 통해 더 나은 기준을 지속적으로 재설정해나간다면 인공지능도 빠르게 진화할 수 있다. 이런 자체 훈련을 통한 인공 지능의 진화를 이론가들은 ‘지능 폭발’이라고 부른다. 기계가 급속도로 영리해지면서 갑자기 인간보다 월등히 똑똑해지는 현상이다. 사람들이 지능로봇에 거는 기대 역할은 문제 해결자이며 인간의 능력만으로는 감당하지 못하는 복잡한 논리를 포함한 방대한 계산을 처리해내는 디지털 두뇌라고 믿는다. 복잡한 수학 문제만 잘 푸는 게 아니고 결국 도덕적 문제들도 더 잘 해결할 수 있다고 추정한다. 따라서 지능폭발이 시작되면 기계가 인간을 문제해결 능력을 넘어서 인간의 도덕적 난제까지도 해결할 수 있다고 본다. 로봇이 인간의 도덕적 한계를 넘어서는 방법이다. 하지만 이런 가정은 원천적인 모순을 내포하고 있다.

   
 

먼저, 모든 인간이 수긍할 만한 도덕을 기계에게 가르칠 수 없다는 문제가 있다. 도덕은 바둑처럼 정해진 원칙이 없기 때문이다. 게임은 제한된 규칙의 집합이므로 바둑으로 치면 몇 집을 이겨야 승리할 수 있는지 쉽게 가려낼 만한 약속이나 기준이 있다. 하지만 도덕에선 바둑을 몇 집 이겨야 도덕적으로 합당한 타협 수준인지 정할 수가 없다. 물론, 객관적으로 올바른 행동이 무엇인지도 모른다. 사람마다 본성이 다르고 가치관이 다르면 도덕적 흠집도 모두 다르기 때문이다. 만약 객관적 기준이 존재한다면 초지능 기계 같은 것은 필요하지도 않을 것이다.

인공지능의 도덕심은 객관화할 수 없다. 인공지능을 개발할 때 지켜야 할 도덕적 법칙들을 보면 정량적인 개념보다 추상적인 개념들이다. 도대체 객관화할 기준이 없다. 예를 들면 사람을 해치지 않는다는 기준이 있다면 어떤 정도만큼 해를 가하면 안 되는지에 대한 기준도 없고 해코지당한 사람마다 강도가 다르게 전달되기 때문에 주관적이다. 인공지능이 설령 개개인의 도덕적 기준들의 공통분모만을 모은다고 해도 보편적인 기준이 될 수 없다는 것이 필자의 판단이다. 예를 들면 움직이는 생물을 해치지 않아야 한다고 가장 원초적인 도덕 기준을 정했다고 하자. 하지만 생물마다 해를 받는 기준이 주관적일 수밖에 없으며 지능기계가 스스로 학습을 통해 여러 단계의 추론을 거치면서 종국적으로 인간이 생각할 수 없는 엉뚱한 영역으로 도덕의 기준이 바뀌어 갈 수도 있다. 특히 최첨단 인공지능일수록 인간과 다른 판단을 하기 쉽다. 결국 인공지능의 용도가 인간을 위한 것이라면 인간이 생각할 수 있는 도덕적 영역을 벗어나서 인공지능이 자율적으로 판단하도록 허용할 이유가 없다. 최첨단 지능로봇의 도덕적 선택이 인간이 추구하는 가치와 달라진다면 지능로봇이 쓸모가 없게 될 것이기 때문이다.

지금 같은 기술발달 추세로 보면 5년 후에 치러지는 다음 대통령 선거철이 되면 지금과 달리 인공지능이 중요한 수단이 될 것만 같다. 누구나 인공지능을 이용해서 선거판을 분석하고, 각 당의 정책들이 어떤 영향을 미칠지 그리고 또 누구에게 투표하면 더 유리한지에 대해서 상세하게 분석해주는 애플리케이션이다. 인공지능은 매우 객관적인 데이터를 기준으로 자신에게 유리한 대권 후보를 추천하게 될 것이다. 만약 그 추천인사가 자신이 평소 호감을 갖고 있던 인사라면 당연히 그를 투표하게 될 것이다. 그러나 만약에 자신이 선호하는 후보자와 인공지능 앱이 추천하는 인사가 다른 경우엔 어떻게 해야 하나? 고민에 고민을 거듭하겠지만 결국 마지막 기표소에 들어가선 간사한 자신의 고집에 따라서 평소에 점찍었던 후보에게 투표하고 말 것이다. 결정적인 순간에 인공지능이 무용지물이 되는 순간이다. 인간의 판단엔 항상 객관적 합리성이 결여되어 있다. 학연, 지연, 혈연. 심지어 인연까지도 자신의 정의로운 도덕심을 갉아먹고 있다. 새로운 문재인 대통령에 대한 온 국민의 기대가 높다. 쉽지 않겠지만 먼 훗날 모든 국민들을 위해서 최선을 다한 대통령으로 기억되기를 바란다.

이준정 미래탐험연구소 대표의 다른기사 보기
이 기사에 대한 댓글 이야기 (0)
자동등록방지용 코드를 입력하세요!   
확인
- 200자까지 쓰실 수 있습니다. (현재 0 byte / 최대 400byte)
- 욕설등 인신공격성 글은 삭제 합니다. [운영원칙]
이 기사에 대한 댓글 이야기 (0)
여백
여백
여백
여백
여백
여백
전문가 칼럼
여백
여백
지식동영상
여백
여백
여백
여백
포토뉴스
여백
여백
회사소개기사제보광고문의불편신고개인정보취급방침청소년보호정책 이메일무단수집거부 YOU TUBE  |  경제M  |  PLAY G  |  ER TV  |  ZZIM
서울시 종로구 율곡로 84 10F (운니동, 가든타워)  |  대표전화 : 02-6321-3000  |  팩스 02-6321-3001
기사문의 : 02-6321-3081  |  광고문의 02-6321-3015  |  등록번호 : 서울,다06742  |  발행인 : 임관호  |  편집인 : 주태산  |  편집국장 : 문주용  |  청소년보호책임자 : 전진혁
Copyright © 2017 이코노믹리뷰. All rights reserved.