> INSIDE > 전문가 칼럼
[이준정의 미래탐험] 인공지능이 초지능 존재로 진화할 수 있을까?
이준정 미래탐험연구소 대표  |  2040ironman@gmail.com  |  승인 2017.03.13  07:09:05
   

아이비엠과 세일즈포스(Salesforce)는 인공지능끼리 상호 협력하는 계약을 체결했다고 한다. 사람과 인공지능이 협력하는 게 아니고 아인슈타인(Einstein)과 왓슨(Watson)이라 불리는 인공지능들이 머리를 맞대고 문제를 함께 풀기로 한다는 이야기다. 고객을 관리하는 세일즈포스가 개발한 아인슈타인은 고객의 습관 정보를 분석해온 장점이 있는 반면 아이비엠 왓슨은 소매업계의 데이터를 보유하고 있다. 이 둘을 결합해서 잠재력이 높은 구매자를 대상으로 맞춤마케팅을 할 수 있게 된다고 한다. 고객은 아직 생각해보지도 않은 구매를 컴퓨터가 괜찮은 제안이라고 나서서 권유하고 이를 계기로 전혀 고려해 보지도 않았던 서비스나 물품을 구매하기로 결심하게 되는 상황이 벌어질 수도 있다고 예상된다. 인공지능이 인간의 의도나 의지에 앞서서 먼저 가상의 문제를 발견하거나 미래의 기회를 제안하는 변화가 일어날 수도 있다. 인공지능끼리 융합하여 난제를 풀어가는 새로운 경지에 이르게 될 것 같다.

아이비엠의 연구에 의하면 인간 두뇌가 내리는 의사결정 중의 1/3만 옳고, 1/3은 차선책이며, 나머지 1/3은 옳지 않다고 한다. 우리는 결국 3할 정도의 적중률을 가진 의사결정권을 가지고 살아가고 있다. 이미 생활 속을 침투하기 시작한 로봇과 인공지능이 약 10억명의 의사결정에 관여하기 시작했으며 이를 증강된 지능이라고 사람들은 표현하고 있다. 아이비엠은 양자컴퓨팅 기술을 곧 실용화한다고 발표했다. 기존의 컴퓨터가 데이터 처리 능력에 집중했다면 양자컴퓨터는 차세대 인공두뇌에 초점을 맞춰 연구를 진행한다고 한다. 양자컴퓨팅은 사람이 하지 못하는 모델링을 해내고 가능하지 않던 물질을 발견하는 수단으로 활용될 수 있다고 전망하고 있다. 이런 컴퓨터가 의사결정을 도와주게 되면 인간의 두뇌는 인간의 감정을 다루는 일들에만 관여하는 게 아닌지 의심이 잠깐 들었다.

 

사람의 판단은 1/3만 옳다?

최근 논란이 되고 있는 가짜 뉴스들은 어떤 목적을 가진 조직이 치밀한 기획의도 하에 제작된 것으로 판단되며 대중의 판단력을 한쪽으로 몰고 가고자 시도된 것이다. 언론 종사자들의 의견을 들어 보면 가짜 언론을 제작하는 사람들은 아마추어가 아니라 언론의 속성을 잘 알고 있는 전문가들의 소행일 가능성이 높다고 한다. 미국 대통령 선거에서 트럼프가 당선되는 데 결정적 역할을 했다고 평가하는 분석이 많다. 국내에서도 친박 단체들을 중심으로 탄핵의 사유를 흐트러뜨리려는 왜곡한 뉴스들이 인터넷과 카톡을 통해 널리 퍼지고 있다. 이런 가짜 뉴스를 누가 믿겠느냐고 하면 순진한 판단이다. 그럴듯한 뉴스매체를 가장하기 때문에 많은 사람들이 진실이라고 믿고 스스로 카톡방 친구들에게 실어 나르고 있다. 친박 집회에 모인 사람들이 점차 늘어난 이유도 가짜 뉴스 덕분이라는 분석이 있다. 이젠 방송에서 가짜 뉴스들을 대상으로 사실 여부를 확인해 주는 팩트 체크(Fact Check) 코너까지 생겼다. 진짜 뉴스도 많은 세상에 가짜 뉴스까지 뒤섞이니 사람들은 판단이 헷갈리고, 종국에는 뉴스를 신뢰하지 못하는 사태까지 이어질 수 있다. 혹시 이런 뉴스의 사실 여부를 인공지능이 사전 검열해서 가려낼 수는 없을까?

미국 대통령 선거 기간 중에 페이스북에 가짜 뉴스들이 난무하면서 사람들의 분노를 샀다. 페이스북은 문제의 심각성을 깨닫고 결국 대응책을 세웠다. 스노프스(Snopes), 폴리티팩트(Politifacts), 에이비시 뉴스(ABC News), 팩트체크(Factcheck.org) 등 팩트 체크를 전문으로 하는 기관들에 의뢰해서 2개 이상의 기관이 사실 여부로 논쟁하게 되면 분쟁(Disputed) 뉴스라고 꼬리표를 붙이기로 했다. 페이스북은 소셜네트워크 플랫폼 입장으로 사용자가 게시된 뉴스가 사실인지를 가려내지 않고도 빠져나갈 길을 찾아냈다.

 

인공지능이 가짜 뉴스를 걸러낼까?

반면 구글은 잘못된 정보를 가려내는 알고리즘을 공개했다. 하지만 구글이 공개한 알고리즘은 구글의 설명대로 제대로 작동하지 않는다는 지적을 받았다. 이 도구는 원래 구글 질문검색이나 음성인공지능비서 용도로 개발된 것이다. 구글의 검색기는 전체 인터넷을 샅샅이 뒤지는 능력은 뛰어나지만 인터넷엔 너무도 다양한 정보의 스펙트럼이 존재하기 때문에 인공지능이 어느 정보가 가장 정확한 정보인지는 판단할 만한 능력이 없으니 올바른 판단을 제공할 수 없다고 할 수 있다. 물론 구글은 사실 여부를 판단할 근거가 되는 뉴스 발원지를 부기하므로 뉴스 발원지의 신뢰성으로 미루어 보아 뉴스가 사실일 것이라고 짐작해볼 수는 있다. 하지만 구글도 의심스러운 정보를 제공한 발원지가 될 수 있다. 예를 들면 인류가 달에 착륙했다는 뉴스는 거짓이라는 주장이 인터넷에 떠도는데 그 근거로 항상 인용되는 것이 유튜브 사이트의 정보이다. 그 내용이 상당히 그럴듯하고 설득력이 있어 보인다. 그렇다고 인류가 달에 착륙한 것은 사실이 아닐 것이라고 단정할 수도 없기 때문에 혼란만 일으키고 있다. 이토록 가짜 정보를 걸러내는 일이 매우 어려운 이유는 의견과 잘못된 정보 사이엔 경계가 매우 흐리기 때문이다. 언론의 자유라는 측면에서 보면 기술적으로나 철학적으로 틀리다고 단정할 수도 없다. 그런 면에서 페이스북이 까다로운 개념을 직접 다루지 않고 한 발을 뺀 채 제3자의 의견을 빌어서 분쟁 뉴스라고 꼬리표를 달아준 방법이 묘수란 느낌이다. 구글이 접근한 인공지능 알고리즘 방식은 검증되지 않은 내용조차도 사실처럼 믿게 만드는 오류를 일으킬 우려가 있다. 논리적 근거에 입각하지 않고 단순히 데이터 분석만으로 정보가 사실인지 거짓인지를 구분해 내는 일이 얼마나 어려운지를 이번 사례를 보면서 확실히 깨닫게 된다. 인공지능이 바둑이나 체스 그리고 포커 등과 같이 결과가 뚜렷한 경우엔 그 판단이 옳고 그름을 쉽게 동의해줄 수 있지만, 추상적이고 애매한 문제에 대해서는 인공지능의 판단을 정말 신뢰할 수 있을지에 대해서 판단을 유보해야 될 것 같다. 인공지능이 사용한 데이터가 충분히 많고 학습과정을 확실하게 신뢰할 수 있다는 믿음이 없이는 인공지능을 믿어선 안 된다고 생각된다. 만약 뉴스가 사실인지 아니면 거짓인지를 인공지능 알고리즘이 구분해낼 수 있는가? 아직은 불가능해 보인다.

인공지능이 위험하다고 경고한 스티븐 호킹이나 앨런 머스크 그리고 빌 게이츠가 이런 불합리한 의사결정이 경우에 따라서는 사태를 악화시킬 수도 있다고 보았던 것 같다. 의사결정 결과가 지극히 객관적이고 뚜렷한 증거를 제시할 수 없는 일이라면, 다시 말하면 주관적인 판단 요소가 개입될 수 있는 일이라면 인공지능의 의사결정을 그대로 신뢰할 수 없다는 판단이다.

 

‘원시인’ 인공지능은 없다

20세기 중반까지만 해도 인간은 손이 거칠어지는 일을 기계에 맡기고 머리로 기획하고 계산하는 일을 맡아왔다. 이젠 수학적 두뇌를 가지고 광범위한 판단을 할 줄 아는 사람들이 남았을 뿐 다른 일들은 컴퓨터 기계에 맡기는 추세다. 최근에는 그동안 인간만이 해낼 수 있다고 믿었던 일들을 기계가 대신 맡아서 잘 처리할 수 있다고 하지만 선전하는 만큼 기계가 완벽하지는 않은 것 같다. 인간처럼 일처리를 한다고 해서 인간보다 지적인 수준이 높거나 의욕이 넘칠 리가 없다. 인공지능 또는 지능기계가 인간처럼 감각을 갖거나 지각을 느낀다고 믿을 만한 증거도 없다. 이미 많은 기계들이 일터에서 재능 있고 능력 있는 노동자들을 대체해 왔지만 기계가 더 나은 일자리를 탐내거나 더 높은 직위를 탐내는 일은 없었다.

인공지능이 강력한 기술들을 사용하지만 여기저기서 이야기하듯이 그렇게 완벽하지는 않다. 인공지능은 아직까지는 개발자들이 정해준 규칙에 따라서 상징적인 동작을 반복하는 방식에 머물고 있다. 다시 말하면 자율적이라고 말은 해도 기계가 뭐든지 제멋대로 자유의지를 갖고 일을 처리하진 못한다. 로봇이나 기계장치가 하는 일은 수학적인 정리를 증명하거나, 수수께끼를 풀거나, 집적회로를 그려서 배치한 순서에 따라서 어쩔 수 없이 움직일 수밖에 없다. 하지만 그림 속에서 처음 보는 물체를 알아보거나 음성으로 들은 단어를 문장으로 전환시키거나 하는 일은 정해진 원칙이나 논리적으로 연결할 방법이 따로 없기 때문에 인공지능이 처리하기에 어려운 일에 속한다. 최근에 기계학습의 놀라운 사례로 소개되고 있는 딥 러닝법이 이런 과제를 푸는 데 좀 더 유용하다는 정도이다. 기계학습법이 제대로 작용하게 만들려면 엄청난 데이터를 모아서 쓸 만한 패턴들을 미리 뽑아내야만 한다. 이런 학습이 가능해지면서 아마존 품목 추천, 구글 검색, 안면 인식, 주식거래, 자율자동차 운전, 기타 빅데이터를 활용하는 문제들이 해결되고 있다. 그렇다고 해도 인공지능이 진짜 인간의 지능 수준에 근접하고 있지는 않다.

매스컴에 소개되는 인공지능의 성과들은 어떤 의미에서 인공지능 기술발전의 결과라고 볼 수 없다. 사람은 어린아이 시절에 학습에 사용하던 두뇌를 가지고 성장하면서 계속해서 학습을 누적한 결과로 지혜로운 어른이 되지만, 인공지능은 항상 새로운 알고리즘을 사용해야만 더 복잡한 문제를 풀 수가 있다. 다시 말해서 바둑선수 알파고가 더 똑똑해지면 스타크래프트 게임 선수가 되는 건 아니다. 스타크래프트에 맞는 별도의 알고리즘과 학습과정을 거쳐야만 한다. 학습기법도 같을 수가 없다. 사람들은 인공지능이라고 부르지만 지적 수준을 IQ처럼 지표로 잴 만한 근거를 만들기도 어렵다. 지금 지능기계의 지적 수준이 인간의 수준에 미치지 못한다고 해서 ‘원시인 기계’라고 부르거나 ‘아기 기계’라고 부를 수는 없다. 마찬가지로 인공지능 기술이 더 발전한다고 해서 초지능기계라고 부를 수는 없다는 생각이 든다. 기계는 기계일 뿐 인간을 초월하는 초지능 존재가 될 수 없다는 믿음이 들기 때문이다.          

이준정 미래탐험연구소 대표의 다른기사 보기
여백
여백
여백
여백
여백
여백
여백
전문가 칼럼
여백
여백
지식동영상
여백
여백
여백
여백
포토뉴스
여백
여백
회사소개기사제보광고문의불편신고개인정보취급방침청소년보호정책 이메일무단수집거부
서울시 종로구 율곡로 84 10F (운니동, 가든타워)  |  대표전화 : 02-6321-3000  |  팩스 02-6321-3001
기사문의 : 02-6321-3081  |  광고문의 02-6321-3015  |  등록번호 : 서울,다06742  |  발행인 : 임관호  |  편집인 : 주태산  |  편집국장 : 문주용  |  청소년보호책임자 : 전진혁
Copyright © 2017 이코노믹리뷰. All rights reserved.