인공지능 알파고는 커제(Ke Jie)와의 마지막 대국을 마치고 바둑계를 은퇴한 바 있다. 딥 마인드(Deep Mind) 측은 그동안 알파고끼리 두었던 훈련 대국들 중에서 나름의 명국 50국을 선정해서 바둑 기술의 발전을 위해 인터넷에 공개했다. 이들 기보는 알파고가 서로를 어떻게 공략하고 또 방어하는지를 엿볼 수 있는 귀중한 자료임에 틀림없다. 이 알파고 기보들 속엔 프로기사들도 이해하기 힘든 예상 밖 수순이 많아서 대국을 해설하기보다는 감상하는 자세로 임할 수밖에 없었다는 평을 내놓았다. 알파고는 바둑계에서 선호하지 않는 포석을 전개하기도 하고 예상 외 붙임수로 싸움을 거는 등 자유분방한 기량을 보여줬다. 이를 본 프로기사들은 바둑계가 그동안 얼마나 인간의 고정관념에 얽매여 있었는지 깨닫게 해줬다고 술회하기도 했다. 인간은 최선의 수라고 믿었던 정석에 기대어 더 깊은 생각을 멈추고 좁은 영역에서 상대의 실수를 바라는 술수 대결에 치중했다면, 알파고는 반상의 모든 가능성을 열어두고 생각을 자유롭게 펼치고 있다는 점에서 바둑인들에게 새로운 시야와 관점을 선물했다고 할 수 있다.

여기서 잠깐 점검하고 싶은 점은 동등한 실력을 가진 알파고들 간의 대국에서도 승패의 갈림길이 발생한다는 점이다. 딥 마인드가 공개한 50선의 결과를 보면 흑이 11판, 백이 39판 승리한 것으로 나타났다. 덤을 7집 반을 주는 중국식 규칙에선 흑이 조금 불리한 것 같다는 느낌을 받는데 이는 덤을 5집 반으로 한 한국식 규칙이 더 합리적일 것이라는 생각을 갖게 한다. 더욱 중요한 점은 같은 실력이라도 인공지능의 승패는 상황변화에 따라서 그리고 다루는 사람의 의지나 전술에 따라서 결과가 바뀔 수 있다는 점이다. 실제로 알파고-커제 대국 시에 함께 개최되었던 알파고 복식대전은 인간과 알파고가 서로 번갈아 바둑을 두는 방식으로 ‘구리 9단-알파고팀’과 ‘렌샤오 8단-알파고 팀’이 대결을 펼쳤다. 결과는 흑을 쥔 구리 9단 팀이 백을 쥔 렌샤오 8단 팀에 패배했다. 알파고 복식대전은 알파고의 다양한 바둑 스타일에 프로기사가 어떻게 적응하는지 그리고 인공지능인 알파고는 프로기사의 착점을 어떻게 동조해 가면서 문제를 극복해 가는지를 평가할 수 있는 좋은 기회였다.

미래에는 사회 여러 분야에서 인공지능이 활용된다고 본다. 대부분의 경우 일부는 사람의 판단이 필요하겠지만 경우에 따라서는 전체가 인공지능의 판단으로 돌아가는 일도 상당수 생긴다. 예를 들면 교통신호등 제어와 같은 간단한 일부터 국가 예산 집계와 같은 복잡한 일에 이르기까지 인공지능의 역할은 중요한 역할을 하게 될 것이다. 인공지능들이 업무별로 일을 분담해 처리해갈 때 최종적으로는 인공지능끼리 협력해야 하는 문제가 발생할 수도 있다. 이런 경우 과연 서로 잘 협조해서 일을 무난하게 처리하게 될지, 아니면 서로 요구하는 수준이 달라서 다투게 될지 알 수가 없다. 최근에 딥 마인드가 발표한 자료에 따르면 인공지능이 죄수의 딜레마 상황에 처했을 때 어떻게 반응하는지를 게임을 통해 실험을 해봤다. 그 결과 인공지능 에이전트들도 상황에 따라서 더 협력하기도 하고 혹은 적대적으로 변하기도 한다는 결과를 얻었다. 놀랍게도 더 영리한 인공지능은 모든 상황에서 더욱 공세적인 자세를 취하는 게 이익이라고 판단했다. 이 말은 인공지능 에이전트는 상황을 더욱 공세적으로 유도하는 게 좋은 전략이라고 판단한다는 것이다. 하지만 협력적인 행동에 대해서 보상을 해주면 서로 협조하는 방향으로 바뀐다. 이는 인공지능이 인간과 상호 협력해 보다 더 복잡한 다중시스템에 적용할 수도 있다는 긍정적인 신호이다.

많은 사람들은 규칙과 논리에 의해서 추론하는 기계를 만들어야 한다고 생각한다. 미심쩍으면 일부 코드를 검사할 수 있고 내부 작동원리가 투명한 인공지능이다. 또 다른 사람들은 기계가 현상을 관찰하고 경험함으로써 스스로 학습하고 생물학적인 영감을 얻어낼 수 있다면 더 쉽게 지능을 얻을 수 있다고 주장한다. 프로그래머가 문제 해결을 위해 명령문을 작성해주는 대신 예제 데이터와 원하는 출력을 기반으로 자신만의 알고리즘을 생성해내는 프로그램이 존재한다는 관점이다. 최근에 등장하는 인공지능 시스템은 후자의 경우들이다. 기계가 스스로 프로그램을 만들어낸다.

지난해 반도체 칩 제조사인 엔비디아(Nvidia) 연구진이 개발한 실험용 자율주행차량은 그동안 구글, 테슬라 또는 메르세데스 등이 보여준 다른 자율주행차량들과 겉모습은 비슷했지만 그 내면의 알고리즘은 사뭇 달랐다. 엔비디아 개발진은 이 차량이 자율운전하는 데 유념해야 할 지침을 단 한 줄도 제공해 주지 않았다고 한다. 대신에 인간이 운전하는 모습을 바라보고 알고리즘이 스스로 배워서 운전하도록 했다. 이런 식으로 기계에게 운전을 스스로 배우도록 한 것은 매우 새로운 방식이다. 반면에 차량이 어떤 기준으로 의사결정을 내리는지를 완전히 알 수 없다는 점에서 보면 불안감을 느끼게 한다. 차량의 센서들로부터 수집된 데이터는 곧바로 거대한 인공신경망에서 처리되어 자동차의 운전대, 브레이크, 기타 조종 장치들의 값을 결정해주었다. 물론 결과는 인간이 조종한 것과 마찬가지로 보였다. 하지만 만약에 이 차량이 급발진 사고처럼 언젠가 전혀 예상치 못한 상황에서 사고를 일으킨다면 우리는 어떻게 해석해야 될까? 연구자들조차도 이 시스템이 어떤 논리로 작동되는지 알지 못하므로 사고가 발생한 이유를 찾아내지 못할 것이다. 아마도 탑승자가 뭘 잘못 건드려서 발생한 사고일 뿐 시스템상으로는 그런 사고가 발생할 만한 뚜렷한 심증을 둘 만한 이유가 없다고 답할 것이다. 이 같은 상황은 인공지능이 세상에 확산될 때 분명히 부딪히게 될 문제점이다. 예기치 않은 사고란 항상 발생할 수 있고 피할 수도 없는 일이라고 치부할 수는 없다. 따라서 엔비디아의 시도는 아직은 실험단계에 머물 수밖에 없는 불완전한 시도라고 판단한다.

 

자율자동차에 적용된 심화학습기술은 바둑게임, 이미지 해석, 음성인식, 언어번역 등과 같은 비교적 무해한 작업에서 매우 강력한 성과를 거두고 있다. 하지만 학습에 필요한 많은 데이터를 모을 수도 없고 실험적 학습과정도 많이 치러볼 수도 없는 금융투자 판단, 의학적 판단, 군사적 결정 등은 어떤 결과를 가져올지 모르는 블랙박스에 전적으로 의존할 수는 없다. 물론 심화학습법이 이들 분야에도 잘 활용될 수 있기를 바라지만 많은 연구자가 적은 데이터로도 좀 더 신뢰할 만한 결과를 도출할 수 있는 기계학습법을 강구하는 이유이다.

디지털 세상은 사이버 전쟁터이다. 좋은 자원은 좋은 정보이고 이는 좋은 데이터로 만들어진다. 따라서 좋은 데이터나 정보를 훔치려는 시도가 사이버상에서 끊이지 않고 벌어진다. 사이버 공격이 들어오면 무슨 공습경보 같은 것이 울리고 이를 막는 컴퓨터 전사들이 당장 무슨 조치를 할 수 있는 것이 아니다. 사이버 공격은 은밀히 이루어지며 심한 경우 정보를 모두 강탈당하고도 전혀 알아차리지 못한다. 사이버 공격 측은 목표 사이트에 몰래 침투하기 위해 인공지능을 활용해서 방어망을 뚫으려 한다. 방어 측도 철통같은 방어망을 구축하기 위해 고도의 인공지능을 활용해 침입시도를 인지하고 막아낸다. 사이버 전쟁은 전투병력 간의 전쟁이 아니고 인공지능들 간의 전쟁이 되고 말았다. 인공지능들 간에 서로의 약점을 파고드는 능력을 키우고 있다.

데이터 과학자들이 모여서 정보를 교환하는 알파벳의 자회사인 캐글(Kaggle)에선 인공지능의 스마트 공격을 효과적으로 막아낼 수 있는 인공지능을 개발하는 기술개발 경합을 진행하고 있다. 창이 강하냐 아니면 방패가 더 강하냐의 경쟁이다. 공격용 인공지능을 개발하는 연구자들은 상대측 알고리즘을 무력화하기 위한 다양한 시도를 하게 될 것이고 방어용 인공지능을 개발하는 연구원들은 외부로부터 가해지는 사이버 공격을 효과적으로 차단할 수 있는 견고한 시스템을 만드는 방법을 착안하게 될 것이다.

적군에 대한 공격과 방어에 관한 이 경연은 세 가지 분야에서 치러질 예정이다. 첫 번째 분야는 비표적 적군 공격법으로 원래 이미지를 약간 수정해 주어서 기계학습 분류기가 이미지를 엉뚱하게 분류하도록 만드는 방법이다. 두 번째 분야는 표적적군 공격법으로 원래 이미지를 약간 수정해 주어서 기계학습 분류기가 이미지를 특정 표적 군에 포함하도록 만드는 방법이다. 세 번째 분야는 적군 공격의 방어법으로 적군의 다양한 이미지 조작에도 불구하고 이미지들을 정확하게 분류해내는 기계학습 분류기법이다.

참가자는 각 하위 경기에 해당하는 과제를 해결하는 프로그램을 만들어서 제출하면 된다. 경합의 말미에 모든 방어법들을 상대로 모든 공격법들을 돌려서 각 공격법이 각 방어법에 어떻게 작용하는지를 평가하는 것으로 최종 결론을 내릴 예정이다. 이 같은 경합의 결과는 올해 말에 개최되는 신경정보처리시스템학회(NIPS)-2017에서 별도의 세션을 만들어 발표할 예정이다. 이 경합을 통해서 신경망심화학습을 속이거나 또는 속지 않는 신경망 설계기술을 발굴하는 기회가 될 것이다.

인공지능은 최근 들어 컴퓨터 시스템을 발전시키는 매우 편리하고 보편적인 수단이 되었다. 문제는 똑똑한 지능을 가진 시스템이 또 다른 지능 시스템을 해킹해서 오작동하게 만드는 범죄행위에 악용될 수 있다는 점이다. 궁극적으로는 악의적인 시스템을 개발하는 사람들을 막아야 하겠지만 기술적으로도 방어능력이 철두철미한 방법을 강구해내는 일이 매우 중요하다. 인공지능이 사악한 수단으로 사용되지 않게 하려면 무슨 기술이 필요한지 밝혀내는 관점에서 이번 캐글의 기술경연은 매우 중요한 행사이다.