가격이 저렴해서도, 몸매가 좋아서도 아닌, 말 그대로 착한 인공지능이다. 인공지능에서나 컴퓨터과학에서 자율적인 프로그램을 ‘에이전트’라고 부르기 때문에 ‘착한 에이전트(Benevolent 또는 Altruistic Agent)’라고 할 수 있다. 또는 ‘선의의 에이전트’나 ‘이타적인 에이전트’라고도 할 수 있을 것이다.

도로 위에 매트리스가 떨어져 있는 상황을 생각해보자. 아마도 급격히 차량속도가 줄면서 정체가 일어나겠지만, 도로 위를 달리는 대부분의 운전자는 자신이 갈 길도 바쁘기 때문에 매트리스를 피해 서행하면서 그 지점을 빠져나갈 것이다. 누군가는 도로관리기관이나 119에 전화를 걸어서 상황을 알려주기도 하겠지만 자신의 차량을 세우고 매트리스를 치우는 사람도 있을 수 있다. 우리는 누구나 이러한 운전자를 착한 사람이라고 할 것이다.

우리는 왜 이러한 운전자를 착하다고 하는 걸까? 누구나 알 수 있듯이 이러한 행동이 알려져서 착한 운전자로서 포상을 노리기도 어려운 상황에서, 자신의 수고를 무릅쓰고 이 도로를 다니는 다른 운전자를 위해 행동했기 때문일 것이다. 착한 행동의 핵심은 개인적인 보상을 바라지 않고 타인을 위하는 것이리라. 그런 점에서 ‘협동적(Cooperative)’이나 ‘상호 호혜적(Reciprocal)’인 행동과는 분명 구별할 수 있다.

 

이런 착한 행동이 인공지능 연구에서 고려돼야 할까? 실제로 이런 연구가 인공지능 학계에서 진행됐다. 본문에 제시된 그림은 착한 인공지능 모의실험의 한 장면이다. 인공지능 연구자들은 여전히 ‘지능형 에이전트’ 연구를 진행하고 있지만, 모두 아는 바와 같이 인공지능에도 연구의 본질과 상관없이 인구에 회자됐던 유행어가 있는데, ‘지능적 에이전트’라는 용어도 한때의 버즈워드(Buzzword)였다.

컴퓨터과학에서 에이전트는 꼭 지능적이지 않은 자율적인 소프트웨어도 포함되는데, 당연히 인공지능 기술을 활용하는 에이전트는 ‘지능적 에이전트’라고 한다. 지능적 에이전트에 대한 연구가 자율적인 하나의 에이전트가 다른 다수의 자율적인 에이전트와 협동해 문제를 해결하는 분산 인공지능(Distributed Artificial Intelligence)으로 발전된 것은 당연한 수순일 것이다. 이러한 분위기에서 좀 더 나아간 지능적 에이전트 연구가 ‘착한 에이전트’라고 할 수 있다.

알파고 이후 인공지능과 공존해야 하는 포스트휴먼 시대에서 윤리적인 인공지능에 대한 논의가 활발히 이뤄지려는 상황에서, 의무로서의 윤리를 넘어 덕으로서의 윤리인 ‘착한 인공지능’은 흥미로운 논의거리일 것이다. 사실 가장 쉬운 방법은 인공지능 프로그램을 주어진 상황에서 ‘착하게’ 동작하도록 프로그램해서 ‘착한 인공지능’을 만드는 것이다. 문제는 인공지능 프로그램이 주어진 상황을 알 수 있도록 하고 그에 따라 프로그래밍하는 것인데, 원래 프로그램의 목적에 필요한 사항만을 프로그래밍하는 것이기 때문에 원래 프로그램의 목적에 필요한 사항 외에 어디까지를 프로그래밍할 것인가 하는 것이다. ‘착한 인공지능’은 ‘착한 개발자’에 달려 있는 셈이다.

그렇다면 ‘사람들처럼’ 착한 인공지능을 프로그래밍해야 할까? 사람들처럼이라는 것은 자신이 속한 사회의 이익을 위해 자신의 이익을 포기하는 것이 되겠지만, 모든 운전자가 매트리스를 치우고 가는 것이 아니기 때문에 사람처럼 하도록 한다고 ‘착한 인공지능’을 만들 수는 없을 것이다. 사실 모든 인공지능을 ‘착한 인공지능’으로 만들기 어려운 이유는 자신이 속한 사회의 이익을 위해 자신의 이익을 포기하도록 하는 것이 아니라, 모든 상황에 따른 동작을 프로그래밍하지 않아도 사회의 이익과 자신의 이익을 연결해 추론하는 능력을 프로그래밍해야 하기 때문이다.

이러한 이유로 인공지능 연구가 인간에 대한 연구를 필요로 하는 것이다. 실제로 만들어져서 실행돼야 하는 ‘착한 인공지능’에 대한 연구는 ‘착한 인간’에 대한 많은 새로운 관점의 상상력을 제공한다. 떠오르는 많은 논의거리에 대해 생각해볼 수 있는 기회가 됐으면 한다. 어느 날 ‘자부심’을 느끼며 ‘희생’하는 ‘착한 인공지능’을 TV로 보게 될 수도 있지 않을까.

PS. 댓글 Talk

조재성 기자: ‘착하다’고 평가받는 사람이 항상 착한 행동을 하는 것은 아닙니다. ‘착한 인공지능’도 99번의 착한 행동과 1번의 사악한 행동을 해 치명적인 결과를 불러일으킬 수 있지는 않을까요?

박충식 교수: 물론이죠. 전형적인 ‘사기 인공지능’이겠네요. 누구를 위한 행동인가가 기준이 되지 않겠습니까? ‘착한 인공지능’이 항상 착하게, 또는 ‘착한 사람’이 항상 착하게 행동할 수 있는 조건이 무엇인지 생각해볼 수 있겠지요.

조: ‘착한 인공지능’이란 공상적인 차원으로 보이기는 합니다. 지금 이 시점에서 구현된 착한 인공지능, 혹은 탄생 조짐들에 대한 사례를 들어주실 수는 없습니까?

박: ‘착한 인공지능’이 공상적인 차원이라면 인간을 정복할 것이라고 우려하는 ‘악한 인공지능’도 공상적인 차원이라고 해야겠지요. 지금 이 시점에서 지구를 정복할 것 같은 ‘악한 인공지능’의 예를 들 수 없듯이 ‘착한 인공지능’의 사례나 탄생 조짐을 들기 어렵겠죠?

조: 궁극적으로 ‘착한 인공지능’이 ‘착한 인간’보다 더 윤리적일 수 있다고 보십니까?

박: ‘착한 인공지능’ 배후에 ‘악한 인간’만 없다면 더 윤리적일 수 있지 않겠습니까? 저는 그렇게 생각합니다. ‘무엇이 윤리적인가’하는 것이 더욱 큰 문제이겠지만 말입니다.