인공지능과 인공지능이 갈등을 빚는다면 서로 싸울까 아니면 협력할까?

IT 전문매체 더버지는 지난 9일(현지시간) 알파고를 만든 구글 딥마인드가 이 같은 상황을 다룬 조사를 진행했다고 보고했다. 딥마인드는 인공지능이 ‘사회적 딜레마’ 상황에 어떻게 대처할 것인지 실험했다.

사회적 딜레마는 주어진 상황에 한 개인이 이기적으로 행동하면 그 개인은 이득을 얻지만, 모든 사람이 이기적으로 행동하면 아무도 보상을 받을 수 없는 상황이다.

첫 번째 실험은 두개의 인공지능이 화면 중간에 있는 사과를 더 많이 모으는 경쟁 상황에서 이뤄졌다. 각 인공지능은 레이저를 쏴 상대방을 잠시 게임에서 사라지게 할 수 있다.

사과가 충분하면 두 인공지능은 레이저 빔을 이용해 상대방을 제거하지 않는다. 사과가 부족하면 레이저를 쏴 상대방을 없애는 횟수가 증가한다. 이 상황에 더 강력한 인공지능이 등장하면 강력한 인공지능은 사과가 많아도 다른 인공지능을 공격한다. 즉, 더 똑똑한 인공지능일수록 공격적인 행동을 보였다.

연구원들은 첫 번째 실험에서 더 똑똑한 인공지능이 공격적 모습을 보인 건 공격이 최선의 방법이라 그런 것은 아니라고 했다. 그들은 “인공지능에게 공격은 협력보다 더 까다롭다”고 말했다. 공격하려면 무기로 상대방을 겨냥하고 움직임을 쫓아야 한다. 그만큼 사과를 모으는 시간이 줄어드는 셈이다. 연구원은 “만약 인공지능이 공격이 더 비효율적이란 사실을 알았다면 협력을 택했을 것”이라고 했다.

두 번째 실험은 ‘울프팩’(Wolfpack) 게임이다. 두개의 인공지능이 장애물이 있는 환경에서 먹이를 잡는 게임이다. 단순히 하나의 인공지능이 먹이를 잡는 게 아닌 인공지능 두개 모두 먹이 근처에 있어야 한다.

울프팩 게임에서 인공지능은 협력하는 모습을 보였다. 더 똑똑한 인공지능일수록 상대 인공지능과 협력했다. 조사자들은 “인공지능들이 이번 게임에서 서로 협력해야 한다는 것을 배워 이런 모습을 보였다”고 했다. 협력을 위해 상대방의 움직임을 쫓아 먹이를 잡는 것은 더 까다롭다고 덧붙였다.

더버지는 이번 연구로 인공지능은 자신이 처한 상황에 따라 행동을 선택한다는 사실을 알 수 있다고 전했다. 상대방을 공격하면 더 많은 사과를 얻을 수 있다는 식의 공격적 규칙은 난폭한 행동을 낳는다. 협력하면 더 많은 포인트를 부여하는 규칙은 인공지능이 함께 행동하게 했다. 실험에 참여한 연구원들은 “인공지능을 다룰 땐 상황에 알맞는 규칙을 부여해야 한다”고 말했다.