지난 16일 문재인 대통령은 과학기술정보통신부와 방송통신위원회로부터 2020년도 첫 번째 업무보고를 받은 자리에서 연내 AI 인재 1000명을 양성하고 데이터 산업을 10조원 규모로 성장시키겠다는 목표를 발표했다. 새해 AI 국가전략을 본격 추진, AI 일등국가로 가는 원년으로 삼겠다는 것이다. AI는 지난 10일 막을 내린 세계 최대 IT 박람회인 CES 2020에서도 크게 주목을 받았다. 이렇듯 국내외적으로 2020년대를 맞이한 현 시점에서 AI가 시대적 화두로 떠올랐다는 점은 더 이상 이론이 없어 보인다. 그러나 또 한편으로는 지금껏 크게 주목받지 못했던 기술인 AI가 인간을 능가하는 능력을 갖게 되고, 그로 인해 사회적으로 큰 변화와 혼란이 야기될 것 역시 불 보듯 뻔한 일이라는 점에서 AI기술의 발전을 저해하지 않으면서도, AI기술이 사회적 해악을 가하지 않도록 법제를 정비하는 방안을 논의해야 할 필요성도 제기되고 있다. 과연 AI시대의 법제는 지금과 비교해 어떠한 점이 문제가 될까?

AI시대의 법제 정비를 논의하기 위해서는 우선 AI가 무엇인지, AI의 본질과 특성부터 정의내릴 필요가 있다. AI(Artificial Intelligence)는 흔히 ‘인공지능’으로 번역되는 기술로 인간의 학습·추론·지각·판단·결정·행동 등에 관한 지적 능력을 모방하여 컴퓨터프로그램으로 구현하는 것을 의미한다. 프로바둑기사 이세돌과의 바둑대결로 유명세를 치른 구글 ‘알파고’의 예에서도 알 수 있듯 AI는 충분한 데이터와 반복적인 알고리즘 학습을 통해 입력 값과 출력 값 사이의 패턴으로부터 상관관계 및 연결규칙을 도출하여 미래의 결과를 예측하는데, 최근에는 ‘기초 데이터의 입력 없이도’ 일정 규칙만 제공하여도 스스로 강화학습을 통해 전략 패턴의 습득이 가능해 인간과 유사 또는 초월적 수준을 보이는 ‘강한 인공지능(Strong AI)’까지 등장하였다. 즉, 지적 능력만 놓고 본다면, AI는 이미 인간과 동일한 정도의 능력을 갖추었다 보아도 무방할 정도여서 과연 AI에게도 권리와 의무의 주체가 될 수 있는 능력, 이른바 ‘권리능력’을 인정해 주어야 하는가에 대한 문제가 발생한다.

현재 우리 법제상 ‘권리능력’을 가질 수 있는 것은 생물학적인 인간으로서의 ‘자연인’과 주식회사와 같은 ‘법인’ 뿐이다(제3조, 제31조). 물론 예외적으로 아직 태어나지 않은 ‘태아’에게도 권리능력이 인정되기는 하지만, 태아는 손해배상청구권, 상속권, 유증 등에 있어 제한적으로만 권리능력을 가질 뿐이고, 그마저도 태어나지 못하고 사산되면 권리능력을 인정받지도 못한다. 그렇다면 AI의 경우는 어떨까? 기술수준이 낮은 단계에서의 AI는 단순히 개발자가 교육시키는 대로만 판단하고 결정하는 한낱 기계에 불과했을 것이다. 그러나 향후 AI기술이 발달하면 할수록 AI는 개발자가 교육시키고 지시하는 대로만 움직이는 ‘로봇’이 아니라 자율적이고 합리적으로 결정을 하고 그것을 실행에 옮기는 하나의 ‘독립된 인격체’와 유사한 존재가 될 것이 자명해 AI에게도 인간과 같은 권리능력을 인정해 주어야 하는 것 아닌가에 대한 논의는 충분히 해봄직하다.

▲ 2019년 8월 5일 일리노이 주 시카고에 있는 고속도로에서 사고를 당한 테슬라 모델 3의 사진. Shutterstock.com

사실 AI에게 권리능력을 인정할 것인가의 여부는 개발자 입장에서는 매우 중요한 문제일 수 있다. 만약 AI가 원래 개발자가 의도한 바와는 전혀 다르게 AI의 독자적 판단 하에 제3자의 생명, 신체, 재산에 손해를 발생시킬 경우를 가정해 보면, AI를 일종의 기계나 로봇 등 제조물로 보는 한, 개발자는 제조업자로서 제조물책임법 상의 책임을 져야 한다. 즉 해당 개발자는 AI를 잘못 제조하거나 설계한 ‘제조상의 결함’이나 ‘설계상의 결함’을 이유로 개발자 자신의 의지와 무관하게 AI가 친 ‘사고’를 수습해야 하는 상황을 맞이하게 되는 것이다(제조물책임법 제3조). 이 경우에도 제조업자인 개발자는 해당 제조물을 공급한 당시의 과학ㆍ기술 수준으로는 결함의 존재를 발견할 수 없었다는 사실(제2호), 제조물의 결함이 해당 제조물을 공급한 당시의 법령에서 정하는 기준을 준수함으로써 발생하였다는 사실(제3호) 등을 입증해 면책 받을 여지는 있으나(제조물책임법 제4조 제1항), 어쨌든 개발자로서는 자신이 개발한 AI가 어디서 어떠한 일을 하고 있는지 예측도 불가능한 상황에서 매번 소송을 걸릴 부담을 안게 되니 개발에 전념하기 어려울 것이다. 그에 반해 AI에 대하여 인간과 동일한 권리능력이 인정될 경우에는 그에 따른 손해배상책임이 전적으로 AI에게 귀속될 것이므로, 개발자는 AI가 친 ‘사고’에 대한 법적 책임으로부터 완전히 자유로워질 수 있다.

그러나 AI로 인해 생명, 신체, 재산상의 손해를 입은 피해자 입장에서는 AI에게 권리능력이 인정되든 그렇지 않든 피해배상을 받기 어려운 답답한 상황을 맞이하게 된다. 우선 AI를 권리능력자가 아닌 ‘제조물’로 볼 경우, AI로 인한 손해에 대하여 피해자는 제조업자인 개발자에게 제조물책임법 상의 손해배상 청구를 할 수는 있겠지만, 앞서 살펴본 바와 같은 면책사유로 인해 소송에서 승소하기 어려울 것이다. 반대로 AI의 권리능력이 인정될 경우에는 AI를 상대로 민법상 불법행위책임(제750조)을 근거로 하여 손해배상청구를 하고, 승소하는 것까지는 큰 어려움이 없겠으나, 아무런 재산이 없는 AI로부터 현실적인 배상을 받거나 배상을 받기 위해 집행을 하는 것은 불가능해 보인다. 결과적으로 어떠한 경우라도 AI가 저지른 잘못으로 피해자가 입는 손해는 고스란히 피해자가 감당해야 할 몫으로 남게 되는 것이어서 피해배상책임을 어떻게 배분할 것인가에 대한 사회적 합의가 필요할 것이다.