▲ 출처= The Bible Forum

[이코노믹리뷰=홍석윤 기자] 인공지능(AI)이 우리의 일상 생활에 보다 깊이 침투함에 따라, 기술 회사들은 정부 규제 기관이 인공지능의 미래를 규정하기 전에 먼저 앞서 가기 위해 치열하게 경쟁하고 있다.

기업들은 이미 인공지능을 비즈니스 모델에 적용하고 있지만, 이 기술은 여전히 논란의 여지가 있다. 이런 이유로 IBM, 인텔, 그리고 애플·페이스북·알파벳 연합은 미래주의자, 시민권 운동가, 과학자들과 손을 잡고 인공지능의 윤리적 기준 또는 일종의 행동 규범 수립을 모색하고 있다.

그러나 비평가들은 기업들의 이러한 시도를 도시, 주 또는 연방 정부의 규제를 무디게 하기 위한 노력으로 보고 있으며, 규제 대상인 기술 회사들이 자신들을 규제할 규칙을 만든다는 것이 적절한 것인지에 대해서도 의문을 제기한다. 기업들에게 있어 자신들이 보유하고 있는 알고리즘은 당신의 대출 신용도, 입사 지원서, 뇌졸증 위험 등을 평가할 수 있는 자신들만의 재산권이다. 많은 사람들은 의사 결정을 하는 것을 배울 뿐만 아니라 그런 결정을 외부인에게 설명까지 해 주는 인공지능 시스템을 개발하는 것에 대해 치러야 할 대가에 대해 잘 모르고 있다.

뉴욕시가 지난 8월 도시 기관들이 사용하는 알고리즘에 대한 소스 코드를 기업들이 공개하도록 요구하는 법안을 제출하자, 기술 회사들은 자신들의 재산권인 알고리즘을 보호해야 한다고 말하면서 이를 반대했다. 시는 결국 지난 12월 소스 코드 요구 조항을 삭제한 채 법안을 통과시켰다.

인공지능에 관해 시 의원들에게 도움말을 주었던 워싱턴 대학교의 라이언 칼로 법학 교수는 "그들이 기업 비밀 뒤에 숨어서 무엇을 하는지 전혀 알 수 조차 없다.”고 말했다.

인공지능이란 넓은 의미에서 컴퓨터가 빅 데이터를 처리해 자동차 사고를 피하는 것부터 다음 번 범죄가 어디서 일어날 것인지 까지 모든 것을 판단하는, 이른 바 지능적 행동을 흉내 내는 것을 말한다.

그러나 컴퓨터 알고리즘이라고 해서 논리적으로 항상 명확하지는 않다. 만약 컴퓨터가 특정 성별이나 인종에게 계속 대출을 거부한다면, 그것이 인종 차별 아닌가? 규제 당국이 그런 결정을 내린 알고리즘을 검사할 권리가 있는가? 알고리즘이 스스로 설명하는 방법을 모른다면 어떻게 할 것인가?

오바마 행정부는 이러한 문제를 해결하려고 노력했다. 오바마 행정부에서 美 과학기술국(Office of Science and Technology Policy)은 인공지능의 윤리적 의미에 대한 백서를 발간했다. 그러나 트럼프 행정부 하에서 아직까지 과학기술국 국장도 임명되지 않았으며, 직원의 수도 130명에서 45명으로 줄었다.

현재 트럼프 행정부는 기업들이 이 문제에 앞장 서기를 바라고 있다. 과학기술국의 마이클 크라시오스 부국장은 지난 2월에 열린 한 컨퍼런스에서 "정부는 지나친 규제가 혁신을 제한하고 미국의 경쟁력을 떨어뜨릴 수 있음을 우려하고 있다.”고 말했다. 그는 중국이 인공지능 분야에서 약진하고 있음을 지적했다. 그러나 중국은 윤리적 문제에 대한 고민을 하지 않는 국가다.

크라시오스 부국장은 "우리는 광범위하고 높은 수준의 인공지능 규칙을 추구하지 않을 것”이라고 말하고 “중요한 것은 위대한 차세대 기술이 미국에서 일어날 수 있도록 보장하는 규제 환경을 만드는 것”이라고 주장했다.

▲ 출처= Robotics Business Review

지난 6개월 동안 인텔, IBM, 워크데이(Workday Inc.), 그리고 페이스북, 애플, 구글 등이 모두 회원으로 가입되어 있는 워싱턴 DC의 정보기술산업위원회는 모두 제각각 인공지능의 윤리적 사용에 관한 원칙을 발표했다. 마이크로소프트도 지난 1월에 ‘인공지능과 그 사회적 역할"이라는 책을 발표했다.

2016년에 가장 큰 기술 회사 몇 곳이 “인류와 사회에 기여하기 위한 인공지능 파트너십” (Partnership on Artificial Intelligence to Benefit People and Society)이라는 긴 이름의 윤리 제정 기관을 샌프란시스코에 설립했다. 이 외에도 많은 기업들이 ‘오픈 AI’(Open AI), ‘AI 나우 인스티튜트’(AI Now Institute), ‘닷에브리원’(Doteveryone), ‘민주주의 기술센터’(Center for Democracy & Technology)등 인공지능 업계의 기금 조성에 참여하고 있다.

이들이 제안한 규칙은 정부가 사용할 구체적 지침에서부터 모든 알고리즘은 그 과정을 소비자에게 설명해야 한다는 요건에 이르기까지 다양하다. 대부분의 규칙들은, 드론에 운항 규칙을 어떻게 적용할 것인가, 또는 알고리즘에서 개인 정보 보호 규칙을 어떻게 적용할 것인가 등과 같이 기존의 규칙을 인공지능에 어떻게 적용할 것인가를 다루고 있다.

사실 규칙을 설정하는 것은 매우 복잡한 문제다. 기업들 조차 ‘심층신경망’(deep neural networks)같은 보다 복잡한 시스템이 어떻게 답에 도출하는지를 설명할 수 없기 때문이다. 지난 해, 워싱턴 대학교 연구원들은 알고리즘이 늑대와 썰매를 끄는 에스키모의 허스키 개(husky dogs)를 구분하는 법을 스스로 터득하는 것은 알고리즘이 동물에 대한 통찰력을 가지고 있어서가 아니라 늑대 사진의 땅 바닥에 눈이 쌓여 있는 것을 인식했기 때문인 것 같다고 보고했다.

미국 국방첨단과학기술연구소(Defense Advanced Research Projects Agency)에서 알고리즘이 자신의 정보 지식 습득 과정을 설명하게 만드는 프로젝트를 이끌고 있는 데이브 거닝은 "구글, 페이스북 같은 회사들은 알고리즘의 성능, 즉 알고리즘을 스마트하게 만드는 데에만 큰 관심을 가지고 있다. 그들에게 알고리즘의 설명 능력은 그다지 중요하지 않다."고 말했다.

테슬라와 스페이스 X의 설립자 겸 CEO인 엘런 머스크는 그가 설립한 윤리 연구 그룹 ‘오픈 AI’에서 자신의 역할을 크게 축소시켰다. 머스크는 지난 2월, 이 그룹의 이사회를 떠났다. ‘오픈 AI’는 머스크가 인공지능 시스템을 개발하고 있는 테슬라에서 자신의 역할과 "그룹의 이해 관계가 충돌할 가능성의 여지를 사전에 만들지 않기"를 원했다고 말했다. 그는 ‘오픈 AI’의 고문이자 자금 지원자이다.

일부 의원들은 여전히 윤리 논쟁을 멈추지 않고 있다. 워싱턴의 마리아 캔트웰, 존 델라니 상원의원(모두 민주당 소속임)은 지난 12월, 이 기술의 잠재적 영향을 다루기 위한 연방 자문위원회를 설립하자는 법안을 주도했다. 국회에는 또 지난 해 5월부터 ‘AI 코커스’도 생겼고, 각종 위원회에서는 인공지능, 알고리즘, 자율주행차량에 대한 청문회를 개최하고 있다.

유럽연합(EU)은 이미 인공지능 알고리즘에 대한 규정을 제정했으며 오는 5월부터 발효된다. 인공지능 알고리즘을 사용하는 인력자원 소프트웨어 제조사 워크데이의 짐 쇼니시 부사장은 이제 곧 미국도 가이드라인을 만들기 시작할 것이라고 예상했다.

"업계에서는 언젠가는 인공지능에 관한 정부 규제가 나올 것이라고 예상하고 있습니다. 인공지능의 잠재력과 그 혜택이 번창하는 것을 허용하면서 사회의 요구 조건도 수용하는 규제 체제가 생기기를 원합니다."