▲ 출처=퓨처오브라이프인스티튜트

이른바 '아실로마 AI 준칙'이라 불리는 23개의 AI(인공지능) 개발 준칙이 공개됐다. 천재 과학자 스티븐 호킹과 전기차 회사 테슬라의 엘론 머스크 최고 경영자(CEO)가 자문위원으로 참여한 미 비영리단체가 발표했다.

아실로마 AI 준칙은 AI의 잠재적 위험을 경계하며 더 잘 활용할 수 있는 방안을 모색하자는 취지로 작성됐다. 이 준칙에 AI·로봇 연구자 816명을 포함해 총 2000여 명이 서명했다. 

지난 1월 5일(현지시간) 인공지능(AI) 연구를 지원하는 비영리단체 '퓨처오브라이프인스티튜트'(FLI)는 '유익한 AI 2017'라는 콘퍼런스를 미국 캘리포니아 주 아실로마에서 3일간  동안 개최했다. 이 자리에서 아실로마 AI 준칙이 공개됐다. 

미국 보스턴에 자리한 FLI는 AI 관련 연구에 집중적으로 투자하고 있다. FLI는 공식 홈페이지에 "삶을 나아지게 하기 위한 발전과 미래에 대한 긍정적인 비전, 신기술과 도전을 통해 사람들이 자신만의 길을 개척할 수 있도록 돕기 위한 단체"라고 설명했다.

FLI는 스카이프의 공동 창업자 얀 탈린과 빅토리아 크라코브나 구글 산하 AI 연구소 딥마인드의 리서치 과학자 등 다섯 명이 함께 창업했다. 그 밖에 할리우드 배우 모건 프리먼, 스티븐 호킹, 엘론 머스크 등 14명이 자문위원이 단체에서 활동 중이다.

AI 관련 기술은 빠르게 성장할 전망이다. 시장조사업체 IDC는 AI 관련 기술 글로벌 시장이 2019년까지 92억달러(약 10조5500억원)에 달할 것으로 예상했다. FLI는 공식 홈페이지에 AI준칙을 ▲연구 분야 이슈 ▲윤리와 가치 ▲장기 이슈 등 3가지 키워드로 분류해 공개했다. 23가지 AI준칙에 대해 알아보자.

 

연구 분야 이슈로 5가지 준칙이 마련됐다.

첫번째로 연구 목적 준칙은 “AI 연구 목적은 사람에게 지시받는 지능이 아니라 혜택을 주는 지능 창조"를 규정했다. 이어 두번째 준칙인 연구 자금 활용 준칙에서 "AI 연구 관련 투자는 AI의 유익한 활용을 전제로 한다”고 정리했다. 컴퓨터 과학, 경제, 법, 윤리, 사회학 분야의 복잡한 질문들도 연구에 포함한다.

또 과학과 정책 연결 준칙으로 “AI 연구자들과 정책 연구자들 간의 건강한 교류가 수반돼야 한다”는 내용을 담았다. 연구문화 준칙으로  “AI 연구자들과 개발자 육성에는 협동·믿음·투명성이 기반이 돼야 한다”고 했으며, 5번째인 경쟁 무효 준칙은 “AI 개발 팀은 활발한 협동을 바탕으로 하며 안정성을 이유로 과열 경쟁은 피한다”며 과잉경쟁 우려를 담았다. 

 

인공지능 윤리와 가치 부분 준칙으로 13개가 있다.

이 부문에서 AI에 대한 인류의 우려를 집중적으로 다루고 있다.

6번째 준칙인 안전성 준칙은 “AI시스템은 사용중인 기간 동안 안전하게 보호돼야 한다. 또한 시스템이 어디에 적용되고 쓰이는지 확인할 수 있어야 한다”는 내용이다.

이어 실패 투명성 준칙은 “AI 시스템이 문제를 일으킨다면 왜 문제가 발생했는지 규명돼야 한다”고 규정했고, 사법 투명성 준칙은 “법적인 문제에 휘말리게 된다면 결정하기 전에 검증된 사람으로부터 회계 감시를 받아야 한다”는 내용이다.

특히 책임 준칙과 관련,  “고성능 AI 시스템을 만든 디자이너와 설계자는 해당 시스템의 도덕적 이용과 오용에 대한 책임이 있다. AI 역량을 구성할 기회도 가질 수 있다”는 내용이다.

이어 가치 배열 준칙은 “고도화되고 자율적인 AI시스템은 구동 과정에서 존재의 목적과 행동이 사람의 가치와 수평을 이뤄야 한다”고 규정했다. 이어 인간 가치 준칙은 “AI 시스템은 사람의 존엄, 권리, 자유와 문화적 다양성과 어울리게 디자인되고 구동돼야 한다”는 내용이다. AI가 인간의 존엄과 가치를 지키는 노력에 일치해야 한다는 것이다.

13번째 준칙인 개인 사생활 준칙은 “사람은 AI가 분석하고 이용하는 데이터를 지배하고 관리할 수 있다”, 자유와 사생활 준칙은 “개인의 데이터를 AI에 활용할 때 불합리하게 사람들의 자유를 축소해서는 안 된다”고 했다.

이익 공유 준칙은 “AI 기술은 최대한 많은 사람들에게 공유되고 권한이 부여돼야 한다”는 내용을 담았으며, 번영 공유 준칙은 “AI에 의해 창출된 경제적 번영은 넓게 공유돼야 한다. 모든 인류에게 이익이 될 수 있어야 한다”고 정리했다.

사람 조종 준칙은 “사람은 선택한 목표에 도달하기 위해 AI 시스템에 결정권을 위임할 것인지 선택해야 한다”는 내용이다. 17번째로 비 전복(Non-subversion) 준칙은 “고도의 AI 서비스를 통제함으로써 생기는 힘은 인류 발전을 위해 쓰여야 한다”고 인류발전에 반하는 행동을 금지했으며, AI 군비경쟁 준칙으로 “파괴적인 자율 무기 경쟁을 둘러싼 군비 경쟁은 피해야 한다”는 내용도 담았다.

 

장기 이슈 관련 준칙도 5개 준칙으로 구성되어 있다.

19번째 준칙인 역량 경고 준칙은 “합의된 여론이 없는 상태에서 미래 AI 역량의 한계에 대한 강력한 가설은 삼가야 한다”고  했으며, 중요성 준칙으로는 “고도화된 AI는 지구 역사를 뒤바꾸는 엄청난 무언가를 상징한다. 적절한 관리가 계속돼야 한다”는 내용을 담았다.

위험성 준칙은 “AI 관련 위험은 실존적이거나 파괴에 관련된 것들이다. 앞으로 있을 영향에 대비해야 한다”고 지적했으며, 특히 자가발전 순환 준칙은 “AI 시스템은 스스로 발전하거나 자가 복제할 수 있게 디자인된다. 이는 양적으로나 질적으로 급격히 증가할 수 있기에 엄격한 안전 관리 및 제어 조치가 수반돼야 한다”는 내용이다.

마지막으로 공통 이익 준칙은 “슈퍼 인텔리전스는 윤리적 이상을 널리 공유하는 방식으로 발전돼야 한다. 이는 한 국가나 조직보다 모든 인류의 이익을 위해 개발돼야 한다“는 내용을 담았다.