▲ 유럽연합의 AI 규제 지침은 새로운 기술이 예상치 못한 부정적인 결과를 초래할 경우 규제 당국이 그런 기술을 따라잡지 못하는 상황을 대비하기 위한 것이다.  출처= TechnologyReview

[이코노믹리뷰=홍석윤 기자] 유럽연합이 글로벌 시장에서는 처음으로 인공지능(AI) 기술 개발과 관련된 윤리지침을 제정, 공개했다. 인공지능 기술 개발에 따른 무분별한 윤리 저해 현상을 사전에 방지하며 기술개발을 이끌어내기 위한 포석이다.

유럽연합 집행위원회(EC)가 8일(현지시간), AI가 사회에 깊숙이 침투하기 전에 AI 시스템의 개발에 영향을 주어야 한다는 목적에 따라 만든 윤리 지침을 공개했다.

유럽연합의 이러한 개입은, 새로운 기술이 예상치 못한 부정적인 결과를 초래할 경우 규제 당국이 그런 기술을 따라잡지 못하는 상황을 대비하기 위한 것이다.

EC는 이날, 인터넷 회사들이 자사의 유해 콘텐츠 플랫폼 폐기에 대해 법적 책임을 져야 한다는 새로운 규정을 제안하면서, 인공지능의 개발에 대한 규제의 필요성도 함께 강조했다.

AI 윤리 지침 초안 작성에 관여한 IBM 유럽의 법규 담당 부사장 리암 벤햄은 "그것은 집을 짓기 전에 기초를 세우는 일과 같습니다. 더 이상 미룰 수 없습니다. 지금이 그 일을 할 때"라고 말했다.

“사람들에게 그들이 지금 접촉하고 있는 것은 다른 사람이 아니라 알고리즘이라는 사실을 알려주어야 합니다.”

유럽연합(EU)은 반경쟁적(독점적) 행위와 세금 미납을 이유로 기술 대기업을 추적하는 과정에서 획기적인 개인정보보호법을 도입하면서 기술 규제를 세계적으로 주도해 왔다.

그 중에서도 국민의 상상력을 사로잡고 오용 가능성에 대한 끔찍한 경고가 제기된 AI는, EU가 가장 최근에 규제에 나선 이슈다. 그것은 결코 쉬운 주제가 아니다.

예를 들어, 구글은 이달 초에 외부 전문가로 구성된 첨단기술외부자문위(Advanced Technology External Advisory Council)라는 인공지능 윤리협의회 구성을 발표했는데, 불과 며칠 후 이를 폐쇄했다. 일부 직원들이 보수 성향 싱크탱크인 헤리티지 재단 대표인 케이 콜스 제임스를 자문위에서 빼야 한다고 요구했기 때문이다.

EC는 AI 개발의 방향을 설정하고 신뢰를 구축하기 위한 7가지 원칙을 만들었다. 물론 이 지침은 구속력은 없지만, 향후 몇 년 안에 나오게 될 추가적인 조치들의 기초가 될 것이다.

★인간의 역할과 감독(Human agency and oversight): AI 시스템은 인간의 역할과 기본권을 존중함으로써 공평 사회에 기여해야 하며 인간의 자율성을 제한하거나 오도해서는 안 된다.

★견고함과 안정성(Robustness and safety): 신뢰할 수 있는 AI가 되기 위해서는 AI 시스템이 존재하는 한 알고리즘이 오류와 불일치를 다룰 수 있을 만큼 안전하고 믿을 만하며 견고해야 한다.

★개인정보 및 데이터 통제(Privacy and data governance): 시민들은 자신의 데이터를 완전히 통제할 수 있어야 한다. 시민들에 관한 데이터가 그들을 해롭게 하거나 차별하는데 사용되어서는 안 된다.

★투명성(Transparency): AI 시스템이 내린 결정은 추적 가능해야 한다.

★다양성, 무차별, 공정성(Diversity, non-discrimination and fairness): AI 시스템은 인간의 능력, 재주, 자격 요건 등을 전체적으로 볼 수 있어야 하며 그에 대한 접근성을 보장해야 한다.

★사회적 환경적 안녕(Societal and environmental well-being): AI 시스템은 사회적 변화를 긍정적으로 고취시키고 지속가능성과 생태적 책임을 강화해야 한다.

★책임성(Accountability): AI 시스템과 그 결과물에 대해 책임을 보장하는 메커니즘이 실행되어야 한다.

▲ 유럽연합의 AI 규제 지침은 AI 시스템을 구축하고 배치하는 사람들에게 책임이 있음을 전적으로 부각시킨다.   출처= Leikeji.com

★핵심은 투명성과 책임

EU의 디지털 경제 부문 최고 책임자인 마리야 가브리엘은 AI 시스템을 사용하는 기업들은 대중에게 투명해야 한다고 지적한다.

“사람들에게 그들이 지금 접촉하고 있는 것은 다른 사람이 아니라 알고리즘이라는 사실을 알려주어야 합니다. 또 알고리즘에 의한 모든 결정은 검증되고 설명되어야 합니다."

예를 들어 알고리즘에 따라 고객의 보험금 청구를 거부하는 보험사는 어떻게 그리고 왜 그런 결정을 내렸는지를 고객이 알 수 있도록 해주어야 한다. 그리고 (부당한 경우) 인간이 개입해서 그 결정을 뒤집을 수 있어야 한다.

EC는 미래의 AI 시스템은 그것이 존재하는 한 안전하고 신뢰할 수 있어야 한다고 강조했다. 또 데이터 보호는 최우선적으로 간주되어야 하며 사용자가 자신의 정보를 통제할 수 있어야 한다.

이 지침은 AI 시스템을 구축하고 배치하는 사람들에게 책임이 있음을 전적으로 부각시킨다.

"만일 어떤 회사가 AI 시스템을 도입한다면, 그 회사는 그것에 대한 모든 책임이 있습니다. 무슨 사고가 발생할 경우, 이러한 책임의 부여는 매우 중요합니다."

★공정성 - 차별 금지

가브리엘은 또 AI 시스템을 도입하는 회사는 그들의 AI 시스템이 공정하다는 것을 보장해야 한다고 언급했다.

예를 들어, 남성만을 고용한 회사의 데이터를 사용해 만들어진 알고리즘을 채용 과정에 사용할 경우, 이 알고리즘이 여성 후보를 거부할 가능성이 높다는 것이다.

"알고리즘이 편향된 입력 데이터를 가지고 있다면 정말 큰 문제가 될 수 있습니다."

그러나 비영리 단체 알고리즘워치(AlgorithmWatch)는 유럽의 지침을 적용하는 것은 좋은 생각이지만, 접근 방식에 약간의 문제가 있다고 지적했다.

알고리즘워치의 마티아스 스필캄프 공동창업자는 "유럽의 지침은 '신뢰할 수 있는 AI'라는 개념에 초점이 맞춰져 있는데, 이는 잘 정의된 용어가 아니기 때문에 문제가 있다"고 말했다.

"신뢰할 주체는 누구이고 신뢰되어야 할 대상은 누구입니까? 미래의 세계에서 ‘관리 감독’이 어떻게 다루어 질 것인지는 아직 확실하지 않습니다.”

마인츠대학교(University of Mainz) 철학 교수인 토마스 메칭거는 EC의 지침 초안 작성에 참여했으면서도, 무기 개발에 AI를 사용하는 것을 금지하는 내용이 포함되지 않았음을 비판했다.

또 이 지침이 혁신에 미칠 영향에 대해 우려하는 이들도 있다.

업계 이익단체인 테크UK(TechUK)의 안토니 워커 대표는 "지침의 세밀한 간섭으로 많은 기업들, 특히 중소기업이 이 기술을 구현하는 것이 까다로워질까 우려된다"고 말했다.

유럽 연합은 이제 기술 대기업들과 함께 시범 프로그램을 통해 이러한 질문들과 다른 문제들을 해결하기 위해 계속 노력해야 할 것이다.