구글코리아 '책임감 있는 AI 포럼', AI 기본법 쟁점 심층 논의

상반기 두 차례 포럼 개최…고영향 AI 정의·AI 영향평가 등 다뤄

2025-05-26     최진홍 기자

구글코리아 디지털책임위원회는 올해 상반기 ‘책임감 있는 AI 포럼’을 두 차례 개최해 지난 12월 제정된 ‘인공지능(AI) 발전과 신뢰 기반 조성 등에 관한 기본법’(이하 AI 기본법)의 주요 쟁점을 심도 있게 논의했다고 26일 밝혔다. 포럼에서는 AI 기본법의 핵심인 고영향 AI의 정의와 AI 안전성·투명성 확보 및 영향 평가 방안 등이 중점적으로 다뤄졌다.

책임감 있는 AI 포럼은 구글코리아가 책임 있는 디지털 생태계 조성을 위해 지난해 초 발족한 디지털책임위원회 산하 전문 포럼이다. 올해는 법조계, 정책, IT·기술, 스타트업 등 각계 전문가 14인이 참여해 연간 4회에 걸쳐 AI 발전을 둘러싼 국내외 법제화 동향 및 사회윤리적 문제를 살펴보고 책임감 있는 AI 개발과 활용 방안을 모색한다.

지난 3월 열린 1회차 포럼은 AI 기본법의 핵심 쟁점 중 하나인 ‘고영향 AI의 정의와 전망’을 주제로 진행됐다. 현행 AI 기본법은 인간의 생명·안전·기본권에 중대한 영향을 미칠 수 있는 AI 시스템을 11개 분야에 걸쳐 ‘고영향 AI’로 규정하고 있으나, 구체적 범주가 모호해 법률 적용 시 해석 차이가 발생할 수 있다는 지적이 제기돼 왔다.

이에 포럼은 AI 규제법 전문가인 이성엽 고려대학교 기술경영전문대학원 교수를 초청해 고영향 AI의 정의와 기준, 규제 현황을 검토했다. 참석자들은 AI 산업 혁신 촉진과 안전성 확보의 균형점을 찾기 위해 AI 산업 생태계와 현황을 충분히 반영하도록 법안을 개정하고, 모호하거나 중복되는 조항은 재정비하며 후속 책무 및 절차를 보완해야 한다는 데 의견을 모았다.

이어 5월 21일 열린 2회차 포럼은 AI 기본법이 의무화한 ‘AI 안전성·투명성 확보와 AI 영향 평가’를 주제로 다뤘다. AI 기본법은 AI 기술의 위험을 예방하고 국민 기본권을 보호하고자 안전성·투명성 확보 조치와 영향 평가를 의무화했지만, ▲다양한 AI 산업에 일괄적으로 조치를 강제하는 것이 과잉 규제가 될 수 있다는 점 ▲영향 평가의 대상·범위·방법 기준이 모호하다는 점 등이 한계로 지적됐다.

이와 관련, 이상용 건국대학교 법학전문대학원 교수는 ‘AI 규제의 두 가지 패러다임: 맥락 기반 규제와 능력 기반 규제’ 발표에서 AI 위험을 특정 이용 상황 중심의 ‘맥락 위험’과 잠재력 중심의 ‘능력 위험’으로 구분하고, 유연하고 자율적인 규제와 국가적 전략의 필요성을 강조했다. 권은정 가천대학교 법과대학 교수는 ‘AI 영향평가: 의의, 현황, 과제’ 발표를 통해 다변화되는 리스크 유형을 고려한 AI 규제 법제화와 정부·민간 협력 기반의 AI 평가 통합 플랫폼 구축을 제안했다.

이날 포럼 참석 전문가들은 기술과 사회윤리 측면에서 효과적인 AI 영향 평가 방법론 도출에 공감하며, 평가 대상 및 범위, 주체의 책임, 정책 반영 방향 등을 종합적으로 논의했다. 특히 스타트업을 비롯한 다양한 주체의 책임 부담, AI 기술 발전 속도, 국제 규범과의 정합성 등을 고려한 유연하고 단계적인 접근 방식이 AI 활용의 책임성과 규제 정당성 확보에 필요하다고 입을 모았다.

최재식 카이스트 김재철AI대학원 교수 겸 XAI 연구센터장(책임감있는AI포럼 의장)은 “대다수가 AI 프로그램을 사용하는 시대에 AI의 안전하고 효율적인 사용이 그 어느 때보다 중요하다”며 “기존 AI 서비스의 한계와 취약성에 얼마나 잘 대응하는지가 AI의 책임성, 안전성, 나아가 AI 리더십의 향배를 결정짓는 요인이 될 것”이라고 밝혔다.

한편, 책임감있는AI포럼은 상반기 AI 기본법 중심의 규제 논의에 이어, 하반기에는 AI 에이전트, AI 로봇 기술 등 산업 전반에 혁신을 가져올 AI 기술의 영향과 전망을 살펴볼 예정이다.