"30년 내 인류 종말될 수도" 노벨상 받은 AI 내부고발자의 폭로
AGI로 가는 길, 과연 옳은가?
인공지능(AI) 분야의 개척자이자 올해 노벨물리학상 수상자인 제프리 힌턴 캐나다 토론토대 교수가 AI 기술의 급속한 발전이 인류 생존에 심각한 위협이 될 수 있다고 경고했다. 27일(현지시간) 영국 일간 가디언에 따르면 힌턴 교수는 BBC 라디오 인터뷰에서 "AI로 인해 30년 안에 인류가 멸종할 가능성이 10∼20%에 달할 수 있다"며 "기술 변화의 속도가 상상을 초월한다"고 우려했다.
그는 나아가 AI의 발전 속도가 전문가들의 예측보다 훨씬 빠르다며 "인류는 우리 자신보다 더 똑똑한 존재를 상대해본 적이 없다"고 지적했다. 그는 "더 지능적인 존재가 덜 똑똑한 존재에 의해 통제되는 사례는 거의 없다"며 인간이 AI를 통제하는 것은 어려울 것이라고 전망하는 한편 매우 강력한 AI 시스템에 비하면 인간은 마치 유아와 같은 존재일 것이라며 "우리는 세살짜리 아이처럼 될 것"이라고 비유했다.
힌턴 교수는 또 AI 기술의 위험성을 관리하기 위해 정부의 적극적인 규제가 필요하다고 주장했다. 그는 "이윤을 추구하는 대기업에만 AI의 안전을 맡기는 것은 충분하지 않다"며 "대기업이 더 안전한 연구를 강제적으로 수행하게 하는 유일한 방법은 정부 규제"라고 강조했다.
AI 기술은 현재 민간 기업이 주도적으로 발전시키고 있지만, 힌턴 교수는 이윤 추구가 우선될 경우 안전성과 윤리적 고려가 희생될 수 있다고 경고했다. 그는 특히 대기업이 빠른 기술 개발 경쟁에 몰두하는 상황에서 정부가 개입하지 않으면 AI가 통제 불능 상태에 이를 가능성이 있다고 지적했다.
AI 발전, 옳은가?
힌턴 교수의 경고는 AI 기술의 급속한 발전에 따른 윤리적·사회적 문제를 짚었다는 평가다. 그는 AI 기술이 단순히 인간의 삶을 편리하게 만드는 것을 넘어, 인류의 존속 여부에 영향을 미칠 수 있는 수준으로 발전하고 있음을 강조하고 있기 때문이다.
지금은 상황이 더 심각해지고 있다는 것이 그의 주장이다. 실제로 힌턴 교수는 과거 AI 발전이 인류에 재앙적인 결과를 초래할 확률을 10%로 추산했지만, 현재는 그 가능성을 10∼20%로 상향 조정했다.
물론 그의 경고를 가볍게 여기지 않고 시스템을 통해 위기를 관리하려는 노력은 계속되고 있다. 대표적인 것이 유럽연합(EU)의 포괄적 AI 규제법이다. 법안은 크게 ▲시민권리·민주주의에 위협이 될 수 있는 AI 금지 ▲법 집행 기관에 대한 예외 허용 ▲범용AI에 대한 가드레일 제정 ▲혁신 중소기업 지원 등으로 이뤄졌으며 AI의 역할과 영역에 대한 명확한 '가이드 라인'을 제시했다는 평가를 받는다.
한국도 마찬가지다. AI의 정의에서부터 산업 지원, 윤리와 신뢰성 확보, 국가적 거버넌스 체계 수립까지 포괄적인 내용을 담은 AI 기본법이 최근 국회 본회의를 통과하며 역시 AI 가이드 라인을 명확히 그으려는 노력이 이어지는 중이다. 다만 EU와 한국의 AI 법 모두 가짜뉴스 등 AI 부작용에 주목하면서도 산업 전반의 역학관계를 의식, 그 이상의 시스템 구축에는 미흡하다는 평가를 받는다. AI 산업 발전을 위한 기초 다지기에 머물러있어 AGI 공포를 해결하려는 본격적 시도에는 미치지 못한다는 뜻이다.
이런 가운데 나온 힌턴 교수의 발언은 AI 연구자들과 정책 입안자들에게 AI 기술 발전의 방향성과 윤리적 책임에 대한 깊은 논의를 요구하고 있다는 평가다. 그는 기술 발전이 단순히 빠르다고 해서 긍정적인 것은 아니며, 안전성과 통제 가능성을 우선시해야 한다고 주장했다.
그의 경고는 나아가 AI 기술 발전이 단순한 기술적 문제가 아니라 인류 전체의 생존과 직결된 문제임을 보여준다. 앞으로 AI 기술의 발전이 인류에게 어떤 영향을 미칠지에 대한 논의가 더욱 활발히 이루어질 것으로 보인다.
AI 내부고발자의 폭로, 의미심장한 이유
힌턴 교수는 AI의 '대부'로 불린다.
1986년에 발표한 ‘오류 역전파 알고리즘(Backpropagation Algorithm)’ 논문으로 AI 연구에 이정표를 세웠고 2006년 심층 신뢰망(Deep Belief Network) 연구를 통해 현대 AI 기술의 기반을 만들었기 때문이다. 2012년 힌턴 교수와 그의 제자들이 만든 ‘AlexNet’ 모델은 이미지넷(Imagenet) 대회에서 압도적인 성능으로 우승했으며 2013년 구글에 입사해 2018년에는 연구의 성과를 인정받아 ‘컴퓨터 과학계의 노벨상’이라 불리는 튜링상(Turing Award)을 수상하기도 했다.
현대 AI 기술 개발의 틀을 제시했음에도 그는 AI 회의론자, 혹은 AI 내부고발자로 불린다. "나는 이제 죽음이요, 세상의 파괴자가 되었다" 대표적인 반핵운동가로 변신한 오펜하이머가 괴롭게 중얼거렸던 것처럼 그도 자신이 정립한 AI 기술이 세상의 파괴자가 될 것이라 말하고 있다.
구글에서 부사장까지 역임했지만 지난해 4월 구글과 결별한 이유다. 실제로 그는 "AI의 부정적 영향을 자유롭게 경고하기 위해 구글을 떠났다"고 밝힌 바 있다. 이후 AI 기술이 인류에게 재앙적인 영향을 미칠 가능성을 지속적으로 경고하고 있으며, 지난해 오픈AI에서 AGI를 추진하던 샘 올트먼 CEO를 축출하려던 일리야 슈츠케버도 힌턴 교수의 제자로 잘 알려져 있다.
힌턴 교수는 AI가 인간의 통제를 벗어나게 될 위험을 언급하며, 이러한 가능성에 대해 진지하게 대비해야 한다고 주장했다. 그는 AI 시스템이 점점 더 강력해지면서 인간의 지적 능력을 능가할 가능성이 높아지고 있으며, 이는 인류 생존에 치명적인 도전이 될 수 있다고 전망했다.
다만 아직은 AGI 전반에 대한 질주가 대세다. 당장 챗GPT 개발사 오픈AI는 비영리 이사회의 통제를 받는 기존의 영리 자회사 법인을 '보통 주식(ordinary shares of stock)을 가진' 공익법인(Public Benefit Corporation, PBC)으로 전환하는 방안을 검토하고 있다.
오픈AI가 AI의 공포를 막으려는 비영리 조직의 틀을 깨고 본격적으로 자본주의에 입각한 영리회사의 영역으로 나아가는 순간이다. 그 아래에서 AI에 대한 돈의 힘으로 질주하기 시작한 AI의 광기를 막기 어렵다는 분석도 지배적이다.