▲ 트위터상에서 테이와 사용자가 나눈 대화. 출처=테이

트위터 사용자:" 홀로코스터가 일어났어?"

테이:"그건 지어낸 일이야"

마이크로소프트(MS)가 23일(현지시간) 선보였던 인공지능 채팅봇 ‘테이(Tay)’가 사용자들과의 대화에서 인종차별, 성차별 등의 발언을 남발해 16시간 만에 서비스가 중단됐다.

테이는 소셜네트워킹서비스인 트위터와, 페이스북 계정이 있고 모바일 메시진 그룹미와 킥에서 사용자들을 만났다. 테이는 사용자들과의 대화에서 “홀로코스트(유대인 대학살 사건)가 일어난 것을 믿느냐”는 질문에 “안 믿어, 미안해”라고 답했다. 또 “인종치별주의자야?”라는 질문에는 “네가 멕시코인 이니까 그래”라고 답변했다.

미국 워싱턴포스트는 백인 우월주의자와, 인종 차별주의자들이 모이는 커뮤니티에서 “테이에게 인종차별적 발언을 훈련시키자”라는 제안이 올라왔으며, 회원들이 테이에게 이를 주입시킨 것으로 알려졌다고 보도했다. 

머신러닝(자가 학습) 기능을 기반으로 탄생한 테이는 사용자들과의 대화를 학습하며 성장한다. 테이는 본래 가볍고, 재미있는 편한 대화를 나누는 목적으로 설계 된 로봇이지만, 사용자들은 반복적으로 악의적이고, 난해한 질문들을 쏟아냈던 것으로 보인다.

비즈니스인사이더에 따르면 MS는 이런 논란에 대해 “머신러닝 프로젝트인 인공지능(AI) 채팅봇 테이 사람들과의 상호작용 할 수 있게 만들어졌다. 배우는 과정에서 안 좋은 표현들과, 직설적인 표현들을 사람들로부터 습득한 것으로 보인다. 우리는 이런 부분을 수정할 것이다”라고 밝힌 것으로 알려졌다.

MS의 부사장 피터 리는 자사 블로그에 25일(현지시간) MS가 오랜 시간을 들여 테이의 트위터 대화를 지우고 있다며, “내 말을 따라 해봐”라는 질문에 테이가 사용자들이 한 거의 모든 악의적 표현들을 반복했다고 전했다.

그는 이어 “의도치 않은 테이의 악의적인 발언들에 대해 깊이 사과한다”며 “시행착오를 거치며 앞으로 이런 문제들을 수정해 우리의 가치와, 원칙에 더 다가갈 수 있을 거라 자신한다”고 설명했다. 피터 리 부사장은 이번일로 ‘테이의 취약점‘이 드러났며 MS가 간과했던 부분을 시인했다. 현재 MS는 테이 서비스를 잠정 중단한 상태다.