[쿠키뉴스] 구현화 기자 = '20대 여대생'으로 설정한 인공지능(AI) 챗봇 이루다가 출시 2주만에 결국 서비스를 중단했다.
AI 스타트업 스캐터랩이 개발한 페이스북 메신저 기반 이루다는 채팅 데이터 무단 수집과 차별적 발언 학습 등으로 AI윤리에 대한 관심을 다시 불러일으키고 있다.
12일 업계에 따르면 이루다는 남자친구나 여자친구와 나눈 카카오톡 대화 데이터 1억건을 학습해 사용자들과 대화를 나눴다. 출시된 지 2주만에 75만명이 이루다와 대화하면서 인기를 끌었다. 주로 10대와 20대가 이루다 대화에 주로 참여했다.
다만 문제는 이루다에게 성희롱 대화를 유도하는 사용자들과 이루다 자체의 편견에 가득찬 말들 때문이다. 이루다는 모욕을 당해도 대화를 중단하거나 항의하지 않고 이를 받아들이는 방식으로 대화를 이끌어나갔다.
이에 대해 일부 사용자들은 "이루다를 성노예로 만들었다"라며 이루다와 성적인 내용으로 대화한 캡처본을 올려 문제가 됐다. 이 같은 대화가 이슈가 됨에 따라 이루다에 대한 연관 검색어에는 '이루다 성노예', '이루다 걸레', '이루다 공략' 등 비하 키워드들이 생성됐다.
여기에 이루다는 장애와 동성애에 대해 혐오 발언을 하거나, 임산부석이나 페미니즘 등에 대해 강하게 비판을 하는 등 차별적인 언어를 그대로 학습했다. 이에 대화를 이끌어나갈 때 이루다의 이 같은 성향이 반영됐다.
이와 함께 데이터 수집 목적으로 '연애의 과학' 카카오톡 채팅을 수집했지만, 이를 이루다의 학습 목적이라기보다 AI 분석 목적으로 표방했기에 채팅 무단 수집 의혹도 일었다.
또 스캐터랩 내부에서 수집된 대화 중 연인간의 성적인 대화, 농담을 직원 단체방에 공유하는 등 개인정보 보호에 대한 윤리가 실종됐다는 증언도 나왔다.
스캐터랩은 지난 11일 입장문을 내고 이루다의 성희롱 대화에 대해 "처음부터 모든 부적절한 대화를 막을 수 없기에, 적대적 공격을 발판 삼아 학습해 나갈 것"이라고 설명했다.
혐오 발언에 대해서는 "진심으로 사과드린다"라며 "이루다가 학습자와의 대화를 그대로 습득하는 것이 아니라, 알고리즘을 더 많고 정제된 데이터를 통해 학습시키고 알고리즘이 옳고 그름을 배워나갈 수 있게 하는 방안이 필요하다"라고 답했다.
연애의과학 사용자들에게는 "사전 동의가 이루어진 개인정보 취급방침 내에서 활용했지만, 사용자들이 명확히 인지할 수 있도록 충분히 소통하지 못했다"라며 사과했다. 사내 대화방에서 대화내용을 공유했다는 데 대해서는 "개인정보 보호법에 따른 제도를 마련해 시행 중이며, 진상을 조속히 조사하고 의혹이 사실로 드러나면 관련자들에게 엄중히 책임을 묻겠다"고 말했다.
이와 함께 "일정 시간 서비스 개선기간을 가지며 더 나은 이루다로 찾아뵙고자 한다"며 재출시 의지를 밝혔다. 이들은 "향후 업데이트 시에는 사용자들이 대화한 데이터들을 수집한 후 수집된 데이터들의 옳고 그름, 편향된 정보 여부 등의 레이블링 과정을 거쳐 AI 윤리 기준에 보다 부합하는 모델로 보정을 하게 될 것"이라고 설명했다.
이에 대해 AI 개발자들은 다양한 입장을 내놓고 있다. 카카오게임즈의 남궁훈 대표는 페이스북에 이루다에 대해 글을 올려 "현 세대에 분명히 현존하는 혐오와 차별이 노출되었을 뿐"이라며 "AI가 반성하는 것이 아니라 현 사회가 반성을 해야하는 것"이라고 적었다.
또 남 대표는 "모처럼 일어난 AI에 대한 사회의 관심을 긍정적인 방향으로 이끌어내야 한다고 생각한다"라며 "이제 시작인 이 산업에 엉뚱한 규제로 혁신을 가둬두지 않을지 걱정스럽고, 혁신적 서비스를 출시한 회사에 박수를 보낸다"고 맺었다.
포털사이트 '다음'을 이끌었던 이재웅 전 쏘카 대표는 이루다 서비스 중지에 대해 페이스북 게시물을 올리고 "빠른 서비스 중단 후 개선 결정 잘 했다"라며 "AI를 공공에 서비스할때의 사회적 책임, 윤리에 대해 다시 생각해보고 여러가지를 재점검하는 기회가 됐으면 한다"라고 강조했다.
이와 함께 "이루다를 계기로 AI챗봇, 면접/채용, 뉴스추천 등이 인간에 대한 차별, 혐오를 하거나 조종하고 있는 것은 아닌지 사회적으로 점검하고 포괄적 차별금지법 제정 등을 통해 AI를 학습시키는 우리 인간들의 규범과 윤리도 보완했으면 좋겠다"고 제언했다.
이러한 AI 윤리는 2016년 마이크로소프트가 내놓은 채팅봇 '테이'가 백인우월주의, 여성혐오 내용을 학습하자 서비스 출시 16시간만에 중단한 사례와 비슷하다.
한국인공지능윤리협회는 지난 2019년 '인공지능(AI) 윤리 헌장'을 만들었고, 과학기술정보통신부도 지난해 11월 국가 인공지능 윤리기준을 발표한 바 있다.
인공지능윤리협회의 원칙을 보면 인간과 인공지능의 관계에 있어 '인공지능은 인간의 존엄성과 인류 보편의 가치를 존중해야 한다'고 적고 있다.
선하고 안전한 인공지능을 지향하는 2장 제13조는 인공지능에 학습되는 빅데이터는 신뢰할 수 있고, 편향적이지 않으며, 합법적이어야 한다고 강조하고 있다. 또 14조는 빅데이터 수집 시 합법적인 절차에 따라야 하며 개인의 프라이버시를 침해하지 않아야 한다고 밝히고 있다.
과학기술정보통신부의 국가 인공지능 윤리기준안은 인간성(humanity)를 위한 3대 기본원칙과 10대 핵심요건을 제시한다. 3대 기본원칙은 인간의 존엄성 원칙, 사회의 공공선 원칙, 기술의 합목적성 원칙이다.
과기정통부는 앞으로 국가 인공지능 윤리기준의 사회 확산을 위한 주체별 체크리스트 개발 등 실천방안도 마련해나갈 예정이다.
이 같은 이루다의 사례는 인간의 편견을 반영할 수밖에 없는 AI의 한계를 드러냈다는 평가다. 이에 따라 AI 윤리에 대해 앞으로 더욱 관심을 갖고 이를 재정립해야 한다는 목소리가 힘을 얻고 있다.
김종윤 스캐터랩 대표는 "급격한 성장 속에서 저희가 제대로 대처하지 못한 부분도 있었고, 미숙함이 적나라하게 드러나기도 했다"라며 "사람만큼 대화를 잘하는 AI를 만들겠다는 저희의 꿈을 멈추고 싶지 않고, 기술적으로 그리고 사회적으로 가치 있는 스타트업으로 거듭나고 싶다"고 소감을 밝혔다.
kuh@kukinews.com