본문 바로가기

PRISM

[PRISM] 성희롱해도 되는 인공지능은 없다

평등사회노동교육원 웹진 [e-품]의 <PRISM> 꼭지는 노동과 이어지는 다양한 사회운동과 관련한 내용을 싣습니다. 이번 호에서는 논란이 되었던 챗봇 이루다 사건에 대한 딥러닝 연구자님의 기고문을 싣습니다. 급작스럽게 부탁드렸음에도 흔쾌히 기고해주신 현주 선생님께 특별한 감사의 말씀을 드립니다:) [편집자주]

 

성희롱해도 되는 인공지능은 없다

 

현주

딥러닝 연구자

 

챗봇 이루다 소개 (사진=이루다 홈페이지) [편집자주]

 

  작년 말 공개되었던 인공지능 챗봇 이루다 AI’는 서비스 개시 2주 만에 약 80만여명의 사용자를 끌어들이며 주목을 받았습니다. 기존의 자연어처리연구 분야에서 한국어는 언어 자체의 구조적 특징 및 실제 사용자 수 등의 이유로 처리하기 어려운 언어입니다. 이루다 AI는 이런 문제점을 해결하여 실제 상용화에 성공한 사례로 볼 수 있습니다. 그러나 해당 서비스는 성소수자 혐오, 성노예 공략법, 개인정보유출 등 다양한 논란을 일으켰고 제작사는 출시 3주만에 잠정적으로 서비스를 중단했습니다. 이 글에서는 이러한 문제점이 왜 일어나는지 인공지능 분야 연구자의 입장에서 간단하게 짚어보고, 이번 사건이 현재 한국사회에서 왜 문제적인지를 다뤄보고자 합니다.

 

  사람들은 보통 인공지능 기술 기반의 시스템이 사람보다 더욱 공평하다고 생각합니다. 그러나 인공지능이 공평하지 않다는 것은 이미 잘 알려진 사실입니다. 대표적인 예로 컴퍼스(COMPAS)라는 인공지능 시스템이 있습니다. 이 시스템은 미국의 여러 주의 법원에서 구속 여부 등의 판단을 보조하는데, 아프리카계 미국인에게 더 높은 확률로 구속 판단을 내렸다는 점이 드러났습니다.

 

  이러한 일이 일어나는 이유는 인공지능 시스템을 구성하는 알고리즘과 데이터의 편향성 때문입니다. 알고리즘과 데이터라는 단어가 낯설 수 있으니, 이루다 AI를 예시로 들어 설명해보겠습니다. 이루다 AI는 인간의 언어를 이용하여 대화를 나누기 위해 설계된 챗봇(chatbot)입니다. 이 챗봇은 알고리즘과 데이터로 구성되어 있습니다. 사람과 문자로 대화하는 프로그램이므로 입출력 데이터로 문자 언어를 사용하고, 사람이 입력한 문장에 대해 가장 자연스러운 답을 찾는 알고리즘을 통해 대답을 출력합니다. 하지만 가장 자연스러운답이라는 말에는 함정이 있습니다.

 

  제작사에 따르면 입출력 데이터로는 실제 연인간의 메신저 대화를 사용했고, 알고리즘으로는 해외에서 개발된 자연어처리 모델을 기반으로 삼았다고 합니다. 통계적 모델 기반 학습 알고리즘은 주어진 데이터에 대해서 대체로 가장 평균값에 근접한 결과를 출력합니다. 이러한 방식에서 자연스럽다는 말은 사실 가장 평균에 가까운 데이터를 내놓는다는 말과 같습니다.

 

  수학의 세계에서는 가장 많이 나타나는 값이 대표적인 값이 될 수 있겠지만, 실제 사람이 살아가고 있는 세상은 훨씬 복잡하고 여러가지 이해관계가 얽혀 있기 때문에 이 법칙이 항상 유효하지 않습니다. 실제 세계의 데이터는 실제 세계의 편견을 반영할 수밖에 없습니다. 사회의 편견이 반영된 데이터를 사용했고, 자연스러움이라는 단어의 수학적 의미와 사회적 의미가 다르다는 점을 놓친 것입니다. 결론적으로 알고리즘과 데이터의 편향성을 고려하지 않은 설계가 문제의 원인이었다고 볼 수 있겠습니다.

 

  편견을 이미 내포하고 있는 프로그램이 위험한 이유는 결국 이 프로그램이 실제 사람의 판단과 의사결정과정에 영향을 미치기 때문입니다. 인공지능 시스템이 공평하고 가치중립적이라는 잘못된 가정을 전제하고 서비스를 이용한 사용자들은 자신들이 편견을 학습하고 재생산하고 있다는 것을 알지 못합니다. 오히려 사회적 편견을 강화하는 행동이라고 볼 수 있습니다.

 

  여성에 대한 대상화가 일상화된 한국 사회에서, 해당 서비스의 대화 상대가 실제 사람이 아니므로 문제없다는 논리는 모순입니다. 왜냐하면 해당 서비스는 사용자가 이 가상 인격을 실제 사람과 구분하지 못하는 것을 목표로 설계했기 때문입니다. 사람이 아님에도 불구하고 실제 사람과 대화하는 것과 같은 경험을 하도록 설계된 AI 시스템이며 실제 사람 간의 대화를 바탕으로 학습한 시스템입니다.

 

  한국 사회는 역사적으로 여성에 대한 폭력을 계속해서 묵인해왔습니다. 성폭력 사건에서 가해자의 앞날이 창창하니까감형해줘야 한다는 논리가 수시로 등장하고, 오랫동안 아내를 폭행하고 살인을 저질러도 감형을 받을 수 있습니다. 아동 포르노 사이트 운영자는 결혼을 해서 가장이므로감형을 받습니다. 여성에 대한 폭력이 차고 넘치는 세상에서, 아무리 사람이 아닌 인공지능 시스템이라고 할지라도 그에 대한 폭력이 일상적으로 일어나고 그것이 버젓이 전시되는 사회에서 폭력의 대상이 사람이 아니라는 이유로 해당 프로그램의 문제점을 묵인할 수는 없습니다.

 

  결국 현실 세계에서의 차별과 편견에 대한 문제와 해결책이 동일할 수밖에 없습니다. 폭력적인 상황들을 섬세하게 알아채야 하고, 폭력을 저질러도 되는 존재는 없다는 사실을 기억해야 합니다. 그리고 인공지능 시스템을 설계하는 단계에서부터 사회적 편견을 주입하지 않기 위한 방법들을 지속적으로 논의해야 할 것입니다.