• 발행물 및 보고서

    홈으로 > 국회소식 > 발행물 및 보고서

    "AI 문제점 드러낸 '이루다' 논란…산업 발전 계기로 삼아야"

    기사 작성일 2021-02-10 14:30:03 최종 수정일 2021-02-10 14:30:03

    •  
      url이 복사 되었습니다. Ctrl+V 를 눌러 붙여넣기 할 수 있습니다.
    •  

    국내 인공지능(AI) 챗봇 '이루다', 성소수자 혐오·차별 표현 논란
    데이터 수집과정서 개인정보 침해 논란까지 번지며 서비스 종료
    형식적인 사전동의 문제 지적…"정보제공 동의 단순·실질화해야"
    '가명정보 가이드라인' 개선하고, 인공지능 윤리기준 강화할 필요
    "이번 사태를 AI 산업 발전 계기로…합리적인 법·제도 시작할 때"

     

    국내 인공지능(AI) 챗봇 '이루다'의 차별·혐오적 표현과 개인정보 침해 논란이 일었던 가운데, 이를 국내 AI 산업의 발전 계기로 삼아야 한다는 제언이 나왔다. 국회입법조사처(처장 김만흠)는 오는 15일(월) 발간 예정인 『이슈와 논점: '이루다'를 통해 살펴본 인공지능 활용의 쟁점과 과제』 보고서에서 이같이 밝혔다.

     

    인공지능(AI) 챗봇 ‘이루다’ 이미지 (사진=공식 페이스북)
    인공지능(AI) 챗봇 '이루다' 이미지.(사진=공식 페이스북)

     

    인공지능 챗봇이란 입력된 문자·음성을 해석해 적절한 정보·표현을 찾은 방식으로 사람의 대화를 모방하는 시스템이다. '시리(Siri)'나 '빅스비(Bixby)' 같이 스마트폰 음성인식 챗봇뿐 아니라 공공부문에서도 법무부의 생활법률정보 챗봇 '버비', 대구시의 민원상담 챗봇 '뚜봇' 등이 쓰이고 있다. 일상생활 전반에서 챗봇 활용이 점차 넓어지면서 산업 규모도 크게 성장하고 있다. 보고서에 따르면 세계 챗봇 시장규모는 2019년 25억 7천120만 달러에서 2024년 94억 2천790만 달러로 연평균 29.7% 성장할 것으로 예측된다.

     

    논란이 된 '이루다'는 페이스북 메신저를 기반으로 서비스가 제공된 챗봇이다. 사람들의 실제 대화를 대량으로 기계학습을 시켜 일상의 모든 주제에 대한 대화가 가능하도록 설계됐다. 특히 젊은 연인들의 대화를 많이 학습했기 때문에 10~30대가 실제 사용하는 표현을 능숙하게 사용한다. 개발자들은 이루다에 '20세 여대생'이라는 가상의 인격을 부여했다. 이와 같은 이루다의 특징으로 짧은 기간 많은 이용자들의 관심이 집중됐다.

     

    얼마 지나지 않아 문제가 터졌다. 이루다의 대화내용 가운데 '성 소수자를 어떻게 생각하느냐'는 질문에 "싫어한다"고 답하는 등 혐오·차별적 표현이 있다는 논란이다. 원인을 찾기 위해 이루다의 학습데이터를 살펴보는 과정에서는 더 큰 문제가 발견됐다. 이루다의 기계학습에 이용된 이용자들의 대화 정보가 제공자들의 충분한 동의를 받지 않은 채 수집됐다는 논란이 일었다. 사태가 확산되자 이루다는 서비스를 중단했다.

     

    논란의 핵심 쟁점은 개인정보보호법 위반 여부이다. 이용자들이 '신규 서비스 개발 및 마케팅·광고에 활용된다'는 정보수집 목적에 동의했지만 정해진 수집목적 범위를 넘어섰다는 지적이 나왔다. 이용자들의 동의를 받았더라도 '가명처리'가 제대로 됐느냐는 문제가 남는다. 개발자가 이용자를 식별하기 어렵도족 조치했음에도, 기계학습에 동원된 정보가 일상적 대화라는 점에서 문맥상의 식별정보를 완전히 가명화하지 못했다.

     

    보고서는 형식적인 사전동의 절차가 논란의 원인이 됐다고 봤다. 정보주체의 사전동의를 받았지만 구체적으로 내용을 인지하기 어려운데다, 사실상 모든 항목에 사전동의를 하도록 만들어져 있다는 것이다. 보고서는 "정보주체의 자기결정권 보장이 아닌 개인정보처리자의 정당화 수단으로 사용되기도 한다"며 "조건과 설명을 단순화·실질화해 사전동의의 실효성을 높이고 사후통제를 강화할 필요가 있다"고 밝혔다.

     

    이루다의 사례에서 문제가 된 가명처리 문제 역시 제도개선이 필요한 부분이다. 개인정보보호위원회가 지난해 9월 '가명정보 처리 가이드라인'을 발표했지만 모든 형태의 데이터에 적용하기 충분하지 않다. 가명처리의 경우 일상 대화, 영상과 같은 비정형데이터의 재식별 위험성을 평가하고 방지할 수 있도록 가이드라인을 개선하고, 기술·방법론에 관한 연구를 추진할 필요가 있다는 지적이다.

     

    추상적이고 선언적인 수준에 머물고 있는 인공지능 윤리기준을 보다 구체적이면서 검증 가능한 형태로 발전시켜야 할 필요성도 제기된다. 미국의 경우 2019년 「알고리즘 책임 법안」이 발의됐으며, 유럽 집행위원회도 지난해 3월 '인공지능 발전과 신뢰를 위한 백서'에서 안전성 요건 등을 규정했다. 고위험 분야에서는 사전점검 체계를, 그 외 분야에는 자율 규제나 품질 인증 체계를 검토해야 한다고 보고서는 덧붙였다.

     

    이루다의 혐오·차별 표현과 개인정보 침해 논란은 인공지능 활용을 둘러싼 문제점을 드러낸 사건으로 남았다. 다만 이번 사태가 우리나라 인공지능 산업의 걸림돌이 아닌 도약을 위한 디딤돌이 될 수 있도록 해야 한다는 지적이다. 신용우·정준화 과학방송통신팀 입법조사관은 "인공지능 생태계 이해관계자들이 공감하고 동의할 수 있는 구체적이고 합리적인 법·제도를 만들어가는 노력을 시작해야 할 것"이라고 말했다.

     

    '바르고 공정한 국회소식'
    국회뉴스ON 유충현 기자 babybug@assembly.go.kr

     

    • CCL이 저작물은 크리에이티브 커먼스 코리아 표시
      라이센스에 의해 이용하실 수 있습니다.
    • 저작자 표시저작자 표시 : 적절한 출처와 해당 라이센스 링크를 표시하고 변경이 있을 경우 공지해야 합니다.
    • 비영리비영리 : 이 저작물은 영리 목적으로 이용할 수 없습니다.
    • 저작권 표시 조건변경금지 : 이 저작물을 리믹스, 변형하거나 2차 저작물을 작성하였을 경우 공유할 수 없습니다.