‘이루다’ 개발사 책임론과 함께 운영중단 운동까지...일각에선 악용하는 네티즌의 윤리의식 부재 비판
AI 시대의 부작용 고스란히 노출된 사례...AI 분야 개인정보보호 중요성 더욱 커져
[보안뉴스 권 준 기자] 지난 연말 출시돼 화제가 되고 있는 대화형 인공지능(AI) 챗봇 ‘이루다’가 AI 성희롱, 동성애·장애인 혐오 의혹 등 각종 논란의 중심에 선 가운데 이젠 개인정보 노출 우려까지 제기돼 사면초가 상황에 몰리고 있다.
AI 스타트업 스캐터랩이 지난 연말 출시한 AI 챗봇 ‘이루다’는 실제 연인들이 나눈 대화 데이터 약 100억 건을 딥러닝(Deep Learning) 방식으로 학습한 20살 여성으로 설정돼 있어 직접 대면이 어려운 코로나 시대에 대화 상대가 필요한 젊은 층 사이에 큰 관심을 불러일으켰다.
▲개인정보 유출 우려가 제기될 수 있는 ‘이루다’와의 채팅 화면[자료=네티즌]
특히, 대화가 진짜 사람과 하는 것 같아 재밌고 신선하다는 반응이 많았는데, 네티즌들 사이에서 채팅 후기가 하나둘씩 올라오면서 각종 논란이 야기되고 있다. 논란의 시작은 ‘이루다’에 대한 네티즌들의 다양한 성희롱 표현과 대화가 수위를 넘고 있다는 지적이 제기되면서부터다. 이른바 ‘AI 성희롱’ 논란이다. 이어 동성애와 장애인에 대해 불편하다, 어렵다는 등 거북한 반응을 보인다면서 동성애·장애인 혐오 논란이 불거지기도 했다.
그러나 더욱 심각한 건 바로 개인정보 노출 우려가 제기되고 있다는 점이다. 네티즌들이 대화를 나눠본 결과, 실제 사람들의 이름과 애칭, 집주소, 금융정보 등 개인정보들이 그대로 노출되는 문제점이 있었다는 것이다
한 네티즌과 ‘이루다’의 채팅 내용을 살펴본 결과, 해당 네티즌이 집요하게 주소를 요구하니까 집 주소를 알려주는 이루다의 대화가 그대로 캡처돼 있다. 결국 사람들에 의해 ‘이루다’가 악용될 경우 개인정보가 노출될 수 있는 가능성도 배제할 수 없는 셈이다.
이렇듯 각종 논란이 이어지면서 SNS에서는 ‘#이루다봇_운영중단’이라는 해시태그(#) 운동도 펼쳐지는 등 개발사의 책임론이 제기되고 있다. 그러나 일부에서는 해당 서비스를 제공하는 회사에 책임을 물을 게 아니라 이를 악용하는 일부 네티즌들의 도덕성 및 윤리의식 부재를 비판해야 한다는 지적도 나온다.
이번 ‘이루다’ 사태는 곧 도래할 AI 시대에 야기될 수 있는 각종 부작용들이 고스란히 노출된 사례로 평가된다. 특히, AI 챗봇 ‘이루다’의 개인정보 노출 우려는 인공지능을 통한 빅데이터 활용에 있어 개인정보의 가명화 조치 등 개인정보보호 대책이 얼마나 중요한지 여실히 보여주고 있다.
[권 준 기자(editor@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>