딥페이크, 누디파이 등 음란 이미지 다수
[보안뉴스 한세희 기자] 국내 인공지능(AI) 이미지 생성 서비스 기업의 데이터베이스에 노골적 음란 이미지들이 대거 노출된 것으로 드러났다. 이중엔 얼굴을 다른 사람과 바꾸거나 일반 사진을 누드 사진으로 바꾼 이미지들도 다수 포함돼 있다.
보안 정보 사이트 VPN멘토의 사이버 보안 연구자 제레미아 파울러는 최근 한국 AI 스타트업 에이아이노미스의 ‘젠노미스’(GenNomis)를 통해 생성된 약 10만장 이미지 등 47.8GB 분량의 데이터가 비밀번호나 암호화 없이 클라우드에 저장된 사실을 발견했다.
외부인이 쉽게 접근할 수 있어 프라이버시 침해나 리벤지 포르노, 추가 공격 등이 우려된다.

▲파울리가 DB에서 발견한 이미지들. 얼굴을 바꾼 이미지 생성을 위해 올린 실제 인물 사진으로 추정된다. [자료: vpn멘토]
파울러는 IT 시스템이나 앱 등의 보안 취약점을 찾아내 경고하고, 개선을 촉구하는 활동가로 유명하다.
그는 “노출된 DB에서 접한 이미지 대부분은 음란물이고, AI로 생성된 어린 아이 이미지도 다수”라고 밝혔다. 아동을 성적으로 묘사한 AI 생성 이미지나 유명인을 어린이로 묘사한 이미지들도 확인했다. 이미지 생성에 쓰인 프롬프트와 이 프롬프트로 만든 이미지에 대한 링크 등을 담은 Json 파일도 발견됐다. 다만, 개인정보나 사용자 데이터는 없었다.
젠노미스는 문자 등 텍스트로 프롬프트를 적으면, 그에 맞는 이미지를 만들어주는 생성형 AI 이미지 플랫폼이다. AI 가상 인물 창작이나 얼굴 바꾸기, 이미지의 영상 전환, 배경 제거 등 다양한 기능을 제공한다. 실사, 만화, 빈티지 등 45개 스타일로 이미지를 생성할 수 있고, 생성한 이미지를 사고 파는 장터도 있다.

▲파울리가 DB에서 발견한 AI 이미지 생성 프롬프트 모음 [자료: vpn멘토]
특히, 진짜 같은 가짜 이미지를 만드는 딥페이크나 일반 사진 속 인물을 옷을 벗은 모습으로 바꾸는 ‘누디파이’ 확산이 가장 큰 우려다.
파울러는 “이 DB 속 인물이 젠노미스를 쓸 때 동의를 안 했다거나 지금 성적 착취를 당할 위험에 빠져 있다는 의미는 아니다”며 “이 같은 이미지들이 가져올 실제적 위험 시나리오를 제시하는 것”이라고 말했다.
파울러는 DB 노출 사실을 알고 에이아이노미스 측에 상황을 알렸다. 현재 젠노미스와 에이아이노미스 웹사이트는 폐쇄된 상태다.
김시원 에이아이노미스 대표는 3일 <보안뉴스>와의 인터뷰에서 “음란물 등을 철저히 금지하는 정책을 갖고 관리해왔다”며 “다만, 악용 우려가 여전히 있어 서비스를 닫아놓았다”고 말했다.
[한세희 기자(boan@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>