이들은 AI 모델을 사용해 악성코드의 완성도를 높이거나 피싱 콘텐츠를 만드는 등 오픈AI 서비스를 악용해 왔다.
오픈AI는 최근 발간한 AI 악용 방지 활동 보고서에서 여러 악성 네트워크 차단 활동을 상세히 소개하면서, 공격자나 권위주의 정권에 의한 AI 기술 남용을 막기 위해 지속적인 노력을 기울였다고 강조했다.

[자료: 연합]
오픈AI는 작년 2월 이후 자사 규정 위반을 이유로 이미 40개 이상의 악성 네트워크 활동을 중단시켰다고 밝혔다.
특히 ‘사이버 오퍼레이션 피시 앤 스크립트’(Cyber Operation Phish and Scripts)라는 중국어 사용 위협 그룹의 활동이 중국 정부의 정보 요구 사항과 일치하는 것으로 확인됐다고 오픈Ai는 밝혔다.
또 이들의 활동은 UNKDROPPITCH와 UTA0388 같은 이미 알려진 해킹 그룹과도 상당 부분 겹치는 것으로 나타났다.
이 해커들은 AI를 거버쉘(GOVERSHELL)이나 헬스킥(HealthKick) 같은 악성코드의 디버깅 및 개발 보조에 활용했으며, 자동화 가능성까지 연구한 것으로 나타났다.
또 AI를 이용해 중국어, 영어, 일본어 등 다양한 언어로 문화적으로 맞춤화 된 피싱 이메일을 제작했다. 주요 타깃은 대만의 반도체 부문, 미국 학계, 중국 정부를 비판하는 시민 단체 등이었다.
중국 정부 기관과 연계된 일부 사용자들은 AI에게 감시 및 프로파일링 도구 개발을 요청하기도 했던 것으로 확인됐다. 여기에는 ‘위험도가 높은 위구르족 대상의 감시 및 프로파일링 시스템’이나 소셜 미디어의 정치적 극단주의 콘텐츠를 스캔하는 도구 등이 포함됐다.
오픈AI는 해커들이 AI를 완전히 새로운 위협을 개발하기보다 기존 작업의 효율성을 높이는 용도로만 활용했다고 분석했다.
또 자사 AI 모델이 악성 코드 생성을 직접 거부하는 등 안전 장치 역할을 하기도 했다고 설명했다. 악의적 활동과 관련된 모든 계정을 차단 조치하고, 침해지표(IoC)를 업계 파트너들과 공유하며 AI 남용을 막기 위한 투자를 지속하고 있다고 밝혔다.
[김형근 기자(editor@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>