[보안뉴스 강현주 기자] 북한과 중국, 이란 등의 위협 행위자들이 악성코드 공격에 ‘제미나이’ 등 거대 언어 모델(LLM)을 활용하는 것으로 나타났다.
6일 구글 위협 인텔리전스 그룹(GTIG)은 ‘AI 위협 보고서’(GTIG AI Threat Tracker: Advances in Threat Actor Usage of AI Tools)’를 공개했다. 사이버 범죄자들이 어떻게 AI 플랫폼을 표적으로 삼고 있는지 관찰한 내용과 이러한 기술적 진화에 대응하기 위해 구글이 취한 조치를 담은 보고서다.

▲‘AI 위협 보고서’ 표지 [자료: 구글]
이 보고서는 위협 행위자들이 생산성 향상 도구로서 AI를 사용하는 것에서 나아가 혁신적인 AI 기능을 공격에 활용할 수 있을지 실험하고 있다고 밝혔다. 중국, 북한, 러시아, 이란에 기반한 위협 행위자들은 멀웨어 실행부터 소셜 엔지니어링 프롬프트, AI 도구 판매까지 작전의 각 단계를 성공적으로 수행하기 위해 AI를 전방위적으로 사용하고 있다.
이와 함께 GTIG는 이번 보고서를 통해 위협 행위자의 AI 활용을 저지하고 차단할 뿐만 아니라 대규모의 사용자를 보호하기 위해 구글의 안전 및 보안 보호 체계와 정책에 위협 인텔리전스를 반영한 정교한 조치들도 공유한다.
GTIG는 프롬프트플럭스(PROMPTFLUX) 및 프롬프트스틸(PROMPTSTEAL) 등의 악성코드가 대규모 언어 모델(LLMs)을 사용하는 것을 최초로 확인했다고 밝혔다. 이러한 도구는 악성 스크립트를 동적으로 생성하고, 자체 코드를 난독화해 탐지를 회피한다.
악성코드에 악의적인 기능을 미리 하드코딩(hard-coding)하는 대신 AI 모델을 활용해 요청에 따라 이를 생성한다. 이와 같은 양상은 아직은 초기 단계이지만 더욱 자율적이고 유연한 악성코드로 발전할 수 있는 가능성을 시사한다.
또한 공격자들은 소셜 엔지니어링으로 안전 장치를 우회하는 것으로 드러났다. GTIG는 위협 행위자들이 CTF 대회(해킹 대회) 참가 학생 또는 사이버 보안 연구원으로 가장하는 것을 확인했다. 이들은 제미나이(Gemini)가 차단하도록 설계된 정보를 제공하도록 설득해 도구를 개발한다.
2025년에는 불법 AI 도구를 판매하는 지하 시장이 2025년 성숙 단계에 접어들었다. GTIG는 피싱, 악성코드 개발, 취약점 연구 등을 지원하도록 설계된 다기능 도구를 다수 확인했다. 이는 덜 숙련된 공격자들의 진입 장벽을 낮추는데 일조하고 있다.
북한, 이란, 중국 등을 포함한 국가 지원 공격자들은 정찰 및 피싱 미끼 제작부터 C2(Command and Control) 개발 및 데이터 유출에 이르기까지 작전의 모든 단계를 고도화시키기 위해 제미나이를 지속적으로 악용하고 있다.
빌리 레오나드(Billy Leonard) 구글 위협 인텔리전스 그룹(Google Threat Inteligence Group) 기술 리드는 “공격자들은 분명 주류 AI 플랫폼을 활용하고자 시도하고 있지만, 이러한 AI 플랫폼은 안전 장치가 있기 때문에 공격자들은 지하 사이버 범죄 시장에서 구할 수 있는 AI 모델로 눈을 돌리고 있다”며 “이러한 도구들은 제한 없이 이용할 수 있기 때문에, 기술 수준이 낮은 공격자들에게도 상당한 이점을 제공할 수 있다”고 말했다.
이어 “현재 공격자들이 이용할 수 있는 다수의 도구가 유통되고 있는 만큼 범죄자들의 진입 장벽이 낮아질 것으로 예상하고 있다”고 밝혔다.
[강현주 기자(jjoo@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>














