[보안뉴스 = 네이트 넬슨 IT 칼럼니스트] 중국, 이란, 북한, 러시아의 APT 단체들이 대형 언어 모델을 적극 활용해 자신들의 공격 기술과 도구들을 연마하고 있다는 소식이 나왔다. 오픈AI와 마이크로소프트가 게시한 새 블로그 글에 의하면 다섯 개의 전문 해킹 조직들이 오픈AI의 소프트웨어를 사용해 자신들이 원하는 연구를 보다 원활하게 진행하기도 하고, 공격의 효율을 높이기도 하는 등의 모습을 보이는 중이라고 한다. 오픈AI는 이 다섯 개 그룹을 공개하면서 연루된 계정들을 전부 차단했다고 발표했다.

[이미지 = gettyimagesbank]
“현재 공격자들은 인공지능 기술을 활용해 자신들의 생산성을 높이는 데 주력하고 있습니다. 일종의 생산성 도구로서 활용하는 방안을 모색하는 것으로 보입니다. 다만 아직까지 이렇다할 성과가 나타나고 있지는 않습니다. 그들이 가지고 있던 기존의 공격 능력이 눈에 띄게 향상되거나 하지는 않았고, 그렇기 때문에 아직까지는 이런 움직임이 심각한 위협이 되고 있지는 않습니다.” MS의 설명이다.
국가 지원 APT의 오픈AI 활용
이름이 지목된 조직 중 하나는 러시아의 팬시베어(Fancy Bear)다. MS는 포레스트블리자드(Forest Blizzard)라는 이름으로 추적하는 단체로, 미국 민주당국가위원회와 우크라이나의 여러 조직들을 공격한 전적을 가지고 있는 악명 높은 해킹 전문가들이다. 이들은 오픈AI의 대형 언어 모델을 사용해 기본적인 스크립팅 작업을 해결하고 있는 것으로 밝혀졌다. 여기서 말하는 기본적인 스크립팅 작업이란 1) 파일 조작, 2) 데이터 취사, 3) 멀티프로세싱, 4) 첩보 수집, 5) 위성 통신 프로토콜 연구, 6) 레이더 이미징 등을 말한다. 우크라이나 전쟁에서 러시아 군이 유리해질 만한 뭔가를 시도하고 있는 것으로 추정된다.
중국의 해커들 중 지목된 단체는 차콜타이푼(Charcoal Typhoon)과 살몬타이푼(Salmon Typhoon)이다. 전자는 아쿠아틱판다(Aquatic Panda), 컨트롤엑스(ControlX), 레드호텔(RedHotel), 브론즈유니버시티(Bronze University) 등의 이름으로도 불린다. 후자는 APT4, 매버릭판다(Maverick Panda)라고도 알려져 있다.
차콜타이푼의 경우 실제 공격 전에 실시하는 정찰 및 정보 수집 단계에서 인공지능을 활용하고 있는 것으로 밝혀졌다. 특정 플랫폼이나 기술에 대한 정보를 취합한다든가, 취약점에 대해 분석한다든가, 스크립트를 정교하게 다듬는다든가, 소셜엔지니어링 공격을 위한 텍스트를 매끄럽게 만지거나 번역한다든가 하는 작업들이 여기에 포함된다. 물론 침해 후에 하는 명령 실행이나 횡적 이동, 제어권 탈취와 같은 작업을 할 때에도 인공지능을 활용하려 하는 것으로 분석됐다.
살몬타이푼은 어떨까? 대형 언어 모델을 첩보 수집용 도구로 활용하는 중이다. 자신들이 노리는 표적에 대한 사전 조사를 진행할 때 대형 언어 모델을 사용하는 것이다. 이미 인터넷에 공개되어 있는 정보를 수집하는 건데, 사실상 차세대 검색엔진처럼 인공지능 모델을 활용한다고 할 수 있다. 그 외에도 시사 현안이나 외교 상황 등 정세를 빠르게 파악하는 데에도 인공지능이 사용된다. 심지어 멀웨어 코드를 개발하는 데에도 인공지능의 도움을 받기도 한다.
이란에서는 크림슨샌드스톰(Crimson Sandstorm)이 지목됐다. 토토이즈셸(Tortoiseshell)이나 임페리얼키튼(Imperial Kitten), 옐로리덕(Yellow Liderc)과 같은 이름으로도 불린다. 이들은 오픈AI의 기술을 활용해 피싱에 필요한 재료들을 생성해 내는 것으로 분석됐다. 대부분 가짜 이메일을 진짜처럼 만드는 일에 동원되는 중이다. 그 외에도 공격자들이 그때 그때 필요로 하는 코드 스니펫을 재빨리 만들어내거나 웹 스크랩을 위한 도구를 제작하기도 한다.
북한의 APT 조직인 김수키도 이름을 올렸다. 에머랄드슬리트(Emerald Sleet)나 벨벳천리마(Velvet Chollima)라고도 알려진 해킹 조직으로, 오픈AI의 기술을 활용해 기초 스크립팅 작업을 수행한다고 한다. 그 외에도 피싱에 필요한 콘텐츠를 간편하게 제작하는 데에도, 여러 정보를 분석하는 데에도, 취약점 정보를 취합하는 데에도 인공지능이 활용되고 있다고 한다. 특정 인물이나 단체를 추적해야 할 때, 해당 피해자들에 대한 자료를 조사할 때에도 오픈AI가 활용되었다.
아직 큰일까지는 아니지만
이들이 나쁜 목적으로 인공지능을 활용하기 시작했다는 건 분명 경계해야 할 일이지만, 그렇다고 인공지능으로 인한 대 재앙이 시작된 건 아니라고 MS는 사용자들을 안심시키고 있다. 보안 업체 앱옴니(AppOmni)의 인공지능 엔지니어인 조셉 태커(Joseph Thacker)는 “언급된 APT 단체들 모두 공격에 필요한 여러 작업을 수행하는 데 있어 굳이 인공지능이 필요하지 않은, 출중한 실력자들”이라고 말한다. “워낙 실력이 좋아서 인공지능이라는 도구 하나 추가된 게 큰 차이를 만들지 못하고 있습니다.”
그러면서 태커는 현존하는 인공지능의 한계이자 정체성이 작용하는 것이라고 지적한다. “생성형 인공지능은 대단한 기술이자 강력한 도구입니다. 하지만 인간이 이미 하고 있는 일을 보다 효율적으로 바꿔주는 것이지, 이전에 없던 것을 혁신적으로 창출해내는 도구는 아닙니다. 혁신의 자동화 같은 건 아직 꿈만 같은 일이라는 거죠. 그게 공격자들에게도 똑같이 적용되는 겁니다. 그들은 이전에 하던 일을 똑같이 할 뿐이고, 아마 조금 더 편리해지긴 했겠지만 딱 그 정도에 그치고 있습니다.”
반면 인공지능을 공격에 이용하는 게 별 일 아니라고 결론을 내리는 것도 위험하다고 태커는 설명을 이어간다. “인공지능이 보여주는 한계는 지금의 기술 수준이 그 정도에 머물러 있기 때문입니다. 기술이 발전하면 그 한계라는 것도 상향되겠지요. 공격자들이 지금부터 계속 인공지능 활용 능력을 높여나간다면, 발전된 인공지능이 등장했을 때 곧바로 응용해 고도의 공격을 실시할 수 있게 될 겁니다. 방어자들이 대처를 할 수 있기 전에 말이죠. 그런 미래에 대해서는 충분히 대비를 해야 할 것입니다.”
글 : 네이트 넬슨(Nate Nelson), IT 칼럼니스트
[국제부 문정후 기자(globoan@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>