자체 연구개발 투자 없이 타사 모델의 역량을 복제하는 행위 규탄
[보안뉴스 김형근 기자] 미국 AI 기업 앤트로픽(Anthropic)이 자사 대형언어모델(LLM) ‘클로드’(Claude)의 기술을 무단으로 추출하려는 대규모 ‘증류 공격’(Distillation Attack)을 적발했다고 발표했다.

[출처: 앤트로픽]
앤트로픽은 자사 블로그를 통해 딥시크(DeepSeek), 문샷AI(Moonshot AI), 미니맥스(MiniMax) 등 중국계 AI 기업 3곳이 클로드의 핵심 기능을 불법적으로 추출한 사실을 확인했다고 밝혔다. 앤트로픽에 따르면, 이들 기업은 약 2만4000개의 가짜 계정과 우회 네트워크를 동원해 1600만 건 이상의 대화 결과물을 수집했다. 기업별로는 미니맥스가 1,300만 건, 문샷AI가 340만 건, 딥시크가 15만 건의 데이터를 빼낸 것으로 파악됐다.
모델 증류(Model Distillation)는 고성능 AI 모델의 출력 데이터를 학습해 더 작고 저렴한 경량 모델을 만드는 기술이다. 앤트로픽은 자사 모델의 데이터를 무단으로 대량 수집해 경쟁 모델 개발에 활용하는 행위를 서비스 약관 위반으로 간주하고 있다.
앤트로픽은 불법적으로 증류된 AI 모델이 원본 모델의 안전장치(Safeguard)를 갖추지 않아 국가 안보에 위험을 초래할 수 있다고 지적했다. 미국의 수출 통제 대상 국가나 특정 단체가 이러한 모델을 활용해 허위 정보 유포, 대규모 감시, 사이버 공격 등을 수행할 수 있다는 것이다.
이러한 증류 공격에 대응해 앤트로픽은 공격 패턴을 식별하는 행동 지문 분석(Behavioral Fingerprinting) 시스템과 분류기를 도입한다. 교육용 계정과 스타트업 프로그램을 악용한 허위 계정 생성을 막기 위해 인증 절차를 강화했으며, 다른 AI 연구소 및 클라우드 서비스 제공업체와 위협 지표를 공유한다.
앤트로픽은 “우리는 불법적인 증류 공격의 효율성을 낮추기 위해 제품, API 및 모델 수준의 방어 체계를 개발하고 있다”며 “정상적인 고객의 사용 경험을 저해하지 않으면서도, 우회 공격을 차단하는 기술적 조치를 지속적으로 강화할 것”이라고 밝혔다.
[김형근 기자(editor@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>








.gif)


.gif)


