[보안뉴스= 이만희 한국정보보호학회 공급망보안연구회 위원장] 인공지능(AI)은 더 이상 기술의 미래가 아니라, 오늘날 모든 산업과 사회 시스템의 필수 인프라가 되었다. 공공 행정, 금융, 의료, 국방은 물론이고 우리 일상 속 검색 엔진과 번역기, 추천 시스템에 이르기까지 AI에 대한 의존은 가속화되고 있다. 하지만 이런 급속한 확산 속에서 간과되고 있는 사실이 있다. AI 시스템도 결국 소프트웨어라는 점이며, 따라서 기존 소프트웨어와 마찬가지로 공급망 보안(Supply Chain Security)이 매우 중요한 요소라는 것이다.

[자료: gettyimagesbank]
AI 시스템은 전통적인 소프트웨어보다 훨씬 복잡하다. 모델 학습에 사용된 데이터, 모델 설계 구조, 오픈소스나 서드파티 컴포넌트, 그리고 실행 인프라까지 수많은 구성요소가 얽혀 있다. 이러한 복잡성은 해커에게 다양한 공격 지점을 제공한다.
이미 AI 시스템을 겨냥한 해킹은 현실이 되었다. 예를 들어, 데이터 조작을 통해 AI 모델의 판단을 오도하게 만드는 데이터 포이즈닝 공격(Data Poisoning Attack), 학습된 모델을 역추적해 민감한 학습 정보를 복원하는 모델 추론 공격(Model Inversion Attack), 혹은 AI 개발에 사용된 오픈소스 프레임워크의 취약점을 통해 AI 시스템이 공격당한 사례가 있다. 최근에는 오픈소스 AI 플랫폼인 Hugging Face에 악성 AI 모델이 업로드되어, 이를 그대로 활용한 사용자 환경에서 악성코드가 실행되는 사례도 발생했다. 이는 모델 공유 플랫폼 자체가 공급망 공격의 진입점이 될 수 있다는 점을 시사하며, AI 생태계 전반에 보안 강화가 필요함을 보여준다.
이러한 AI 보안 문제를 해결하기 위해 주목받는 접근이 바로 SBOM for AI(AI용 소프트웨어 구성 명세서)다. 기존 소프트웨어 분야에서 도입된 SBOM 개념을 AI 시스템에 확장 적용하는 것이다. 지난 6월, G7 Cybersecurity Working Group은 ‘Smarter Together: Artificial Intelligence’ 프로젝트의 일환으로 ‘SBOM for AI’에 대한 합의 문서를 발표했다. 이 문서는 AI 시스템의 복잡한 공급망을 가시화하고, 신뢰성을 높이기 위한 최소 구성요소와 구현 방향을 제시하고 있다.
핵심은 다음과 같다:
- 모델 정보: 어떤 모델이 사용되었는지, 어떤 용도로 설계되었는지
- 학습 정보: 사용된 데이터셋, 학습 방식, 파이프라인 정보
- 보안·안전 정보: 보안 가드레일, 컴플라이언스 이력, 취약점 관리 여부
- 시스템 흐름: AI 각 요소 간 연결 구조와 입력 처리 방식
- 인프라 정보: 해당 AI 시스템 구동에 필요한 핵심 구성요소
이처럼 AI SBOM은 단순한 구성 명세를 넘어서 보안, 법적 책임, 운영 리스크 관리 등 다양한 측면의 투명성과 신뢰성 확보를 목표로 한다.
G7의 보고서는 아직 ‘초안 수준’이지만, AI 공급망 보안에 대한 국제적 합의의 출발점이라는 데 그 의의가 크다. 이 보고서는 “AI SBOM은 기존 보안 프레임워크(SBOM, 보안 공지 등)와 연동 가능해야 하며, 향후 공공 및 민간 부문이 채택할 수 있는 공통 기술 지침으로 발전해야 한다”고 강조한다. 보고서에 따르면, G7은 2025년 하반기부터 기존 프레임워크에 대한 현황 분석을 시작으로, 기술적 가이드라인을 마련해 나갈 계획이다. 이 작업이 AI SBOM의 국제 표준화로 이어질 수 있다면, 한국도 이에 적극 대응할 필요가 있다.
이재명 대통령은 ‘AI 대전환(AI Transformation, AX)’을 통해 AI 3대 강국으로 도약하겠다는 비전을 내걸고, AI 예산과 민간 투자를 합쳐 100조 원 규모의 펀드 조성 계획을 공약했다. 또한 제도 측면에서 대통령 직속 국가인공지능위원회와 AI 정책수석 신설을 통해 거버넌스 체계를 강화하고, ‘모두의 AI’ 프로젝트, 규제 특례, 국제 연대 펀드 조성 등을 포함한 전방위적인 정책 로드맵을 제시했다.
AI는 그 자체로 혁신이지만, 보안 없는 혁신은 오히려 위험을 낳는다. 앞으로 AI 공급망 보안은 단지 기술적 권고가 아니라, AI 활용의 필수 인프라이자 국제 규범이 될 가능성이 높다. 이제는 한국도 AI 공급망 보안에 대한 정책적 준비와 산업계, 학계, 연구계의 실질적 대응이 필요한 시점이지만, 아직까지 AI 공급망 보안에 대한 본격적인 추진이 이뤄지고 있지 않다.
산업계는 시장이 형성되지 않아 현실적인 투자가 어려우며, 학계는 관련 논문과 선행 연구가 거의 없어 본격적인 연구에 착수하기 어렵다. 그 결과 국가 R&D 과제에서도 AI 공급망 보안은 기획되지 않았다. 필자 역시 IITP 기획위원으로 활동하며 몇 차례 관련 과제를 제안했으나, 여러 이유로 채택되지 못했다.
하지만 시장이 형성된 후에 연구를 시작하면 늦다. 세계를 선도하기 위해서는 ‘시장이 있는가’, ‘다른 나라는 하고 있는가’ 등의 기존 평가 기준으로 혁신적인 연구를 기대하기 어렵다. 설령 실패하더라도 먼저 시도해야 한다. 또한, 유사 과제가 있으면 새로운 과제가 기획되기 어려운 현 상황도 재고되어야 한다. 특히 AI 공급망 보안처럼 신규 영역의 경우, 단일 과제로 모든 가능성을 실험하는 것은 위험하고, 유사하더라도 서로 다른 그룹에 동시에 기회를 부여하고, 그중 단 하나라도 세계적 성과를 만들어낸다면, 그것이 곧 국가경쟁력이다. 국가가 의지를 가지고 빠르게 추진한다면 조기에 성과가 나올 수 있다.

▲이만희 한국정보보호학회 공급망보안연구회 위원장, 한남대학교 교수[자료: 이만희 교수]
정책적으로는 현재 국정원과 과기정통부가 추진 중인 공급망 보안 로드맵에 AI 공급망 보안을 포함할 수 있을지 고려할 필요가 있다. 현재 로드맵이 막바지 작업 중이어서 갑자기 AI 공급망 보안을 넣기 어려울 수 있으나, 새 정부에서 AI 대전환을 목표로 한다면 과감히 포함할 필요가 있을 것이다. 아직 국제적으로도 SBOM for AI에 대한 합의가 초기 단계이기 때문에 27년 제도화는 어렵더라도, 기초를 닦는 수준은 담을 수 있을 것으로 판단된다. 더 나아가 범정부 차원에서 AI 공급망 보안을 적극 반영하기 위해서는 국가인공지능위원회와 AI 정책수석실 등 국가 AI 거버넌스 체계에 AI 보안, 공급망 보안 전문가 참여가 꼭 필요하다. 보안은 시스템이 완성된 후에 덧붙이는 것이 아니라, 설계 초기 단계에서부터 통합돼야 하기 때문이다.
소프트웨어 공급망 보안도 아직 제도적으로 완성되기 전에 AI 공급망 보안을 추진하는 것이 상당히 어려운 것은 사실이다. 하지만 그만큼 기술 발전이 빠르기 때문에 이를 위한 보안 기술 또한 조속히 개발되어야 하고, 이를 진흥 또는 관리해야 하는 제도 또한 그 속도에 맞추어 진행해야겠다. 이를 통해 안전한 AI 강국이 되기를 소망한다.
[글_이만희 한국정보보호학회 공급망보안연구회 위원장, 한남대학교 교수]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>