AI 부작용, 윤리적 측면에서의 딜레마, 국제법 프레임워크 등 중점 논의 필요
[보안뉴스 김경애 기자] 2024 REAIM 고위급 회의의 사이버 안보 세션으로 ‘군사 분야에서의 AI와 사이버 안보(부제: 사이버전에서 책임 있는 AI의 활용: AI and Cybersecurity in the Military Sector - Subtitle: The Use of Responsible AI in Cyber Wars)’을 주제로 사이버전쟁과 사이버 안보, 그리고 AI와의 상관관계에 대해 심도 깊은 논의가 진행됐다.
▲사이버안보연구소 정경두 대표가 인사말을 하고 있다[사진=보안뉴스]
Breakout Session에 선정된 사이버안보연구소(대표 정경두)가 주관한 이번 세션에서는 AI가 군사 및 사이버 안보 환경에 미치는 영향과 그 잠재력에 대해 논의했다. 특히 롤플레잉 기법과 뉴게임 이론을 적용한 AI에 대한 기술적 이해를 바탕으로 사이버전에서 AI adviser를 책임감 있고 효율적으로 사용하는 방법에 대한 활발한 토론이 이어졌다.
미국, 영국, 호주 등 주요국 인사를 비롯해 200여명 이상이 해당 세션에 참석했고, 우즈베키스탄 국방부 관계자와는 MOU를 위한 실무 미팅도 진행했다.
AI 부작용, 윤리적 측면에서 대응 중요
사이버안보연구소 정경두 대표는 “AI 활용이 군사 분야에서 확산되고 있다”며 “군사작전을 수행하는 데 있어 AI를 적용하려면 정확한 데이터를 토대로 지휘관의 올바른 통제 하에 진행돼야 한다”고 강조했다. 그렇지 않으면 전쟁 상황을 악화시킬 수도 있어 AI 활용 여부를 신중하게 결정해야 한다는 얘기다.
이어 정 대표는 “데이터에 해킹의 위험성, 오류에 관한 정보들이 조금이라도 포함됐을 때 매우 심각한 위협요소가 될 수 있는 만큼 사이버 안보가 담보돼야 전 세계 평화도 유지될 수 있다”고 말했다.
이날 진행된 토론에서는 아주대학교 이원태 교수가 좌장을 맡은 가운데, 서울시 이상용 디지털수석, 사이버안보연구소 알렉산드르 키뇽 정보위원, 사이버안보연구소 이진 소장, 코리아스타트업포럼 구태언 부의장이 참여해 AI 부작용, 윤리적 측면에서의 딜레마, 국제법 프레임워크 등에 대해 논의했다.
아주대학교 이원태 교수는 “AI의 군사적 이용은 롤플레잉 게임 또는 전략적 모델을 기반으로 유용하게 활용돼야 한다”며 “AI 활용이 군인을 통해 효과적으로 통제될 수 있는 방법론이 무엇보다 중요하고, AI의 한계와 부작용에 대한 대응, 윤리적 측면에서의 대응방안이 마련돼야 한다”고 강조했다.
AI 활용한 미래 전장기술, 데이터 정확성 필수
서울시 이상용 디지털수석은 군사적 이용에 앞서 책임있는 설계, 윤리적 측면에서의 데이터 중요성에 대해 설명했다. 이상용 수석은 “AI 기술은 판별 AI 기술과 생성 AI 기술로 구분되는데, 아직은 판별 AI 기술이 많이 사용되고 있다”며 “이미지 인식 기술을 통해 AI가 빠르게 인식·판단·분석할 수 있고 적기에 전장에 대응할 수 있느냐가 중요하다”고 말했다.
이 과정에서 한국은 AI 기술을 어떻게 가져갈 것인지 고민해야 한다는 것. 미국은 2017년부터 AI를 어떻게 활용할 것인지 고민하고 있고, 이스라엘은 드론 정밀타격에 AI를 활용하고 있다는 게 그의 설명이다.
앞으로는 정밀 타깃 분석도 생성 AI로 간다고 밝힌 이 수석은 “미래 전장기술, 핵심기술 등에 있어서는 데이터의 정확성이 중요하다”며 “어떤 데이터를 불러낼 것인지, 실시간 데이터를 어떻게 분석할 것인지가 핵심”이라고 말했다. 또한 윤리적 이슈와 관련해 “어떻게 데이터를 안전하게 사용할 수 있을지, 법의 제재를 받지 않고 어떻게 효율적으로 사용할 수 있는지가 중요하다”고 덧붙였다.
특히 LLM+RAG 기술을 사용하기 위해서는 데이터의 정확한 처리·분석·적용 등이 선행돼야 한다는 것. 그러기 위해서는 먼저 온디바이스, SW 스몰화가 이뤄져야 하고, 이를 바탕으로 미래 전장에서 AI를 좀더 효율적으로 활용할 수 있다고 설명했다.
전 세계 주요 국가, 군사영역에서 AI 활용해 미래 전쟁 고지 선점에 주력
사이버안보연구소 알렉산드르 키뇽 정보위원은 “AI의 군사적 운용과 통제 가능성을 신뢰성에서 찾아야 한다”며 사이버 전장의 전략적 시뮬레이션에 대해 설명했다.
알렉산드르 키뇽 정보위원은 “전 세계 정부와 기업들은 미래 전쟁의 고지를 선점하기 위해 AI 솔루션을 군사 영역에서 활용하고 있다”며 “전쟁에서 적군이 이동하는 것을 실시간으로 추적·분석해 적군이 움직이기 전 물자를 쌓아두는 것 등을 보고 적군의 의도를 예측하는 AI 기술을 전세계 군사 분야에서 사용하고 있다”고 말했다.
AI, 롤플레잉 관점에서 데이터셋 형성한다면 효율적 협업될 것
사이버안보연구소 이진 소장은 “사이버 전장에서 AI에 의한 명령 통제가 가능하다”며 시뮬레이션을 통한 AI의 효율적인 협업 방안에 대해 제시했다.
이진 소장은 “AI 학습 전 단계에서부터 롤플레잉 관점에서 데이터셋을 생성한다면 AI가 각 군의 참모 역할을 할 수 있고, 사람과 한 팀이 되어 효율적인 협업을 할 수 있다”며 “이를 바탕으로 효율적이고 신속한 군사적 결정에 도움을 줄 수 있다”고 설명했다.
책임 있는 AI 활용 위해 국제법적 프레임워크 필요
코리아스타트업포럼 구태언 부의장은 AI와 관련된 새로운 국제법적 프레임워크의 필요성을 강조했다. 이와 관련 구태언 부의장은 “AI의 윤리적 딜레마, 책임 소재, 데이터 편향 문제, 군사작전에서의 책임있는 사용 보장 등에 대한 국제적 논의가 필요하다”고 말했다.
특히 자동화된 결정을 신뢰할 수 없을 경우 국제적 갈등을 악화시킬 수 있어 책임 있게 사용될 수 있도록 규범화가 선행돼야 한다는 설명이다.
구태언 부의장은 “국제적으로 핵확산 금지조약을 만든 것처럼 AI를 통제할 수 있는 국제협력 절차가 필수이며, 이와 함께 책임성, 투명성, 국제인도법적 측면에서의 논의가 보다 활성화돼야 한다”고 말했다.
[김경애 기자(boan3@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>