최근 AI 국제규범 논의, 다양한 각국 입장 반영한 ‘열린 거버넌스’ 지향
민간의 적극적 참여와 ‘전 사회적 접근법’ 일관되게 강조
[보안뉴스= 송태은 국립외교원 국제안보통일연구부 교수] 이미 인류의 삶에 깊숙이 들어와 있는 인공지능은 ‘기술’로서는 가장 치명적인 약점을 갖고 있다. AI는 ‘불완전(incomplete)’하고 ‘불확실한(uncertain)’ 기술이다. 불완전하게 설계되어 있거나 작동 방식을 예측하기 어려운 차는 위험하게 여겨져 운전하기 어려울 것이다.
[이미지=gettyimagesbank]
그런데 AI 기술은 세계 각국의 행정, 산업, 교육과 군사 분야에 빠르게 도입되어 광범위하게 사용되고 있고, 동유럽과 중동의 두 개 전쟁에서 AI 기술을 탑재한 드론은 전장에 깊이 개입되어 있다.
하지만 아직 혁신과 발전이 끝나지 않은 미완성 기술인 AI에는 세계 안보와 정치사회에 끼칠 영향이 알려지지 않은 회색지대가 존재한다. AI 기술이 끼칠 영향의 성격과 범위가 불확실하므로 기술을 개발하거나 소유하지 않은 주체인 개인과 시민사회는 불안과 염려를 갖게 된다.
기술의 직접적인 사용자이면서 알고리즘 기계학습(ML)의 재료가 되는 정보수집의 대상인 개인과 시민사회가 제기하는 AI 기술의 다양한 ‘위험(risks)’ 문제를 국가와 기업이 선제적으로 해소하려는 가시적인 노력을 펼치지 않을 경우 AI 기술 사용에 대한 전 사회적 저항이 커질 수 있다.
따라서 기술경쟁에 사활을 거는 각국 정부는 AI 기술의 개발과 개인정보와 같은 데이터의 사용에 대한 국제적 원칙과 규범을 구축하려는 다양한 거버넌스 외교를 펼치고 있다. ‘AI 안전성 정상회의(AI Safety Summit)’, ‘인공지능의 책임 있는 군사적 이용에 대한 고위급 회의(Responsible AI in the Military Domain Summit)’ 즉 ‘리에임(REAIM)’, ‘AI 서울정상회의’를 비롯해 G20, OECD, 세계경제포럼(World Economic Forum) 등에서 이루어진 일련의 AI 거버넌스 논의는 각국의 규범 구축에 대한 관심이 진지하다는 것을 보여준다.
그러면 최근 AI 기술의 국제규범 논의는 어떤 것들을 특별히 강조하고 있을까? 첫째, 최근 AI 기술의 거버넌스 논의는 기술 자체의 혁신과 발전을 저해하지 않으면서 인류에 위협이 될 부분을 시의 적절하게, 탄력적으로 운용하려는 접근법을 취한다.
AI 기술에 대해 현실성이 떨어지는 교조주의적 규제의 강요를 지양하려는 접근법이 중요한 것은 기업이나 각국 정부가 지키기 어려운 규범을 내세울 경우 규범 자체에 대한 저항감을 초래하고 규범에 대한 회의론, 무용론을 확산시킬 수 있다. 특히 지정학적 갈등과 두 개의 전쟁이 동시다발적으로 전개되고 있는 현재의 세계안보 상황에서 군사부문의 AI에 대한 규제는 기술 강국과 당장의 전쟁에서 적을 상대하고 있는 국가에게는 다양한 딜레마를 발생시킨다.
따라서 전장에 이미 광범위하게 투입되고 있는 AI의 군사적 사용에 대한 규범 논의는 이분법적 접근법 즉 무작정 군사분야 AI의 위험을 강조하고 군축 논의를 펼치는 식의 이분법적 문제해결 방식을 탈피하고 있다. 즉 군사분야 AI 규범 논의는 군의 상황인식과 정보분별 증진 및 평화구축에의 기여 등 아직 완성되지 않은 AI 기술이 세계평화와 안보에 끼치는 긍정적 영향을 인정하는 동시에 군사용도의 AI 기술의 위험에 대한 현대 국제사회의 이해와 예측이 불완전함을 인정하는 절충적이고 균형적인 접근법을 취하여 위협적인 군사 AI 기술을 보유한 기술강국들의 규범 이탈을 방지하고 있다.
둘째, 최근 AI 국제규범의 논의는 다양한 각국 입장을 반영한 ‘열린 거버넌스’를 지향한다. 특히 개발도상국의 AI 역량 구축을 위한 지원이 강조하고 있는 것은 국가 간 AI에 대한 지식의 격차가 좁혀져야 이들이 규범 구축 논의에 실질적으로 참여할 수 있기 때문이다. 개방적 합의 및 기술 강자의 약자에 대한 역량 지원을 강조한, 군사분야 AI 국제규범을 다루는 유일한 회의인 REAIM이 제시한 ‘행동을 위한 청사진(Blueprint for Action)’은 세계 각국이 자국과 타국의 AI 기술의 군사화 수준을 서로 확인할 수 있는지의 여부를 강조했다.
즉 전 세계 각국이 처한 서로 다른 안보환경과 상이한 AI 기술발전 수준에도 불구하고 타국의 군사분야 AI의 기술 수준을 상호 확인할 수 있어야 AI 군비경쟁이 각국의 의도와는 상관없이 통제 불가능한 방향으로 치닫는 상황을 통제할 수 있기 때문이다.
셋째, 최근 거의 모든 AI 국제규범에 대한 논의는 규범 구축에 있어서 산업계, 시민사회, 학계의 기존 이해당사자들과 아울러 새롭게 진입한 이해당사자도 포함시킬 것을 언급할 만큼 민간의 적극적 참여와 ‘전 사회적 접근법(whole-of-society approach)’을 일관되게 강조하고 있다.
특히 다양한 민간섹터가 규범 형성에 참여해야 하는 이유는 과도한 규제와 과소한 규제 모두를 지양하는 중요한 조건이 된다. AI의 위험, 기회, 도전 요소는 각각의 섹터에 따라 다른 시각이나 입장을 가지고 있을 수 있으므로 이들의 참여가 없이 만들어지는 AI 규범은 이후 효과가 없거나 혹은 위험할 수도 있다.
서로 다른 산업의 성숙도(maturity), 공급망에서 AI의 위치 등에 따라 각 섹터가 당면하는 규범적 도전도 다르다. 따라서 전 사회적 접근과 섹터 간 지식공유와 의견 교환은 AI 규범 형성을 위한 필수 조건으로 언급되고 있다.
한 가지 염두에 둘 것은, 개방성을 중요시하는 다자외교는 거버넌스에 있어서 항상 그 효과와 효용성에 있어서는 구속력이 없다는 한계를 갖고 있다. 다양한 회의에서 권위주의 국가들의 정치적·기술적·군사적 입장이 전체 국제사회와 대비되고 있는 것의 일례들은 이들이 AI 개발과 사용에 있어 다른 원칙을 추구하고 있음을 보여준다.
거버넌스 논의의 개방성이 갖는 효과는 문제의 진원지(origin)를 드러내어 세계 전체가 우려하는 군사분야 AI의 위험과 위협을 관리하는 데에 누가 방기하거나 이탈하는지를 보여주고, 이후 유사입장국(like-minded countries) 간의 TTX(Table Top Exercise)나 역량구축 지원과 같이 이탈국이 원하지 않는 실질적인 움직임이 이루어지게 하는 근거가 될 수 있다.
규범의 이탈국들은 규범의 원칙에 동의하는 유사입장국들의 실질적인 정책적 움직임에 의한 외교적·군사적·경제적 손해를 경험하게 된다. 즉 회의에의 참여, 회의 결과물에 대한 채택 여부가 회차를 거듭하면서 각국의 기술에 대한 입장을 드러내기 때문에 AI 기술과 관련한 각국의 기술정책과 우호국 간 연대 전략을 더욱 정교하고 만들어주고 이탈국들이 초래할 위험이나 위협을 선제적으로 대비하게 하는 효과를 가져온다.
[글_ 송태은 국립외교원 국제안보통일연구부 교수]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>