인공지능의 위험성, 공상과학 재료로 너무 소모시킨 건 아닌지
[보안뉴스 문가용] 올림픽은 가장 오래된 ‘대중문화’ 중 하나다. 기원은 고대까지 거슬러 올라가고, 근대의 올림픽만 보더라도 1896년이 원년이니, 못해도 100년이 넘은 전통인 것이다. ‘올림픽이 진행되는 때만이라도 전쟁을 멈추자’는 생각에서 출발한 이 전 지구촌 대중문화는 평화의 상징으로 자리 잡았고, 최근에는 4년만에 한 번이라도 비인기 종목 선수들이 사람들의 관심을 받게 되는 기회로 통용되고 있다.
하지만 세계 1,2차 대전 당시 올림픽은 그 평화의 행진을 멈출 수밖에 없었고, 서울 올림픽 이전의 소련과 미국에서의 올림픽은 냉전시대의 진영싸움이 그대로 반영되어 최악의 대회로 기록되어 있다. 올림픽 때 아무리 금을 따서 국가 순위를 올려도, 비인기 종목은 여전히 비인기 종목으로 남는다. 아니, 잊힌다. 아무리 고쳐보자고 해도 어지간하면 역사는 반복되고, 우리의 관심은 생각보다 편향되어 있어 좀처럼 움직일 줄 모른다.
인공지능에 대한 공포심이 오락거리처럼 소비되던 시대가 지나고 있다. 무인 주행 자동차에 슬슬 시동이 걸리고 있으며, 주머니에 넣고 다니는 작은 기기들이 우리 스케줄을 실시간으로 관리해주기도 한다. 바둑도 이젠 기계가 인간을 넘어섰으며 심지어 올해는 메이헴(Mayhem)이라는 인공지능이 국제적인 해킹대회에 참가하기도 했다. 이제 우리는 인류가 기계에 정복될지도 모른다는 위기의식에서 완전히 해방되어도 괜찮을 걸까?
최근 테크이머전스(TechEmergence)라는 곳에서 인공지능과 관련된 연구를 진행했다. 특히 인공지능과 관련된 실질적인 위협(20년 안에 발생 가능성이 높은 위협)에 대한 내용을 집중 탐구했다. 현장 전문가들이 제시한 가능성으로는 인공지능 알고리즘의 오류로 금융 시스템이 마비되거나 악성 공격자들이 인공지능을 활용해 생명공학 무기를 제조해내는 일 등이 있었다. 즉, 인공지능을 활용하는 사람들의 미숙함과 악한 의도가 더 실질적인 문제라는 데에 의견이 모인 것.
또한 총과 쿼드로콥터 드론, 고해상도 카메라, 안면 인식 알고리즘을 전부 결합하기만 해도 구체적인 피격대상을 골라 공격하는 것도 가능하다. 게다가 이미 다 있는 기술이며, 그러므로 구현이 가능하다. 지금의 기술도 충분히 ‘실제적’으로 위험하다는 것이다. 그렇기에 이미 세계 곳곳에서 인공지능의 군비경쟁이 일어나고 있다. 예일 대학의 웬델 왈라흐(Wendell Wallach) 교수는 “(이런 상태에서) 미래 기술과 인공지능을 탐구한다는 건 재앙으로 연결될 가능성이 높다”고 평하고 있다. “미래의 기술을 현실화시키려면 탈출구도 함께 개발해야 합니다.”
이런 의견을 개진하는 사람들 중에는 버클리 대학의 컴퓨터과학 교수인 스튜어트 러셀(Stuart Russell)도 있다. “엘론 머스크, 스티브 워즈니악, 빌 게이츠 등의 IT 브레인들이 진행하고 있는 연구에 결함이 없을 거라고 보장을 할 수 없습니다. 그런 결점을 보강하기 위한 대비책도 반드시 마련해야만 할 것입니다. 인공지능과 연계된 오류나 실수는 커다란 피해를 안기기 때문이죠.”
런던의 국제학 및 전쟁학 박사인 크리스토퍼 코커(Christopher Coker)는 “이미 디지털 정보화 기술이 전쟁의 양상을 크게 바꾸었다”고 말한다. 즉, 현대 기술로도 전쟁의 국면을 바꿀 정도로 충분히 사람에게 위협적이기 때문에 잘못되었을 경우를 위한 보강책 혹은 대비책이 반드시 있어야 한다는 것이다.
이야기가 이렇게까지 진행해도 인공지능의 위협에 대해 좀처럼 믿지 않는 사람들도 있다. 그렇다면 인공지능이 탑재된 살상무기인 LAWS(Lethal Autonomous Weapons Wystem)가 각 정부 및 국제기관들의 주요 토론 주제이며 실제로 LAWS와 관련된 모든 개발 행위를 금지하고 있는 국가들도 있다는 걸 알아둘 필요가 있다. UN의 인권위원회 역시 LAWS를 생화학무기와 동일시하며 활동 중단을 촉구하고 있다. 그러나 기술의 발전이 정책이나 금지조치로 차단 된 적이 있었나?
딥마인드(Deep Mind)라는 기술을 개발 중인 구글이 옥스퍼드 대학교와 손을 잡고 최근 발간한 인공지능 관련 보고서에서는 ‘중단 스위치’ 혹은 ‘대형 적색 버튼’에 대한 언급이 등장한다. 인공지능 곁에 항상 운영자, 즉, 사람을 둬서 언제고 비상상황 발생 시 기계 전원을 완전히 차단할 수 있어야 한다는 설명이다. 하지만 구글과 옥스퍼드는 해당 보고서 끝에 “그러나 앞으로 등장할 인공지능 알고리즘이 실제 ‘끄는 것’이 가능할지는 장담할 수 없다”고 덧붙이기도 했다. 또한 “사람이라고 해서 중단 스위치 누를 타이밍을 매번 정확하게 판단할 것이라는 보장도 없다”고도 설명했다.
“어쩌면 이미 LAWS를 비롯한 위험한 인공지능을 통제할 수 있는 때가 지난 건지도 모릅니다. 배는 떠났는데 우리만 모르고 있을 가능성도 있죠. 우리가 모든 상황을 매번 정확히 파악하고 있는 건 아니고, 이번에도 그 어리석음이 인공지능을 바라보는 우리의 시각에 반영되었을 수도 있습니다.” 올해 ‘고스트 플리트(Ghost Fleet)’라는 차세대 전쟁 소설을 펴낸 피터 싱어(Peter Singer)와 오거스트 콜(August Cole)의 의견이다.
실제로 UN에서 LAWS의 개발을 중단하라고 하는 건 ‘촉구’ 수준이다. 그걸 따르는 국가들도 있지만 사실상 규제를 심하게 하지 않는 국가들이 대부분이다. 왜 그럴까? LAWS 및 인공지능을 탑재한 무기에 대한 눈치싸움 혹은 군비경쟁이 이미 시작되었기 때문이다. 실제 IS와 같은 테러 단체가 이런 무기들에 대한 개발을 감행한다고 했을 때, UN의 촉구로 막을 수는 없다. 그렇다면 방어를 위해서도 누군가는 기술력을 갖추고 있어야 한다. 그런데 그 ‘누군가’가 공평하게 선정되지도 않고, 모든 인류가 만족할 만한 후보는 애초에 없다. ‘왜 저 나라는 되고 우리는 안 되나?’라는 생각이 먼저 떠오를 수밖에 없는 것이다.
게다가 ‘인명피해를 줄일 수 있다’는 점도 설득력을 더 한다. 인공지능을 대동한 드론이 싸우는 형태라면 전사자나 부상자가 나올 이유가 없다는 것이다. 물론 철저하게 공격자 입장에서의 이야기지만, 이것이 ‘우리 군인들’에 대입이 되면 국민의 지지를 얻기에는 충분한 명분이 된다. 무슨 뜻이냐면 인공지능을 이해하는 집단과 그렇지 못한 집단 사이의 간격이 점점 넓어지고 있다는 것이다. 인공지능 개발자들이 늘어나고 있으며, 실생활에 커다란 도움이 될 것이라는 측면에서의 설명만 하고 있으니, 실제 정부와 국제기관들이 논하고 있는 LAWS와 같은 어두운 면은 점점 간과되고 인식 속에서 멀어져만 간다.
최근 러시아는 아이언맨(Iron Man)이라는 휴머노이드 군사용 로봇을 공개한 바 있다. 인명이 위험해질 수 있는 환경에 투입할 인공지능 군인이다. 러시아가 이렇게 나오면 누가 바짝 긴장하는가? 바로 미국과 중국이다. 양국 모두 AI 및 로보틱스에 엄청난 투자를 하기 시작했다. 기술력 전쟁에 있어 지지 않겠다는 미국의 강한 의지는 냉전시대가 지난 지금도 유효하며, 중국 역시 군비에 있어서는 이런 마음가짐으로 유명한 나라다. 지구를 수차례 폭파시키고도 남을 핵미사일이 이런 무의미한 경쟁으로 갖춰졌다고 역사를 아무리 배워도, 우린 똑같은 실수를 반복하기 마련이다.
그러나 이는 냉전시대의 그것보다 훨씬 위험한 결과를 초래할 수 있다. 인공지능 무기의 위험성은 ‘인공지능끼리 조우했을 때, 그 상호작용을 아무도 예측할 수가 없’으며, 인공지능 탑재 드론 등 기술의 개발이 민간부문에서 전혀 무기의 모습을 띄지 않은 채 진행되기 때문이다. 쿼드로콥터 기술은 물건 배달 및 유통 산업 쪽에서 상당히 주목받고 있으며, 안면 인식 기술은 프라이버시 및 정보보안, 출입통제 시장에서 인기리에 개발되고 있다. 로보틱스 전문가인 매리 커밍스(Mary Cummings)는 “조만간 구글과 아마존이 드론을 동원한 감시 및 정보 유통의 측면에 있어서 군대를 능가할 것”이라고 내다보고 있을 정도다.
인공지능 개발의 위험성은 전면에 드러나고 있지 않다. 오히려 각종 공상과학 영화와 소설들로 인해 ‘식상한 소재’가 되어버렸고, 이에 따라 무시되고 있다. 하지만 우리가 잘 모르는 ‘윗선’에서는 이미 인공지능 개발에 대한 규제 및 통일된 모니터링 방안이 논의되고 있다. 동시에 뒷구멍으로 여러 가지 무기 개발에도 박차가 가해지고 있는 형국이다.
기술은 늘 좋은 면과 위험한 면을 가지고 있지만, 사람은 그 양면성에 대한 깊은 고찰 없이 발전 일변도의 길을 걷고 있고, 고작 한다는 건 단시안적인 ‘규제와 통제’일뿐이며, 그것마저도 무용지물일 때가 더 많았다. 또한 앞으로는 상생과 건설적인 발전 방향을 논하지만 항상 뒤로는 서로를 이기기 위한 경쟁에 불꽃이 튄다. 역사는 반복되고, 실수도 거듭한다. 인공지능의 위험성은 이런 뻔한 실수의 알고리즘에서 한 발 자국도 나오지 못한 우리의 거울일지도 모른다.
[국제부 문가용 기자(globoan@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>