안전하고 체계적인 인공지능 개발 방법부터 마련되어야...실패에 대한 정의도
[보안뉴스 문가용 기자] 인공지능과 확장된 지능(augmented intelligence)은 현대 IT에서 가장 큰 관심을 받고 있는 분야다. 물론 이러한 관심과 기대가 잘못된 약속과 부풀려진 희망으로 발현되는 경우도 있지만, 미래 인간의 삶에 이 두 가지 기술이 작용을 할 것은 분명해 보인다. 어도비가 발간한 2018년 디지털 트렌드 보고서에 의하면 인공지능을 활용하는 기업은 현재 15%이고, 인공지능 도입을 추진 중에 있는 기업이 31%라고 하니 말이다.

[이미지 = iclickart]
머신 러닝과 신경망의 발달 등 인공지능 분야에서 이뤄진 성과들은 알게 모르게 우리 삶 속으로 성큼성큼 걸어 들어오고 있다. 좀 더 연결된 미래, 좀 더 자동화 된 미래가 우리에게 약속되어 있다. 물론 시간의 흐름에 따라 자동으로 되는 건 아니다. 인공지능이라는 기술 뒤 수많은 과학자들이 아직도 인간의 심리가 어떻게 작용하는지 이해하고, 그걸 기술로 흉내 냄으로써 매일의 생활 속에서 편리함을 추구할 수 있도록 노력하고 있다.
인공지능의 미래에 대해 생각해봐야 할 것들
인공지능의 기술을 개발시키는 이유는 대부분 좋은 의도에서 비롯된다. 하지만 인간이 모든 개발의 방향을 정하고 통제할 수 있는 건 아니다. 2017년 열린 ‘신경망 정보 처리 시스템(Neural Information Processing Systems)’ 컨퍼런스에서도 이 점이 극명하게 드러났다.
이 행사에 참가한 전문가들은 스테가노그래피 기법을 통해 원시 데이터를 숨김으로써 결과를 만들어내도록 하는 이미지 매핑 인공지능 시스템을 발표했다. 이 시스템은 전문가들이 원하는 결과를 내는 데 성공했다. 그런데 그 결과를 내기 위해 인공지능은 일종의 속임수를 발동하고 있었던 것이 알려졌다. 전문가들이 전혀 예상치 못한 방향으로의 ‘향상’이었다.
인공지능의 활용도가 높아지면 높아질수록, 악의적인 목적을 달성하기 위한 툴로서 활용되는 사례가 오히려 늘어나고 있다. 2016년 미국 대선 당시 소셜 미디어를 휘저으며 여론을 조작한 것도 인공지능을 기반으로 한 툴이었다.
인공지능은 얼마나 피나는 노력으로 개발이 됐던, 결국 사람이 제공하거나 만든 데이터를 가지고 학습하고 완성된다. 이 데이터를 조금만 잘못 관리해도 인공지능이 내는 결과물은 편견의 영향에서 자유로울 수가 없다. 하지만 이 데이터라는 것도 인간이 그 동안 쌓아온 지식의 산물이기 때문에, 인공지능 역시 이상적인 방향으로 성장하지는 못할 확률이 높다. 우리의 지식이라는 것에도 아직 편견과 오해가 다 제거된 상태가 아니기 때문이다.
그렇기 때문에 많은 과학자들이 인공지능 개발에 있어 주의해야 할 점을 먼저 수립해야 한다고 경고했다. 스티븐 호킹 박사도 경고하고, 엘론 머스크조차 인공지능에 대해서는 주의해야 한다고 말했다. 구글도 AI 개발의 윤리에 대한 가이드라인을 발표해 공개한 바 있다. 인공지능은 기술의 특성상 인간이 다 제어할 수 없는 요소가 다분하기 때문에 위험할 수밖에 없다.
네트워크 방어에 있어서 인공지능의 역할
그러나 인공지능은 사이버 공간에서의 다양한 위협을 막는 데에 큰 역할을 할 수 있을 것으로 기대 받고 있다. 이미 인공지능을 기반으로 한 방어 제품이 시장에 나오고 있다. 단순 ‘방어’에서 그치는 게 아니라 위협 사냥, 공격 분석, 사건 대응에 고루고루 사용되고 있다. 이미 미래에 있을 공격을 예측하는 데에도 인공지능이 적극 실험되고 있는 게 현실이다.
뉴욕의 전력 담당 기관인 뉴욕 파워 오소리티(New York Power Authority)는 전력망에 인공지능을 통합하기도 했다. 사회 기반 시설에 대한 공격이 심각해지자, 위협 요소를 미리미리 막기 위한 조치였다. 하지만 인공지능의 역할을 ‘탐지’에만 있었다. 위협이 발견되었을 때 그에 대한 대응을 하는 건 인간의 일이었다. 아직까지 인공지능에게 ‘대응’을 위한 권한을 주기는 이르다는 게 뉴욕 파워 오소리티의 의견이었다. “대응의 권한은 관리자에게 있는 겁니다. 관리자는 아직까지 사람이어야 하고요. 방어에 있어서 인공지능과 사람의 역할은 아직 구분해야 하는 수준이라고 봅니다.”
인공지능의 리스크 최소화하기
인공지능이 마냥 해롭고 위험한 물건이라는 뜻이 아니다. 지금 단계에서는 무시할 수 없는 수준의 위험성을 내포하고 있다는 것이다. 그러므로 그 위험 수위를 낮추기 위해서 할 수 있는 일이 무엇인지 알고 발전을 꾀하는 게 안전하다. 마치 브레이크 페달에 대한 학습을 마친 후에 자전거나 차를 몰 수 있는 것과 마찬가지로 말이다.
1) 법과 규정 : 기술 개발을 위한 연구와 실험 자체에 대한 규제를 설정하는 건 그리 좋은 일이 아니다. 하지만 다양한 시스템에 인공지능을 도입하기 전에, 이러한 행위 후 일어날 수 있는 실패의 결과들에 대해서는 명확한 정의가 있어야 할 것이다. 그래야 그러한 실패로부터 최대한 빨리 돌아서고 잘못된 방향으로 더 나아가지 않을 수 있다.
2) 제한선 그려두기 : 인공지능 시스템이 지나치게 자유로운 환경에서 성장하는 것보다 울타리를 쳐주는 것도 위험을 최소화할 수 있는 좋은 방법이다. 인공지능을 국소적으로 적용하고 추이를 지켜본 후 조금씩 확장하는 편이 예상치 못한 결과로 큰 충격을 받는 것보다 안전하다. 혹은 레드팀을 고용해 최악의 공격 시나리오를 만들어내게 한 뒤, 이를 바탕으로 경계선을 정하는 것도 괜찮은 방법이 될 수 있다.
3) 인간의 필요성은 여전하다 : 인공지능이 사람을 완전히 대체할 것이라고 기대하거나 염려하는데, 아직은 보편적인 대체가 가능한 것은 아니다. 사람은 사람대로의 역할을 가지고 있다. 오히려 사람과 인공지능이 결합했을 때 그 시너지가 무시무시할 수 있다.
4) 실험, 실험, 실험 : 위험성이 충분한 모든 신기술이 다 그렇지만, 실험에 실험을 거듭하라는 건 아무리 강조해도 부족하지 않은 사안이다. 인공지능은 알고리즘 개발자조차 그 안을 들여다볼 수 없고, 결과를 통제할 수 없다. 오로지 무한히 반복되는 실험을 통해 어렴풋이 인공지능에 대해 깨달을 뿐이다. 그러니 실험을 반복하는 건 인공지능을 빠르고 안전하게 계발시킬 수 있는 지름길이다.
글 : 짐 칸즈(Jim Carnes), Ciena
3줄 요약
1. 인공지능, 앞으로 보편화되면서 우리 삶을 편리하게 만들어줄 기술.
2. 그러나 모든 기술의 방향을 사람이 조정할 수 없기에, 어느 정도 위험 요소가 존재함.
3. 무조건적인 계발이 아니라, 안전하고 확실한 연구 방법과 접근법부터 마련되어야 함.
[국제부 문가용 기자(globoan@boannews.com)]
Copyrighted 2015. UBM-Tech. 117153:0515BC
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>