인공지능 연구 전문 회사인 어드버사(Adversa)가 새롭게 발표한 보고서에 의하면 인공지능이 도입되는 속도는 대단히 빠른 수준인데 적절한 방어 장치는 거의 고려되지 않는 수준이라고 한다. 인공지능 시스템을 회피하는 공격, 인공지능이 산출한 결과물을 조작하는 공격, 인공지능의 기반이 되는 데이터를 유출시키는 공격 등 인공지능을 겨냥한 공격은 다양하게 개발되고 있는 상황인데 말이다.
베리빌인공지능기관(Berryville Institute of Machine Learning, BIML)의 연구원들은 최근까지 머신러닝과 인공지능 시스템을 겨냥한 위협을 총 78가지로 분류해냈다.
이 중 가장 빈번하거나 큰 위협이 될 만한 공격으로는 데이터 포이즈닝(data poisoning), 온라인 시스템 조작(online system manipulation), 머신러닝 모델 공격, 데이터 탈취 등이 있다. 또한, 지난해 말 마이터(MITRE), 마이크로소프트 등을 비롯한 주요 인공지능 관련 단체들은 ‘적대적 머신러닝 위협 매트릭스(Adversarial ML Threat Matrix)’를 발표했다.
BIML의 공동 창립자인 개리 맥그로(Gary McGraw)는 “이러한 위협의 종류들을 인지하는 걸 넘어, 그 개념들에 익숙해지는 것이 방어자들의 급선무”라고 강조하며, “이런 위협들이 발굴되었다는 것만 하더라도 인공지능 리스크를 가늠하는 데 도움이 될 겁니다”라 덧붙였다.
그러나 현재까지 연구자들은 주로 이미지 식별 알고리즘에 대한 공격에만 집중해 온 것이 사실이다. 즉, ‘비전(vision)’과 관련된 인공지능 기술들이 공격받는다는 시나리오만 파헤쳐져 왔다는 것이다. 어드버사에 의하면 악성 인공지능 공격에 대한 연구 중 65%가 컴퓨터 비전과 관련이 있다고 한다. 이는 얼굴인식 알고리즘을 겨냥한 연구가 크게 유행한 것과 관련이 있다고 분석된다.
알고리즘 시스템에 대한 공격이 다채롭고 실재적이라는 사실은 그 누구보다 인공지능 기술을 연구하고 도입하는 조직들이 인지하고 있어야 한다고 어드버사는 강조한다. “인공지능 알고리즘이나 모델링, 애플리케이션을 개발하는 모든 사람들이 각종 공격 시나리오를 알고 있어야 보다 안전한 결과물이 나올 수 있습니다.”
[제작=서울여대 정보보호학과 학생회]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>