인간의 직관 능력 부족, 프로그래밍된 역할만 수행 한계
보안 이슈 해결하지 못하면 AI 시대는 도래하지 못할 수도
[보안뉴스 성기노 기자] AI가 발산하는 신세계의 빛은 실로 찬란할 것이다. AI는 인간에게 가장 중요한 건강과 재화 그리고 일상의 모든 면을 획기적으로 변화시킬 준비를 하고 있다. 물론 AI 시대가 가져다줄 부정적 영향도 만만치 않지만 그것이 두려워 인류의 진화와 발전을 포기할 수는 없다.

[자료: gettyimagesbank]
앞으로 출현할 각종 AI 에이전트의 주 임무는 인간의 업무를 대신 수행해 줄 수 있다는 것이다. 이 기술은 단순한 ‘자동화’를 넘어서 AI의 ‘자율 의지’로 복잡한 결정을 직접 내리고 순발력 있게 위기 상황에 대응한다는 점에서 인간의 모습과 거의 흡사하다.
그렇다면 인간은 이제 AI가 대신 떠먹여 줄 밥상에 앉아 편안하게 식사를 즐기면 되는 것일까. 인간이 AI에 더욱 의지하고 ‘대역’ 일을 많이 주면 줄수록 그에 따르는 리스크도 비례해서 커진다는 점이 간과되어서는 안 된다. 이것이 AI 시대를 맞이하는 인간의 가장 큰 딜레마이자 한계로 작용할 것이다.
인간은 사기꾼이 접근해올 때 그의 언행과 습관, 외모에서 풍기는 분위기 등을 직관적으로 파악해 정보를 해석할 수 있는 ‘자율적 인식 능력’이 있다. 하지만 AI는 인간이 가진 풍부한 경험과 경륜에서 나오는 직관적인 인지 능력이 떨어진다.
AI는 오로지 단면에 보이는 겉모습만의 인지 능력으로 패턴을 분석하고 확률적으로 판단할 뿐, 맥락적 이해나 미묘한 분위기의 감지는 어렵다. 따라서 AI가 데이터에 기반해 특정 행동이나 발언을 의심할 수는 있지만 인간이 직관적으로 느끼는 ‘이상한 낌새’나 ‘본능적 경고’를 포착하는 데에는 한계가 있다.
AI "이 상황에서 왜 이렇게 하지?" 통찰력 부재
바로 이 지점에서 AI 시대에서 보안이 중요한 키 역할을 할 것이라는 명제가 나온다. AI가 아무리 발전한다고 해도 보안의 영역이 인간의 직관처럼 다양한 인지 능력으로 위협에 대응하는 것이 아니라 ‘기계적’인 수준에 그칠 경우 한순간에 모든 것이 날아가버릴 수 있다.
사실 AI는 인간이 가진 ‘직관’적인 능력이 없는 셈이다. 이 ‘직관’의 영역은 앞으로 AI 시대가 도래하면 AI의 보안능력을 가늠하는 열쇠가 될 것이다. 인간의 직관은 단순한 데이터 학습이 아니라 몸으로 겪은 경험이나 감각적 지각, 문화적 맥락, 그리고 반복된 시행착오 속에서 형성된다. 아이가 뜨거운 물건을 만지고 데이면 “이것은 위험하다”라는 직관이 생기지만 AI는 단순히 데이터 속에서 ‘뜨겁다’는 개념을 학습할 뿐 그 체험에서 나오는 즉각적인 판단을 할 수 없다.
두 번째 요소가 더 중요하다. AI는 천문학적인 경우의 수 패턴을 인식하고 확률적으로 가장 적합한 답을 찾지만 인간처럼 “이 상황에서 왜 이렇게 해야 하는가?”를 깊이 이해하는 능력은 부족하다. 인간의 직관은 논리적으로 설명되지 않는 감(感)에서 나오기도 하고, 미묘한 뉘앙스를 포착하여 행동을 결정하기도 한다. 반면 AI는 기존 데이터와 패턴에 기반한 연산만을 수행할 뿐 그 의미를 깊이 통찰하는 능력이 부족하다.

[자료: gettyimagesbank]
또한 인간의 뇌는 복잡한 신경망을 통해 전기화학적 신호를 전달하며, 연상, 직관, 창의적 사고를 동시에 수행한다고 한다. 반면 AI의 신경망은 데이터 입력과 출력 간의 확률적 관계를 학습하는 구조이므로 인간처럼 다차원적인 사고를 하거나 직관적인 결정을 내리는 데 한계가 있다.
결국 AI는 인간이 만든 거대한 알고리즘의 데이터를 기반으로 ‘그럴듯한 판단’을 내릴 수 있지만 인간처럼 감각적 경험과 내면적 확신에서 나오는 직관적 판단을 내리지는 못한다. 바로 여기에 AI 보안의 취약점이 숨어 있다.
AI는 자신이 학습한 그 이상도 이하도 아닌 딱 그것만큼의 보안 탐지 능력을 가지고 있다. 하지만 향후 도래할 AI 보안은 인간의 직관으로도 탐지해 내지 못할 정도로 정교하고 고도화된 ‘맞춤형’으로 진화할 것이다. 이를 극복하려면 AI가 인간의 경험적 학습 방식에 가까워지도록 설계되거나 인간과 협업하는 방식으로 발전해야 한다는 게 전문가들의 조언이다.
AI 사기 탐지 모델이 해킹돼 정상거래 차단되고 사기는 통과
현재 AI가 다양하게 활용되고 있지만 그에 따른 보안 위협에 대해 AI가 ‘독자적’으로 대응할 수 있는 능력은 여전히 의문부호에 휩싸여 있다. AI를 활용한 금융 사기 탐지 시스템이 빠르고 정교하게 의심 거래를 찾아내지만 만약 해커가 AI의 학습 데이터를 조작한다면 그것을 탐지해낼 수 없다.
현재의 AI는 오로지 자신에게 ‘프로그래밍’된 것에만 반응할 뿐 ‘인지’의 사각지대에까지 놓인 ┖변칙적┖인 공격에 대해서는 사실상 대응을 할 수 없는 것이다. 실제로 AI의 학습 과정에서 데이터가 오염되는 ‘데이터 포이즈닝’(Data Poisoning) 공격이 점점 증가하고 있다는 보고도 있다.
2020년 한 금융 회사의 AI 사기 탐지 모델이 해커들에 의해 조작되어 정상적인 거래를 차단하고 오히려 사기 거래를 통과시키는 사건이 발생한 바 있다. 보안이 취약한 AI는 이렇게 눈 뜨고 코 베이는 허무한 상황에 무방비로 노출돼 있는 셈이다. AI가 인간의 직관적 능력을 어느정도 갖추었다면 프로그래밍된 데이터 외에 AI의 ┖감┖으로 사기 거래를 잡아낼 수도 있었을 것이다.
물론 꿈의 AI인 AGI(인공 일반 지능:Artificial General Intelligence)는 인간이 할 수 있는 어떠한 지적인 업무도 성공적으로 해낼 수 있는 (가상적인) 기계의 지능도 갖추고 있다. 하지만 이는 인공지능 연구의 최종 종착지이자, SF 작가들이나 미래학자들의 중요한 소재로 이용될 뿐 아직 존재하지는 않는다. 지금도 수많은 과학자들이 ‘인간처럼 자연스러운 AI’를 ‘창조’하기 위해 힘을 쏟고 있을 뿐이다.

[자료: gettyimagesbank]
자율주행차도 수많은 허점 때문에 인간이 마음놓고 핸들에서 손을 놓을 수는 없다. 자율주행차는 AI가 교통 신호를 인식하고 도로 상황을 분석하며 움직인다. 하지만 AI의 시각적 인식을 교란하는 간단한 공격만으로도 시스템이 오작동할 수 있다. 한 연구에 따르면 특정한 스티커를 교통 표지판에 부착하는 것만으로 AI가 ‘정지’ 신호를 ‘제한 속도 80km’로 잘못 인식할 수 있다고 한다. 보안이 완벽하지 않다면 자율주행차는 편리함을 넘어 위험한 도구로 변할 수 있다는 점을 실증하고 있다.
AI 챗봇도 개인정보를 유출해주는 ‘도구’로 전락할 수 있다. AI 챗봇은 고객의 질문을 분석하고 맞춤형 답변을 제공하는데 해커가 시스템을 공격해 챗봇이 민감한 데이터를 유출하도록 유도하는 ‘프롬프트 해킹’ 기술도 등장했다. 일부 챗봇은 단순한 질문 조작만으로도 기업 내부 문서나 고객의 개인정보를 노출하는 사례가 보고되고 있다. 만약 기업이 보안 대비 없이 AI를 도입한다면 편리한 고객 서비스 도구가 곧바로 보안 리스크가 될 수 있는 것이다.
2025년 현재 AI 특화 사이버 공격은 매일 4,700만 건 발생하고 있고 특히 헬스케어 분야에서 환자 데이터 유출 사고가 전년 대비 340% 급증했다는 통계도 있다. 이 같은 위협에 대응해 글로벌 보안 업계는 AI 방어 메커니즘 개발에 더 큰 투자를 하고 있다. 자칫 AI 시대가 도래하기도 전에 보안 이슈로 시장 자체가 망하게 될 가능성도 있기 때문이다.
그만큼 AI 시대 보안 위협은 더 정교해지고 교묘해지기 때문에 AI의 보안 대응 능력이 곧 AI 시대의 핵심 화두가 되고 있는 것이다. MIT 테크놀로지 리뷰 분석에 따르면 2025년 AI 보안 시장은 600억 달러 규모에 달할 전망이라고 한다. 이는 단순한 기술 경쟁이 아니라 AI 시대가 새로운 문명을 이끌기 위해서는 보안이 반드시 필요한 핵심 ‘도구’임을 말해준다.
AI가 제공하는 편의성과 그 편의성을 지키는 보안 체계는 이제 하나의 동전 양면처럼 분리될 수 없는 시대가 도래하고 있다. 이런 명제를 보안 업계가 적확하게 인식한다면 AI라는 거대한 시장에서 보안을 그 핵심 수단으로 활용할 수 있을 것이다. AI가 보안이고 보안이 AI인 세상이 오고 있다.
[성기노 기자(kino@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>