[연재목차 Part 2. AI 시대 보안 패러다임]
1. AI 시대의 그림자, ‘딥페이크 사기’를 경계하라
2. AI 시대, 번아웃 관리
3. AI 편향과 공정성, 보안에서 무엇이 다른가
4. 설명가능 AI와 인간의 최종 판단
5. AI도 인간과 닮았다
6. AI, ‘안전’과 ‘보안’의 경계를 허물다
7. AI 도입의 딜레마_기회와 위험 사이
8. AI 위험에 대한 2개의 거버넌스
9. 챗봇을 넘어, ‘행동하는 AI’를 통제할 시간
10. AI 시대의 생존 방정식, ‘실행형’ 보안 거버넌스
11. AI 보안관리의 새로운 지평, AI-SPM의 이해와 도입 전략
12. AI 시스템의 새로운 위험분석 방법, STPA
13. 에이전트 AI 시대_인간 중심 통제 설계
14. AI와 인간의 동맹_협업모델
15. AI, 보안문화를 재정의하다
[보안뉴스= 김정덕 중앙대 산업보안학과 명예교수/인간중심보안포럼 의장] 생성형 AI가 단순한 비서(Chatbot)를 넘어, 스스로 목표를 세우고 업무를 완결하는 ‘자율형 에이전트 AI’(Autonomous Agentic AI)의 시대로 진화했습니다. 그 비즈니스 잠재력은 이미 현장에서 입증되고 있습니다. 다우 화학은 AI 에이전트를 도입해 10만 건 이상의 송장을 자동 처리하며 압도적인 생산성 혁신을 이뤘고, 안랩 등 보안 기업 역시 다중 로그 분석을 자동화하며 업무 효율을 극대화하고 있습니다.
그러나 편리함의 이면에는 치명적인 리스크가 도사리고 있습니다. 인간 사용자의 로그인과 승인 없이도 에이전트가 사내 시스템 경계를 넘나들며 데이터를 수정하고 외부 서비스를 호출할 수 있기 때문입니다. 이는 기존에 우리가 쌓아왔던 외부 침입 차단 중심의 ‘성벽’(Wall) 방어 모델이 무용지물이 되었음을 의미합니다. 운전대 없는 고속 차량에 올라탄 기업에게 지금 가장 필요한 것은 기술적 차단이 아닌, 자율성을 안전하게 이끄는 ‘새로운 통제 내비게이션’입니다.

[출처: AI Generated by Kim, Jungduk]
인간 중심의 에이전트 통제: ‘GPS’ 전략
그렇다면 인간을 대신해 기업의 핵심 자원을 직접 움직이는 에이전트 AI를 어떻게 안전하게 통제해야 할까요? 필자는 이를 자율주행차의 내비게이션 원리에 빗대어, 인간 중심의 ‘GPS(Govern-Perceive-Steer) 통제 프레임워크’를 제안합니다.
Govern (지시 및 통제): ‘최소 권한’ 기반의 규칙 설계
아무리 뛰어난 AI라도 백지위임장을 주어서는 안 됩니다. 에이전트가 활동할 수 있는 명확한 가드레일을 정책적으로 수립하고 통제(Govern)해야 합니다.
핵심은 ‘최소 권한 설계’(Least Privilege)입니다. 에이전트를 조직 내 만능 집사가 아닌 특정 목적의 도구로 정의하십시오. 각 에이전트에게 고유한 디지털 아이덴티티(ID)를 부여하고, 역할 기반 접근 통제(RBAC)를 엄격히 적용해야 합니다. 예를 들어, 재무 에이전트에게 전표 작성 권한은 주되, 실제 자금 이체 승인 권한은 철저히 배제하는 식의 화이트리스트(Whitelist) 정책이 선행되어야 합니다.
Perceive (인지): 행동의 투명성과 추적성 확보
“보이지 않으면 관리할 수 없다”는 보안의 철칙은 에이전트 시대에 더욱 유효합니다. 블랙박스 속에서 작동하는 에이전트의 행동을 명확히 인지(Perceive)할 수 있어야 합니다.
사고 발생 시 원인 규명과 책임 소재를 가리기 위해 ‘행동 투명성과 로깅 체계’를 반드시 갖추십시오. 최근 실무에서는 랭스미스(LangSmith), 랭퓨즈(Langfuse)와 같은 ‘LLM 옵저버빌리티’(Observability) 도구를 적극 도입하고 있습니다. 예를 들어, 고객 환불 에이전트가 사내 규정을 어떻게 해석하여 결제 API를 호출했는지, 또는 IT 보안 에이전트가 어떤 근거로 방화벽 정책을 변경했는지 그 모든 ‘생각의 흐름’과 ‘시스템 호출 내역’을 일관된 형식으로 추적할 수 있어야 합니다. 이는 최근 국제 사회에서 고위험 AI에 요구하는 핵심 컴플라이언스이기도 합니다.
Steer (조향): 인간의 확장된 감독과 ‘킬 스위치’
가장 중요한 마지막 단계는, 시스템이 궤도를 이탈할 때 인간이 직접 운전대를 잡고 방향을 트는 조향(Steer) 능력입니다. 단순 반복 업무는 에이전트에게 전면 위임하더라도, 재무적 손실이나 법적 책임이 따르는 핵심 의사결정은 반드시 인간의 ‘확장된 감독’(Human-in-the-loop) 아래 두어야 합니다. 인간의 승인은 형식적인 버튼 클릭이 아니라, AI의 근거를 검토하는 최종 통제선입니다. 나아가 사용자가 알지 못하는 사이 에이전트가 위험한 결정을 내리려 할 때, 이를 즉각 중지시킬 수 있는 ‘비상 정지 버튼’(Kill Switch)을 시스템 기획 단계부터 설계해 두어야 합니다.

▲김정덕 중앙대 명예교수 [출처: 김정덕 교수]
이는 단순한 구호가 아닙니다. 실무에서는 에이전트가 위험한 API(예: DB 삭제, 대규모 송금)를 호출할 때 즉각 권한을 회수하는 ‘소프트웨어 차단기’(Circuit Breaker)로 구현됩니다. 클라우드 관리 에이전트가 오작동해 핵심 서버를 삭제하려 할 때, 이를 탐지하고 세션을 강제 종료하는 것이 대표적 사례입니다. 이러한 안전장치는 기업의 자산 보호를 넘어 기술 앞에서의 인간의 최종 통제권을 보장하는 최후의 보루입니다.
혁신의 가속 페달은 안전한 브레이크에서 나온다
에이전트 AI의 도입은 거스를 수 없는 대세입니다. 기술은 점차 자율화되겠지만, 그 결과에 대한 ‘책임’은 결코 AI에게 위임할 수 없으며 오롯이 기업과 경영진의 몫으로 남습니다.
이제 기업의 보안 조직은 기술의 발목을 잡는 부서가 아니라, 에이전트라는 강력한 엔진이 안전하게 달릴 수 있도록 GPS 내비게이션을 달아주는 ‘신뢰 설계자’(Trust Architect)가 되어야 합니다. 귀사의 에이전트 AI는 지금 누구의 통제 아래 움직이고 있습니까?
[글_김정덕 중앙대 산업보안학과 명예교수/인간중심보안포럼 의장]
필자 소개_ 중앙대학교 산업보안학과 명예교수, 인간중심보안포럼 의장, 한국정보보호학회 부회장, 금융 정보보호관리체계 인증위원, 전 JTC1 SC27 정보보안 국제표준화 전문위 의장 및 의원, 전 ISO 27014(정보보안 거버넌스) 에디터 등 역임
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>














