최근 연이어 발생한 대규모 해킹 사고로 인해 ‘보안’이 이제 전 산업에서 꼭 필요한 기반 인프라가 되고 있고 국민들의 일상생활에도 커다란 영향을 미치고 있습니다. 이에 <보안뉴스>는 중앙대학교 산업보안학과 김정덕 명예교수의 연재를 통해 일상과의 비유를 바탕으로 보안의 여러 이슈를 짚어보고, 여기서 한발 더 나아가 디지털 대전환 시대의 보안 패러다임과 지속가능한 보안을 위한 거버넌스와 리더십을 고민해보는 시간을 갖도록 하겠습니다. [편집자주]
[연재목차 Part 2. AI 시대 보안 패러다임]
1. AI 시대의 그림자, ‘딥페이크 사기’를 경계하라
2. AI 번아웃
3. AI 편향과 공정성, 보안에서 무엇이 다른가
4. 설명가능 AI와 인간의 최종 판단
5. AI도 인간과 닮았다
6. AI, ‘안전’과 ‘보안’의 경계를 허물다
7. AI 도입의 딜레마_기회와 위험 사이
8. AI 위험에 대한 2개의 거버넌스
9. 살아있는 AI 보안 거버넌스 구축
10. AI 보안의 새로운 지평_AI-SPM
11. AI 시스템 새로운 위험분석_STPA
12. 에이전트 AI 보안_GPS 전략
13. 에이전트 AI 시대_인간 중심 통제 설계
14. AI와 인간의 동맹_협업모델
15. AI, 보안문화를 재정의하다
[보안뉴스= 김정덕 중앙대 산업보안학과 명예교수/인간중심보안포럼 의장] 요즘 ‘정보의 홍수’는 옛말입니다. 이제는 딥페이크와 가짜뉴스 같은 정교한 AI 기반 사기가 우리의 판단력을 심각하게 흔들고 있습니다.
화면 속 인물이 진짜 사람인지, AI가 만든 ‘가짜’인지 분간조차 어려워졌습니다. Perry Carpenter가 24년 8월 발간한 ‘FAIK’에서 지적한 것처럼, 우리는 이미 ‘착취 구역(Exploitation Zone)’에 진입했습니다. 그러나 여기서 주목할 점은 딥페이크가 단순한 사기 수법을 넘어 조직의 신뢰 체계 전반을 위협하는 보안 이슈라는 것입니다. 기업과 개인 모두 아직 충분한 대응 체계를 갖추지 못한 상태입니다. 그 결과, 사기범들이 빈틈을 파고드는 환경이 만들어지고 있습니다.

[자료: AI Generated by Kim, Jungduk]
실제 사례가 보내는 경고
딥페이크를 활용한 임원 사기 피해는 이제 현실입니다. 2024년 초, 홍콩의 회계 담당 직원이 딥페이크 영상통화에 속아 2500만달러(약 340억 원)를 이체했습니다. 국내 금융기관 직원도 CEO의 딥페이크 영상통화에 속아 340억원을 송금했습니다.
문제는 더 이상 특별한 사건이 아니라는 점입니다. 2025년 1월부터 4월까지 불과 4개월간 179건의 딥페이크 사건이 보도됐습니다. 기업당 평균 손실액이 500만달러(약 70억원)에 이르고, 대기업은 680만 달러(약 95억 원)까지 기록했습니다.
기업 보안이 반드시 대응해야 할 3가지 이유
1. 기술 방어의 우회, 인간 신뢰의 직접 공격: 전통적 사이버보안은 악성코드, 랜섬웨어 같은 기술적 위협 탐지에 초점을 맞춰왔습니다. 그러나 딥페이크는 이를 완전히 우회합니다. CEO의 음성으로 자금 이체를 지시하면, 아무리 견고한 암호화나 방화벽도 감지할 수 없습니다. 62%의 기업이 지난 12개월 동안 딥페이크 공격을 경험했으며, 공격자들은 이제 CEO 자녀 피해 영상, 임원 배우자 협박 음성 등 감정적 취약점을 직접 겨냥합니다. 이러한 공격은 기업의 기술 방어 수준과 관계없이 인간의 본능을 우회합니다.
2. 신원 확인 체계의 무력화: 음성 생체인증 시스템이 딥페이크 음성으로 우회되고, 얼굴인식 시스템이 딥페이크 영상에 속아 넘어갑니다. 2024년 3,000건의 딥페이크 검증 우회 시도가 기록됐습니다. 원격 근무 확산으로 영상회의 중심 운영이 되면서 상대방 신원이 더 이상 보장되지 않는 상황이 됐습니다.
저비용 고효율의 공격 도구화: 딥페이크 생성 비용이 단 1.33달러 수준으로 극도로 낮아졌습니다. GitHub의 DeepFaceLab은 전체 딥페이크 비디오의 95%를 생산하며, 다크웹에서 비윤리적 AI 도구(FraudGPT, WormGPT)가 판매되고 있습니다. 공격자 입장에서는 거의 비용 제약이 없으면서도 수십억 원대의 피해를 야기시킬 수 있습니다.
기업 보안 조직의 긴급 대응 방안
절차적 통제 강화를 통한 다층 방어: 먼저 금융 거래 및 민감한 정보 처리에 관하여 명확한 절차적 통제를 수립할 필요가 있습니다. 구체적으로는 일정 금액 이상의 송금 시에 ‘이중 승인’(Dual Authorization) 제도를 의무화해 단일 결재자의 결정만으로는 자금이 이체되지 않도록 설계해야 합니다. 또한 새로운 수취인 등록 시에는 24~48시간의 대기 기간을 두어 충분한 검증 시간을 확보하는 것이 좋습니다. 무엇보다 중요한 것은 음성 통화나 영상 통화만으로는 절대 승인을 내려서는 안 된다는 원칙입니다. 반드시 사전에 등록된 번호로 직접 콜백해 상대방의 신원을 확인한 이후에야 결정을 내려야 합니다.
생체인증 기술의 고도화: 생체인증 시스템을 도입하고 계신 조직들은 여기에 한 걸음 더 나아가 ‘라이브니스(Liveness) 탐지 기술’을 결합할 필요가 있습니다. 이는 사용자가 실제로 물리적으로 존재하고 있는지를 실시간으로 확인하는 기술로서, 단순한 얼굴인식이나 음성인식에서 벗어나 보다 능동적인 상호작용 기반의 검증을 가능하게 합니다. 이를 통해 사진, 영상, 그리고 딥페이크 인젝션 공격으로부터 보다 견고한 방어를 기대할 수 있습니다.
조직 문화 차원의 교육 강화: 마지막으로 조직 구성원 전체를 대상으로 한 정기적인 딥페이크 인식 교육이 필요합니다. 단순한 이메일 피싱 테스트 수준을 넘어서 일부 선진 기업들이 이미 실시하고 있는 ‘딥페이크 음성·영상 시뮬레이션 테스트’까지 도입해 실제 상황에 대한 대응력을 높여야 합니다. 직원들의 AI 위협에 대한 인식 격차가 2000% 이상이라는 점을 고려할 때, 조직 전체가 하나의 목소리로 위협을 인식하고 대응할 수 있도록 하는 교육이 그 어느 때보다 중요하다고 할 수 있다.
마무리: 절차와 인식, 기술의 삼각형

▲김정덕 중앙대 명예교수 [자료: 김정덕 교수]
AI가 가져온 혁신은 분명하지만, 그 이면의 위험 역시 현실화되고 있습니다. 기술 방어만으로는 부족합니다. 절차적 통제, 기술적 탐지, 조직 문화적 인식 제고가 함께 작동해야만 딥페이크 위협을 관리할 수 있다.
조직 내 ‘단일 채널 승인 금지’ 원칙 수립, 이중 검증 의무화, 정기적 교육 등 기본 원칙을 지키는 것이 가장 강력한 방어책입니다. 이사회에서 아직 딥페이크 위협을 논의하지 않았다면, 오히려 더 큰 위험 신호입니다. 지금 바로 조직의 보안 전략에 딥페이크 대응을 우선 의제로 올려야 할 시점입니다.
[글_ 김정덕 중앙대 산업보안학과 명예교수/인간중심보안포럼 의장]
필자 소개_ 중앙대학교 산업보안학과 명예교수, 인간중심보안포럼 의장, 한국정보보호학회 부회장, 금융 정보보호관리체계 인증위원, 전 JTC1 SC27 정보보안 국제표준화 전문위 의장 및 의원, 전 ISO 27014(정보보안 거버넌스) 에디터 등 역임
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>








.jpg)
.jpg)



