“보안 담당자라면, 적극적이지만 안전한 AI 활용 방안 검토해야”
[보안뉴스 조재호 기자] “인공지능(AI)이 기술적 특이점을 넘어 인간의 능력을 뛰어넘는 시대에는 ‘Privacy by Design’ 사상 아래, AI를 활용한 보안과 AI를 보호하기 위한 보안이 필수적입니다.”

문 원장이 키노트 스피치를 진행하고 있다. [자료: 보안뉴스]
문광석 한국정보공학기술사회 미래융합기술원장은 28일 서울 강남구 코엑스에서 열리 ‘PIS FAIR 2025’에서 이같이 말하고, AI 시대의 개인정보 활용과 위협에 대한 인사이트를 공유했다.
이날 ‘기술사들이 바라보는 AI 시대의 개인정보보호 전략’을 주제로 키노트 스피치를 진행한 문 원장은 “AI와 관련된 개인정보 사고는 더욱 다양해지고 서비스 유형에 따라 결과값도 달라질 것”이라며 “AI는 보안의 3요소인 기밀성·가용성·무결성 등 모든 측면에서 위험성을 지녀 정교한 운영 정책이 필요하다”고 말했다.
문 원장은 우리는 지금 모두가 AI 전환을 외치는 시대를 살아가고 있다며, AI의 강점을 무작정 받아들이기도 부정하기도 어려운 상황임을 강조했다. 따라서 Privacy by Design, 시작에서 끝까지 개인정보보호를 먼저 생각해야 한다는 것이다.
나날이 발전하는 AI에서 발생하는 문제점을 다루기 이해서는 법 제도를 따르는 것만으로는 개인정보 보호를 제대로 실행하기 어렵다는 관점이다. 이에 대한 실행 방안으로 ‘AI를 활용한 보안’(AI for Protection Privac)과 ‘AI를 보호하기 위한 개인정보보호’(Protection Privacy for AI)을 제시했다.

문 원장이 AI를 보호하기 위한 개인정보보호에 대해 소개하고 있다. [자료: 보안뉴스]
AI를 활용한 보안 방안으로는 ‘AI를 통한 개인정보처리방침 자동 진단 시스템’을 시작으로 ‘생성형 AI 기반 위협 예측 모델링’, ‘AI 보안관제’, ‘정기보고서의 자동화’ 등을 꼽았다. 문 원장은 “개인정보처리방침은 기업의 얼굴”이라며 “각 기업의 방침은 외부에 공개되며, 누구나 볼 수 있는 내용”이라며 보안 담당자라면 심혈을 기울여야 할 부분이라고 부연했다.
AI를 보호하기 위한 개인정보보호로는 ‘초기 단계에서부터 프라이버시를 고려한 기획 및 설계’를 강조했다. 이미 거대언어모델(LLM)의 오픈소스 웹 애플리케이션 보안 프로젝트(OWASP)을 비롯해 정부의 보안 가이드라인이 다수 공개됐다. 개인정보보호위원회도 ‘AI 개발/서비스를 위한 공개된 개인정보 처리 안내서’나 ‘AI 프라이버시 리스크 관리 모델’ 등을 발간했다.
문 원장은 “AI를 단순히 두려워하거나 걱정하기보다는 적극적이지만 안전한 활용을 검토해야 한다”며 “각 기업의 보안 담당자들이 나서 AI Literacy 증진을 선도할 수 있었으면 한다”고 말했다.
[조재호 기자(sw@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>