AI 보안위협, 보안성·윤리성·안전성·공정성·책임성 문제 등 리스크 커
미국, 국제기구 등 전세계적으로 AI 법령 마련 및 적용하며 규제 나서
AI 거버넌스와 AI 프레임워크 중요성 대두...금보원 가이드라인 마련 중
[보안뉴스 김경애 기자] 최근 금융권의 망분리 규제 개선으로 AI 활용이 확대될 것으로 전망된다. 하지만 AI 보안위협이 갈수록 커지고 있어 AI 거버넌스와 AI 프레임워크의 중요성이 대두되고 있다.
▲금융보안원 서호진 팀장이 ‘코리아 핀테크 위크 2024’에서 거버넌스 구축에 대해 설명하고 있다.[사진=보안뉴스]
금융보안원 AI기술팀 이주현 책임은 29일 열린 ‘코리아 핀테크 위크 2024’에서 AI 리스크에 대해 “AI의 오작동으로 실제 지급해야 하는 금액을 잘못 지급할 수 있는 신뢰성, 신용문제 등으로 인한 집단 차별 발생의 공정성, 사내기밀이 외부로 유출거나 악성코드가 삽입된 AI를 사용할 수 있는 보안성, 프라이버시 침해 등 윤리성, 악성행위를 유도할 수 있는 안전성, 저작권 침해 발생 우려에 대한 책임성 등의 문제가 있다”고 설명했다.
전세계, AI 시스템 시장 진출전 위험 식별 등 규율 적용
따라서 AI 거버넌스와 AI 프레임워크 마련이 필요하다. 미국, 영국, 싱가폴, 국제기구 등은 이러한 위험성에 법령을 적용해 규제하고 있다. 특히 인공지능은 타 신기술과 달리 잘못 이용될 경우 인류에 큰 위험이 될수 있어 국제협력도 활발한 상황이다.
미국 행정부는 2023년 10월 안전·안심·신뢰할 수 있는 AI 개발 및 활용을 위한 행정명령을 발표했고, 미국의 15개 주요 AI 기업은 안전하고 투명한 AI 개발을 추진할 것을 미국 행정부와 약속했다. 또한 미국 재무부는 지난 3월 AI 행정명령에 따라 금융 서비스 부문의 AI 관련 사이버보안 위험관리 보고서를 발표했다.
G7은 2023년 10월 안전, 보안, 신뢰할 수 있는 AI 개발을 위해 첨단 AI 시스템 개발을 위한 히로시마 프로세스 국제 행동강령을 채택했고, 행동강령에는 첨단 AI 시스템을 시장에 진출하기 전 내·외부 평가를 실시해 위험을 식별·완화하는 내용을 포함하고 있다.
또한 영국, 미국, 한국 등 주요국 23개 사이버안보기관은 지난 2023년 11월 안전한 AI 시스템 개발 가이드라인을 발표했다. 가이드라인에는 AI 시스템에 대해 보안성 평가를 거친후 시장에 진출하도록 권고하고 있다.
AI 안전 정상회의(미국, 영국, 한국 등 28개국 및 EU 참가)에서는 2023년 11월 AI 위험 방지를 위한 블레출리 선언을 발표했다. 선언문에는 AI 수명주기 전반의 안전을 고려해야 하며, AI 시스템 개발 시 안전성 평가 등 안전성 보장 책임을 명시하고 있다.
유엔은 지난 3월 안전하고 신뢰할 수 있는 인공지능 시스템 촉진에 관한 결의안을 채택했다. 이처럼 AI에 대한 국제적 추세는 안전하고 신뢰할 수 있는 인공지능 개발에 초점을 맞추고 있다.
금융권 AI 거버넌스, 사이버보안 및 컨트롤타워 등 구축해야
한국의 경우 인공지능 법안이 다수 발의됐으나 계류 중이며, 전자정부법, 공직선거법 등 일부 현행 법령에서 인공지능을 규율하고 있다. 특히 가이드 등을 발행하는 방법으로 AI를 주로 규율하고 있다. 특히 금융권의 경우 AI 거버넌스와 AI 프레임워크가 중요하다. 이에 대해 금융보안원 역시 거버넌스 구축 및 프레임워크 가이드라인을 추진 중이다.
금융보안원이 제시한 금융분야 인공지능 거버넌스는 △데이터 및 개인정보보호, 사이버보안 △제3자와 협력, 정보 공유 △금융소비자 보호 △사내 문화조성, 금융당국 협력 △위험관리 체계 구축 △인공지능 조직 구성, 운영 및 책임 명확화 △전사적 커뮤니케이션 채널 및 컨트롤타워 구축 △인간 역할 부여 및 기존 업무 체계 유지다.
이와 관련 금융보안원 서호진 팀장은 거버넌스 구축 목표 및 기본원칙에 대해 “금융회사 등이 안전하고 신뢰할 수 있어야 한다”며 “책임있는 인공지능 개발, 활용 문화를 자율적으로 조성하고 이를 유지, 관리해야 한다”고 밝혔다.
그러면서 서호진 팀장은 “데이터는 적법하고 투명하게 수집·활용하며, 고객정보보호와 데이터 공급망 관리 체계 마련이 필요하다”며 “타 IT기술 수준의 보안대책과 인공지능에 특화된 사이버 위험 보안대책을 마련해야 한다”고 제시했다.
또한 서호진 팀장은 “인공지능 문화 정착을 위해 체계적인 교육과 임직원의 역할과 책임을 명확히 인식시키고, 인공지능 위험을 효과적으로 관리하기 위해 전사 커뮤니케이션 채널 구축과 종합적인 대응을 위한 컨트롤타워를 구축해야 한다”고 설명했다.
AI 프레임워크, 보안성 등 고려해 구성 계획
향후 프레임워크 추진 계획에 대해 이주현 책임은 “보안성 공정성, 책임성, 투명성, 윤리성, 안전성, 신뢰성을 고려해 각각 체크리스트 만들어 구성하려고 한다”며 “AI 워킹그룹 운영을 통해 금융권의 의견을 수렴하는 등 세부 검증기준을 마련할 것”이라며 “금융회사가 쉽게 사용할 수 있는 오픈소스 개발의 점검도구 개발을 준비중”이라고 밝혔다.
[김경애 기자(boan3@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>