AI 프라이버시 리스크 평가·관리 모델 마련, 생체인식정보 규율체계 개선 등 안전하고 책임감 있는 AI 활용 지원
[보안뉴스 박은주 기자] 인공지능 시대에 AI 기업의 자율적인 프라이버시 위험관리를 지원하고, 생체인식기술의 안전한 활용 방안을 모색하기 위해 민관이 머리를 맞댄다.
[로고=개인정보위]
개인정보보호위원회(위원장 고학수, 이하 개인정보위)는 11월 22일 오전, 민간 전문가 및 관계부처 등이 참석한 가운데 ‘AI 프라이버시 민·관 정책협의회(이하 정책협의회) 제3차 전체회의(이하 전체회의)’를 개최한다. 전체회의에서는 △인공지능(AI) 프라이버시 리스크 평가·관리 모델(안) △생체인식정보 규율체계 개선(안)에 대해 논의한다고 밝혔다.
최근 AI 기술이 기술적 혁신을 넘어 국민의 일상, 사회·경제 전반에 깊숙이 영향을 미치기 때문에 AI 위험에 대한 적정한 관리가 필요하다. 특히 AI 기술이 개인정보를 포함하는 대규모 데이터에 기초한다. 전통적 방식과는 다른 복잡한 데이터 처리를 수반함에 따라 AI의 대표적 위험 중 하나로 프라이버시 위협이 대두된다.
개인정보위는 논의를 통해 AI 기업 등의 자율적인 프라이버시 위험관리를 지원하기로 했고, ‘인공지능(AI) 프라이버시 리스크 평가·관리 모델(안)’을 준비해 왔다. AI 기업 등은 동 모델을 자율적으로 참고해 개별 AI 모델·서비스의 용례, 처리하는 데이터의 특성 등 구체적 맥락에 따라 보다 안전하고 책임감 있는 리스크 관리 체계를 구축할 수 있다.
동 모델은 2023년 12월부터 정책협의회 2분과(리스크 평가 분과) 논의를 중심으로, 국내외 학계, 정부, 연구기관 등에서 논의되고 있는 AI 데이터처리 특성, 프라이버시 위험의 유형, AI 리스크 관리체계 등에 대한 종합적 검토를 토대로 마련됐다.
이번 전체회의에서는 동 모델 초안에 담긴 AI 프라이버시 리스크 평가의 절차, 리스크의 유형 및 리스크 경감 방안, 리스크 평가·관리 체계 등을 공유하고 의견을 수렴한다. 개인정보위는 이날 민간 전문가 및 관계부처 등에서 제시된 의견을 검토·반영하여 12월 중 ‘인공지능(AI) 프라이버시 리스크 평가·관리 모델’ 최종안을 발표할 예정이다.
‘생체인식정보 규율체계 개선(안)’에 대해서도 논의한다. 최근 얼굴·음성·지문 등 생체정보를 이용한 생체인식 기술(출입통제·금융결제·AI 음성비서 등)이 다양한 영역에서 활용되고 있으나, 생체인식정보는 그 자체로 개인식별이 가능하고 변경 불가능해 다른 정보에 비해 오·남용 및 유출에 따른 위험이 더 크다. 이에 따라 생체인식정보의 처리요건이 엄격하게 규율돼 있어 관련 기술이 발전한 것에 비해 활용에 제약이 있었다.
따라서 개인정보위는 지난해부터 학계, 법조계, 산업계 전문가로 구성된 연구반을 중심으로, 산업의 발전과 정보주체의 권리보호를 균형있게 고려해 안전하게 생체인식정보를 활용할 수 있는 방안을 마련해왔다. 이번 개선안에는 생체인식정보의 명확한 정의 규정, 합리적 처리요건, 공개된 장소에서 불특정 다수에 대한 실시간 얼굴인식 제한 규정 등을 반영했다. 이번 전체회의 논의를 통해 제시된 시민단체, 관계부처, 전문가들의 의견을 반영하여 생체인식정보의 합리적 규율체계(안) 역시 12월 중 마련할 계획이다.
서울대 박상철 교수(리스크 평가 분과장)는 “세계적으로 빠르게 발전하는 AI 기술과 기존 개인정보보호 규제 간에 간극과 긴장이 발생하고 있어 대응이 필요한 시점”이라며, “국내외 정책, 연구 선례가 부족한 상황에서 각계 전문가와 함께 유연하고 체계적인 프라이버시 리스크 평가·관리체계를 제시했다는 점에서 의미가 있다”고 밝혔다.
정책협의회 배경훈 공동의장(LG AI연구원장)은 “개인정보보호와 AI 기술 발전의 균형을 맞추고, 이해관계자의 합의에 이르는 것이 매우 중요하다”며, “이번에 제안된 AI 프라이버시 리스크 평가·관리 모델은 기업이 자율적으로 위험 요소를 평가하고 관리하는 데에 있어 유용한 기준이 될 것”이라고 밝혔다. 배 의장은 “특히 사용 목적에 따라 차별화된 리스크의 평가, 관리 방안이 제시됨으로써 기업에 실질적인 도움이 될 것으로 기대한다”고 밝혔다.
개인정보위 고학수 위원장은 “기술의 사회적 편익과 위험이 복잡하게 얽혀있는 AI 환경에서는 구체적 맥락에 따라 프라이버시 리스크를 식별하고 관리하는 기업의 책임 있는 노력이 특히 강조된다”며 “개인정보위는 AI 기업 등이 잠재적 위협과 그로 인한 영향을 사전에 고려하는 리스크 기반 접근 방식(Risk-based approach)을 실천하면서 혁신 활동을 지속할 수 있도록 적극적으로 지원하겠다”라고 밝혔다.
[박은주 기자(boan5@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>