개인정보보호위원회는 8일 서울 서초구 소재 ‘서울 AI 허브’에서 민간 전문가 및 유관 부처 관계자 등이 참석한 가운데‘인공지능 프라이버시 민·관 정책협의회’ 제4차 전체회의를 개최하고 인공지능 프라이버시 리스크 진단 및 인증 방안 연구 생성형 인공지능(AI) 개발‧활용을 위한 개인정보 처리 안내서(안)에 대해 논의했다.
인공지능의 발전은 국민 일상에 편의성과 혁신을 안겨주고 있지만, 지속 가능한 발전이 되기 위해 기술로부터 발생할 수 있는 개인정보 침해 위험 등 잠재적 부작용을 예방하고 완화할 수 있는 제도적 안전장치가 필요하다.
이에 개인정보위는 작년 12월 ‘인공지능(AI) 프라이버시 리스크 관리 모델’을 통해 인공지능 모델에 내재한 프라이버시 리스크 관리 절차와 리스크 유형 및 경감 조치 등을 안내한 바 있다.
다만 이를 체계적으로 진단·측정할 수 있는 기준 제시는 후속 과제로 유보해 현재 국내 인공지능 환경에 적합한 사전적·예방적 관점의 구체적 안전관리 체계 구축 방안을 다방면에서 검토하고 있다.
이번 전체회의에서는 산업계·학계 중심으로 논의되는 프라이버시 리스크 진단의 최신 기술 및 우수 사례를 비교·분석한 결과와 인공지능에 내재된 프라이버시 리스크를 체계적으로 진단·평가할 수 있는 프레임워크 구축 방안 등에 대한 관점을 공유했다.
개인정보위는 민간 전문가 및 관계부처 등에서 제시한 의견을 검토·반영하고, 후속 정책연구를 추진해 향후 인공지능 프라이버시 리스크에 대한 체계적 진단·평가 체계 기반 마련을 위한 구체적인 방법론을 도출할 계획이다.
‘생성형 인공지능(AI) 개발·활용을 위한 개인정보 처리 안내서(안)’에 대해서도 논의했다. 최근 생성형 인공지능 기술이 급속히 발전하면서 일상과 사회 전반으로 빠르게 확산되고 있다.
특히 공공·민간의 많은 기관에서 생성형 인공지능을 도입해 각 분야에 적합한 인공지능 서비스를 개발·운영하는 등 인공지능 전환이 가속화되면서 개인정보 처리와 보호 관점에서 복잡한 법적·기술적 이슈가 제기되고 프라이버시 측면에서도 위험이 커지고 있다.
개인정보위는 인공지능 기술 및 서비스를 개발하거나 고도화하는 기관의 법적 불확실성을 해소하고 개인정보 처리의 적법성, 안전성 등 개인정보 보호의 핵심 원칙을 확보하기 위해 생성형 인공지능 기술에 특화된 개인정보 보호 기준, 안전장치, 프라이버시 내부관리체계 등에 대한 명확한 기준을 마련해 왔다.
이번 안내서에는 생성형 인공지능의 수명주기 각 단계에서 개인정보 처리 및 보호를 위해 고려해야 할 적법성·안전성 확보 기준 등이 소개됐다. 현장의 법적 불확실성을 최소화하고 생성형 인공지능 개발·활용에 개인정보 보호 관점이 체계적으로 반영될 수 있도록 했다.
특히 실무 현장에 곧바로 적용될 수 있도록 △생성형 인공지능 관련 개인정보 보호법 주요 내용 △인공지능 개인정보 처리 안내서 △조사·처분 등 집행 사례 △규제샌드박스 등 혁신지원 사례를 포함한 그간의 정책적 경험을 활용해 인공지능 개발구현 단계에 맞춰 도출한 개인정보 처리 및 보호 관련 고려 사항을 알기 쉽게 안내했다. 미국·영국·유럽연합(EU) 등 주요국 최신 정책자료를 참고, 국제적 흐름도 반영했다.

[자료: 개인정보위]
개인정보위는 이번 전체회의 논의를 통해 제시된 시민단체, 관계부처, 전문가들의 의견을 반영하여 ‘생성형 인공지능(AI) 개발·활용을 위한 개인정보 처리 안내서’를 7월 말까지 마련할 계획이다.
김병필 카이스트 교수는 “지금 인공지능은 멀티 에이전트 시스템으로 빠르게 나아가고 있다”며 “변화하는 환경 속에서 발전된 기술을 활용하면서도 충실하게 개인정보를 보호하기 위해 민·관이 함께 지혜를 모으는 것이 꼭 필요하다”고 밝혔다.
고학수 개인정보보호위원회 위원장은 “신뢰할 수 있는 인공지능 발전을 위해서는 안전한 가드레일 구축이 반드시 선행되어야 한다”며 “앞으로도 개인정보위는 인공지능 3대 강국 도약을 지원하기 위해, 공공과 민간에 축적된 고가치 데이터가 안전하고 책임감 있게 활용될 수 있도록 노력하겠다”고 말했다.
[여이레 기자(gore@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>