1. 개인정보위 ‘생성형 AI와 프라이버시’ 오픈 세미나 개최
2. 패널들 “AI 혁신과 프라이버시 동시 보호위해 연성규범 적합”
3. 고학수 위원장 “양질의 데이터가 AI 핵심 재료, 가드레일 세워야”
[보안뉴스 강현주 기자] “스캐터랩의 ‘이루다2.0’도 프라이버시 보호 노력이 혁신으로 이어진 사례이듯, 기획 단계부터 개인정보보호를 고려하는 프라이버시 중심설계가 중요합니다. 급속도로 발전하는 AI 기술에 섣부른 경성규범보다는 연성규범이 타당합니다.”
6일 서울 정동1928아트센터에서 개인정보보호위원회(위원장 고학수)가 개최한 ‘생성형 AI와 프라이버시’ 오픈 세미나에서 나온 의견들이다. 패널토론 참석자들은 AI 시대에 프라이버시 보호가 공존할 수 있는 방안에 대한 견해를 밝혔다.
AI라는 고속도로 위에서 개인정보를 보호하는 ‘가드레일’이 될 제도적 안전장치의 중요성이 부각되고 있다. 이에 개인정보위는 ‘생성형 AI 개발·활용을 위한 개인정보 처리 안내서’를 발간하고 세미나를 통해 공개했다.

▲‘생성형 AI와 프라이버시’ 오픈 세미나에서 패널토론 [자료: 보안뉴스]
이날 패널토론은 최경진 가천대학교 교수가 좌장을 맡고 양청삼 개인정보정책국장, 박재한 KT Gen Lab Sound AL 팀장, 하주영 스캐터랩 변호사, 이진 엘박스 대표, 정지연 한국소비자연맹 사무총장, 김도엽 김앤장 법률사무소 변호사가 참석했다.
패널들은 AI 혁신과 개인정보 보호가 상충하는 관계가 아니라 상호 보완적인 관계라는 점에 공감했다.
정지연 사무총장은 “소비자들의 개인정보에 대한 신뢰가 혁신을 이끌 수 있다”며, 개인정보 보호에 대한 깊은 고민과 노력이 결국 혁신으로 이어진다고 강조했다.
이러한 노력은 스캐터랩의 사례에서도 엿볼 수 있다. 스캐터랩은 2021년 이루다 1.0 운영 중단 이후 1년간 전사적인 역량을 집중해 비정형 데이터 가명처리 기술을 개발했다. 이 기술은 한국인터넷진흥원(KISA) 주관 대회에서 우승하며 우수성을 인정받았고, 현재 서비스에 적용돼 매월 23억 건의 대화를 생성하면서도 개인정보 유출 사고 없이 안전한 AI 서비스를 제공하고 있다.
이 회사는 이루다 2.0을 출시하며 기존의 리트리벌(retrieval) 방식보다 기술 난이도와 비용이 높은 생성형(generative) AI 방식을 전면적으로 도입했다. 이는 가명처리 후 문장을 생성하는 과정을 거치면서 개인정보 유출 위험을 극적으로 줄일 수 있다는 장점 때문이었다. 도입 한 달 뒤 챗GPT가 발표됐고, 생성형 AI 붐이 일기 시작했다. 개인정보 보호를 위한 노력이 혁신적인 기술 채택으로 이어진 셈이다.
패널들은 AI 기술의 발전은 개인정보 침해 위험의 양상도 바꾸고 있음을 지적했다.
김도엽 변호사는 “기존의 원본 데이터 유출을 넘어 프롬프트에 따른 민감 정보 유출, 멀티 에이전트 AI로 인한 통제권 상실, 물리적 공간 데이터 수집으로 인해 시민을 통제하는 감시 사회로 넘어갈 수 있는 문제의 해결 방안을 모색해야 한다”고 말했다.
양청삼 국장은 “추론 과정에서 의도치 않게 특정되는 정보 등 개인정보 보호 측면에서 관리 포인트가 확장되고 있다”며 “기획 단계부터 개인정보보호를 고려하는 ‘프라이버시 중심 설계’(Privacy by Design, PBD)가 중요하다”고 밝혔다.
양 국장은 “개인정보를 다루는 기업과 공공기관의 자기 책임성 강화 장치와 함께, 개인정보보호책임자(CPO)의 역할이 앞으로 더욱 중요해질 것”이라고 했다.
박재한 팀장은 “기업입장에서는 고객들에게 어떻게 더 맞춤형 서비스를 잘 제공할 수 있을까하는 고민과 기하급수적으로 늘어나는 개인정보 데이터를 관리라는 두 가지 측면의 고민이 있다”며 “KT는 리스폰서블(Responsible) AI 센터를 세워 윤리적, 법률적 대응과 한국적 AI에 대한 대응도 고민하고 있다”고 밝혔다.
이러한 새로운 위험에 대응하기 위한 방안으로 패널들은 ‘연성규범’의 역할을 강조했다. 빠르게 변화하는 기술과 환경에서, 신속한 업데이트가 가능한 규범이 산업 잠재력을 훼손하지 않으면서도 프라이버시를 보호할 수 있다는 것이다.
하주영 변호사는 “급속도로 발전하는 AI 기술에 대해 섣부른 경성규범은 오히려 산업 잠재력을 해칠 수 있다”며 “개인정보위의 안내서도 대표적인 연성규범”이라고 말했다.
하 변호사는 “글로벌 스탠다드를 참고하되 배울만한 나라들의 사례를 잘 선발하고 우리의 것을 만드는 데 집중하고 국내 기업 역차별이나 글로벌 경쟁력이 훼손되지 않도록 해야 한다”고 덧붙였다.
최경진 교수도 “연성규범 방식은 정부의 강력한 규제가 아니면서도 사업자들이 법적 위험을 회피하는 세이프 가드 역할도 한다”며 “적절한 기준을 만들어 PBD를 실현해 나가야 한다”고 호응했다.
패널들은 교육의 중요성에 대해서도 공감했다.
이진 대표는 “AI 문해력을 높이는 게 중요하고 교육을 통해 이뤄져야 하는데, 이번 안내서도 교육 차원에서 매우 중요하다”며 “민간에서 상용서비스 운영 회사들은 고도화된 익명화 기술을 자사 서비스를 컴플라이언스 체크에만 활용하는 데, 이 기술을 활용해 AI 서비스를 만들 수 있는 제도적 보완이 필요하다”고 말했다.
최 교수는 “AI 데이터 위험성은 이미 모두가 인지하고 있는 숙제로, 개인정보 감수성을 놓치지 않고 기술 이해도를 높여 우려를 줄이는 것이 중요하다”고 호응했다.
이날 세미나 참석한 고학수 개인정보위 위원장은 “양질의 데이터가 AI 핵심재료로 쓰이는 과정에서 프라이버시와 관련 부작용을 예방하는 제도적인 안전장치는 AI 고속도로에 가드레일을 만드는 작업”이라며 “생성형 AI 개발·활용을 위한 개인정보 처리 안내서는 개인정보위가 지난 몇 년동안 작업해 온 내용들이 묻어나 있는 안내서”라고 밝혔다.