‘AI 특권’ 개념 제시하며 AI 대화 법적 보호 필요성 강조
[보안뉴스 강현주 기자] 오픈AI가 내부 개발자용으로 사용하고 있는 개인정보 보호 기술 ‘프라이버시 필터’를 내년 오픈소스로 공개한다. AI 모델을 학습시킬 때 개인정보 처리를 줄이기 위한 도구다.
17일 제이슨 권 오픈AI 최고전략책임자(CSO)는 서울 그랜드하얏트에서 열린 ‘제47차 글로벌 프라이버시 총회’(GPA 2025 서울)에서 기조연설을 통해 ‘프라이버시 필터’ 공개 계획을 밝혔다.
프라이버시 필터는 AI 모델의 학습에 이용되는 데이터 중 개인정보를 줄여주는 기술이다. 오픈AI 엔지니어들이 직접 개발했다.

▲제이슨 권 오픈AI CSO가 기조연설을 하고 있다. [자료: 개인정보위]
프라이버시 필터 공개로 개인정보 보호 수준 향상
권 CSO는 “프라이버시 필터는 현재 상용화된 다른 제품들보다 개인 데이터 감소에 있어 더 높은 효율성을 보여준다”며 “오픈AI는 이 도구를 개발자 커뮤니티에 제공할 것”이라고 밝혔다.
그는 “세계 개발자들이 AI 기반 애플리케이션 등을 개발할 때 프라이버시 필터를 기반으로 개발함으로써 세계적으로 개인정보 보호 수준을 높일 수 있을 것”이라며 “이 필터는 개발자 커뮤니티가 제공하는 피드백을 계속 통합하면서 내년부터 이용 가능해질 것”이라고 설명했다.
권 CSO는 AI와 개인의 상호작용에서 발생하는 새로운 윤리적, 법적 문제에 대한 화두도 던지며 ‘AI 특권(AI privilege)’ 개념을 제시했다.
인간과 AI 대화 보호받아야
권 CSO는 “의사나 변호사, 심리치료사와 하는 대화처럼 AI와 하는 개인적 대화 역시 법적 보호를 받을 필요가 있다”며 “AI와의 대화가 소송이나 소환장 또는 정부 요구에 쉽게 노출되지 않도록 AI 시대에 맞춰 법률과 표준을 업데이트해야 한다”고 말했다.
이어 “이러한 유형의 AI와 인간 간 대화에 대한 보호 조치에 대해 생각하는 기준을 높이는 ‘AI 특권’을 생각해야 한다”고 말했다.
권 CSO는 “AI는 이미 경제 성장에 기여하고 있으며, 그 기회는 더 크고 넓어져야 한다”며 “영국과 에스토니아, 그리스 정부는 공공 분야에 챗GPT를 도입하고 있으며 미국 정부 기관들은 공공 서비스 접근성 개선을 위해 AI 모델을 찾고 있다”고 말했다. 또 “한국에서도 오픈AI는 서울대학교와 한국 최초 AI 네이티브 캠퍼스 설립을 위한 업무협약을 체결했다”고 밝혔다.
권 CSO는 “개인 정보는 기술적 문제나 규제 준수 문제로 이야기되지만, 핵심엔 인간의 존엄성이 있다고 생각한다”며 개인정보 보호의 중요성을 강조했다.
GPA는 세계 95개국 148개 개인정보 감독기구가 참여하는 세계 최대 개인정보 분야 국제 감독기구 협의체로 매년 총회를 개최한다.
서울에서 열린 이번 총회는 15일 사전행사에 이어 16일 개막해 19일까지 글로벌 감독기구 관계자들과 기업 주요 관계자들이 자국 정책 방향 및 대응 현황 등을 공유한다. 기조연설, 패널토론, 국제 결의안 등이 발표되며, 다양한 부대행사 및 정책포럼 등이 이어지고 있다.
[강현주 기자(jjoo@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>