[한국정보보호학회 칼럼] 생성형 AI와 딥페이크 그리고 가짜뉴스: 새로운 디지털 위협의 시대

2024-02-26 18:59
  • 카카오톡
  • 네이버 블로그
  • url
딥페이크의 어두운 면 부상...탐지기술 시급하지만 다원주의적 관점도 필요해

[보안뉴스= 한국정보보호학회 권태경 상임이사] 정보의 홍수에 이미 익숙해진 현대 사회에서, 최근 챗GPT나 미드저니와 같은 대중적인 서비스를 통해 부각된 생성형 AI 기술의 발전은 이제 우리가 정보를 취급하고 대하는 방식에 근본적인 변화가 필요한 시점이 되었음을 시사하고 있다. 이러한 맥락에서 이번 기고문은 생성형 AI가 초래하는 새로운 디지털 위협의 시대를 다루어본다.


[이미지=gettyimagesbank]

생성형 AI 기술은 방대한 양의 데이터를 학습하고 이에 기반해 실제와 구별하기 어려운 수준의 새로운 콘텐츠를 생성하는 기술로서, 이미 의료, 엔터테인먼트, 교육 등 다양한 분야에서 긍정적인 영향을 미치며 비약적인 발전을 거듭하고 있다. 하지만 가짜 뉴스의 생성이나 잘못된 정보의 확산과 같은 심각한 부작용도 함께 초래하고 있으며, 또한 아직 무시하지못할 정도로 많은 오류도 발생시키는 문제가 있다. 이 상태로 생성형 AI 기술이 더욱 보편화된다면 언젠가 우리는 매일이 만우절인 것처럼 새로운 정보를 대할 때 늘 의심부터 해야 하거나, 또는 조작된 가짜 정보에 온 국민이 휘둘려 버릴 수도 있겠다는 현실적 우려에 직면하게 된다. 이와 같이 생성형 AI의 부정적인 면을 언급할 때 자주 등장하는 용어가 바로 딥페이크이다.

‘딥페이크’는 생성형 AI의 기반인 딥러닝과 가짜를 의미하는 페이크의 합성어이며 이는 곧 생성형 AI가 생성하거나 합성한 콘텐츠를 지칭하는데 그 중에서도 사람의 얼굴이나 신원에 주로 관련된다. 예를 들면 노배우의 이미지에 젊은 시절 모습을 합성하는 딥페이크는 기존 CG보다 품질과 활용 측면에서 뛰어나다. 한편 실제와 다른 장면에 지인의 모습을 합성하여 능욕하는 딥페이크는 인격모독에 악용되는 경우이다. 딥페이크는 이렇게 그 용도에 따라 긍정적인 면과 부정적인 면을 동시에 갖는 양날의 검이다. 그런데 최근 딥페이크의 어두운 면이 크게 부각되면서 딥페이크와 가짜뉴스를 탐지해야한다는 요구가 크게 증대되고 있다. 딥페이크 탐지란, 예를 들어 실제 영상물과 가짜, 즉 딥페이크 영상물을 구분할 수 있도록 하여 대상 영상물이 생성형 AI가 생성하거나 합성한 영상물인지 밝혀내는 기술이다. 이것은 실제 콘텐츠와 딥페이크가 갖는 차이를 물리적 공간의 특징이나 주파수 공간의 특징으로 포착해 구분하기도 한다. 하지만 기존의 조잡했던 칩페이크와는 달리 나날이 발전하는 딥러닝 기술에 기반한 딥페이크는 그 품질이 비약적으로 우수해지며 지속적으로 개선되고 있으므로 이것을 신속하고 정확하게 가려내기 위한 탐지 기술의 고도화가 앞으로 계속 필요하다는 것도 자명한 현실이다.

그런데 최근 OpenAI가 소개한 새로운 생성형 AI ‘소라’에서 단 몇 줄의 텍스트 프롬프트만으로 생성했다고 하는 1분짜리 영상들을 보면 어떠한 생각이 드는가? 소라(Sora)는 일본어로 하늘을 뜻한다. 어찌보면 새로운 시뮬레이션 세상을 함축하는 의미일지도 모른다. 미영합작드라마 블랙미러의 단골 주제로 등장하는 메타버스의 시뮬레이션 세상이 이렇게 현실적인 동영상을 통해 실제로 만들어질 날도 머지 않은 것 같다. 그래서 이제 앞으로는 실제 콘텐츠와 딥페이크를 구분하는 일이 더욱 어려워질 뿐만 아니라, 어쩌면 그 목적과 방법, 그리고 의미 마저도 달라질 수 있겠다.

딥페이크 탐지와 같이 진짜와 가짜를 구분하는, 그러니까 다시 말하면 이원론적 사고가 한동안 우리의 근대세계를 지배하였다는 사실을 기억해보자. 데카르트의 정신-물질에서부터 칸트의 주체-객체에 이르기까지 다양한 영역에서 이원론에 바탕을 둔 인식이 보편화되어, 예를 들면 인간 세계인 사회와 비인간 세계인 자연을 이분법적으로 구분하는 것은 오히려 그 시대의 표상이었다고 할 수 있겠다. 그렇다면 오늘날 우리가 생성했다고 하는 콘텐츠를 진짜로 그리고 AI가 생성했다고 하는 딥페이크를 가짜로 놓고 이렇게 이분법적으로만 구분하는 것이 과연 옳은 방향일까? 기계학습에 바탕을 둔 우리의 탐지기도 사실 확률적으로 대답하기는 한다. 게다가 실수도 한다. 그래도 어쨌든 진짜와 가짜를 구분하는 것은 이분법이다. 프랑스의 철학자 브뤼노 라투르는 이와 같은 이원론에 대해 명확히 선을 그었다. 기존의 철학적 통념과 달리 우리는 사회와 자연으로 구분된 근대인이라는 존재로 있었던적이 단 한번도 없었다고 말이다. 늘상 하이브리드 형태로 복잡하게 연결되어 있었는데, 잘못된 이분법으로 인해 오히려 국제적인 극한의 갈등과 사회적 양극화, 그리고 기후변화의 위기마저 초래했다고 말이다.

흥미롭게도 우리와 AI도 돌이켜보면 마치 그러하다. 1956년의 다트머스 회의를 기억해보자. 당시 미국 다트머스 대학의 존 매카시가 1955년에 학자들에게 보낸 여름워크숍 초대장에서 처음으로 AI, 즉 인공지능이란 용어를 사용했으며, 마빈 민스키와 클라우드 섀넌을 포함한 당대의 유명한 컴퓨터과학, 수학, 인지과학 학자들이 모여 같은 문제를 논했던 시기가 있었다. 비록 매카시가 계획했던 미래 학술적 교류에는 못미쳤다고 하지만 다트머스 회의 이후에 우리와 AI는 함께 발전하였다. 물론 AI를 발전시켜 온 것도 우리이지만, 지난 번 팬데믹 대응만 보더라도 우리도 역시 AI를 통해 더욱 발전하고 있다. 우리가 살고있는 지능 사회가 더욱 디지털화 되며, 또한 디지털에 기반한 AI가 더욱 지능화되며, 서로 상호 보완하면서 말이다. 이것은 두 번의 혹독한 AI 겨울을 겪으면서도 지속되어왔고 이렇게 오늘날에 이른 것이다. 다시 말하면 브뤼노 라투르가 근대사회를 재해석하며 발견했던 것처럼, 이미 처음부터 우리와 AI는 하이브리드 형태로 복잡하게 연결되기 시작했던 것이 아닐까? 그렇다면 진짜와 가짜를 구분하기 위해 딥페이크 탐지를 이용하는 이분법적 접근이 옳은 방향이 아닐 수도 있겠다. 근대사회의 이원론이 그랬던 것처럼 잘못된 이분법으로 인해 오히려 감당할 수 없는 결과를 초래할 수도 있겠다는 말이다. 예를 들면 필자가 학생들과 최근 연구한 결과에 따르면 딥페이크 방지를 위한 콘텐츠의 섭동처리 기법이 오히려 생성형 AI 활용 생태계를 파괴할 수도 있다.

그렇다면 다원주의적 관점에서 생각해보자. 현재 딥페이크가 가짜뉴스 생성이나 각종 범죄에 악용되고 있는 것은 자명한 사실다. 여기에는 보다 강력한 처벌과 피해자 보호 조치가 이루어져야한다. 또한 실제로 사람이 직접 생성한 콘텐츠에도 엄연히 가짜뉴스와 범죄요소가 존재해왔는데 여기에도 어김없이 강력한 규제가 필요하다. 또 한편으로는 딥페이크가 최근 자동 뉴스 앵커의 역할도 톡톡히 해내고 있다는 사실도 간과할 수 없다. 그러니까 딥페이크가 오히려 진짜 뉴스를 전달하기 위해 이용되고 있는 것도 역시 같은 현실이라는 점이다. 이미 딥페이크 앵커 목소리에 익숙해져 사람인지 딥페이크인지 구분하지 못하고 뉴스를 접하는 사람들도 많다. 게다가 딥페이크를 이용한 증강 서비스가 사진이나 각종 출판물에 오히려 생기를 불어넣어 이용자의 찬사를 받고 있으니 이것도 참 아이러니하다. 언젠가 고도의 딥페이크 탐지기를 돌려보면 거의 모든 콘텐츠가 딥페이크로 분류될 날도 그리 멀게만 느껴지지 않는다. 그러니까 딥페이크는 역시 수단일뿐 그저 부정적인 탐지 대상으로만 오인되어서는 안된다는 것이다. 오히려 기술적으로는 현재 생성형 AI가 보편적으로 발생시키고 있는 환각, 편향, 오류, 지적재산권 침해, 민감정보 유출 등 근본적인 문제의 해결이 매우 시급하다. 생성형 AI로 인해 촉발된 새로운 디지털 위협의 시대는 더 이상 어떤 특징에만 의존하여 이분법적으로 구분할 수 없는 ‘다원적 디지털 위협의 시대’라고 할 수 있지 않을까? 필자는 감히 이렇게 정의하고 싶다.

이러한 시대의 가짜뉴스를 다시 한번 조명해보자. 가짜뉴스는 주로 소셜 미디어를 통해 빠르게 확산되는데, 정치적 선동, 경제적 이득, 사회적 혼란 등 다양한 목적으로 제작되어 퍼져나가며 개인과 사회에 심각한 영향을 미치고 있다. 여기에 생성형 AI, 즉 딥페이크 기술이 더해져 이러한 가짜뉴스의 제작과 확산을 더욱 쉽고 설득력 있게 만들고 결국 정보의 신뢰성을 크게 해치고 있는 것이다. 앞에서 말한대로 이제 다원적 디지털 위협의 시대에는 가짜뉴스 생성과 같은 행위가 이전보다 더욱 심각한 범죄행위가 되었다고 할 수 있겠다. 현재와 같이 명예훼손만으로 처벌할 수 있는 상황이 더 이상 아니라는 얘기다. 인격살인과 사회혼란을 야기할 수 있는 더욱 중대한 범죄행위로 엄중히 다스려져야 한다는 얘기다. 따라서 늦기전에 강력한 처벌 규정과 법제도 마련이 시급하다.

이제 곧 국내 총선과 연말 미국 대선 등 중요한 정치 행사가 치러질 예정이다. 아니나 다를까 국내를 비롯한 세계 각국에서 정치적 선동 목적의 딥페이크 악용 콘텐츠가 속속 등장하고 있다. 이에 딥페이크를 악용한 가짜뉴스 전파와 사회적 문제는 온 국민의 가십거리가 되었는데 어찌보면 우리 국민들이 현재 수준의 딥페이크 가짜뉴스에 그리 쉽게는 휘둘리지 않을 정도로 일부라도 경험을 하고 있는 셈이다. 하지만 더욱 고도화된 딥페이크 기술에 바탕을 둔 가짜뉴스의 등장과 신속한 전파에는 여전히 속수무책일 것이다. 또한 딥페이크가 아닌 (또는 딥페이크로 판단되지 않는) 콘텐츠를 통해서도 여전히 가짜뉴스가 전파될 수 있음을 잊어서는 안된다. 이를 막기 위해서 필자는 다음과 같은 네 가지가 당장 이루어져야한다고 강조하며 이번 기고문을 마무리하겠다.


▲한국정보보호학회 권태경 상임이사[사진=권태경 교수]
첫째로 기술적 해결책 개발은 필수이다. 고도화된 딥페이크 탐지를 포함하여 근본적으로 생성형 AI 보안을 위한 다양한 기술에 아낌없는 R&D 지원이 필요하다. 필자의 연구실도 연구에 계속 몰두하고 싶은데 고비용의 하드웨어 장비와 인력이 필요해 어려움을 겪고있다. 이것은 많은 보안 연구팀들이 겪는 공통된 애로사항일 것이다. 진심으로 많은 지원과 투자가 요구된다. 둘째로 딥페이크를 악용하는 생성형 AI 범죄를 엄중하게 처벌할 수 있는 강력한 법 제도적 규제 마련이 필요하다. 특히 가짜뉴스의 제작과 확산에 대한 법적 책임을 명확히 하고, 이를 엄격하게 집행해야 한다. 셋째로 소셜 미디어 등 플랫폼 업체에서 더욱 적극적이고 유기적으로 대응에 나서도록 해야한다. 연계된 계정폐쇄와 함께 악용 콘텐츠를 신속히 국제적으로 공유하여 함께 대응하는 체계가 갖춰져야 한다. 넷째로 전 국민을 대상으로 한 교육과 개방된 정보 공유가 필요하다. 요즘과 같이 뉴스에서 관련 기사를 자주 반복해서 보도하는 것도 하나의 좋은 방법일 것이다. 교육과 인식 제고를 통해 우리 국민들이 가짜뉴스와 딥페이크 악용 콘텐츠를 쉽게 인식하고 비판적으로 평가할 수 있도록 교육 프로그램을 개발해야 한다.

필자가 말한 다원적 디지털 위협의 시대에는 진실과 거짓을 구별하는 것이 더욱 어려워지며 따라서 이대로는 사회적 신뢰를 저하시키고 분열을 조장하는 공격에 쉽게 노출될 수 있기 때문이다. 다원적 디지털 위협의 시대에 정보의 질을 유지하고 사회적 신뢰를 보호하기 위한 노력은 이제 어느덧 우리 모두의 책임이 되었다.
[글_한국정보보호학회 권태경 상임이사(연세대학교 정보대학원 교수, 한국정보보호학회 AI보안연구회 위원장)

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>

헤드라인 뉴스

TOP 뉴스

이전 스크랩하기


과월호 eBook List 정기구독 신청하기

    • 씨프로

    • 인콘

    • 엔텍디바이스코리아

    • 마이크로시스템

    • 다봄씨엔에스

    • 아이디스

    • 씨프로

    • 웹게이트

    • 지오멕스소프트

    • 하이크비전

    • 한화비전

    • ZKTeco

    • 비엔에스테크

    • 비엔비상사

    • 원우이엔지
      줌카메라

    • 지인테크

    • 인텔리빅스

    • 이화트론

    • 다누시스

    • 테크스피어

    • 렉스젠

    • 슈프리마

    • 혜성테크윈

    • 시큐인포

    • 미래정보기술(주)

    • 비전정보통신

    • 한국씨텍

    • 경인씨엔에스

    • 트루엔

    • 성현시스템

    • 디비시스

    • 다후아테크놀로지코리아

    • (주)우경정보기술

    • 투윈스컴

    • 세연테크

    • 위트콘

    • 구네보코리아주식회사

    • 유에치디프로

    • 넥스트림

    • 주식회사 에스카

    • 포엠아이텍

    • 에이티앤넷

    • 세렉스

    • 한국드론혁신협회

    • 네이즈

    • 이노뎁

    • 다누시스

    • 시만텍

    • 테이텀시큐리티

    • 신우테크
      팬틸드 / 하우징

    • 에프에스네트워크

    • 네이즈

    • 케이제이테크

    • 셀링스시스템

    • 사라다

    • 아이엔아이

    • (주)일산정밀

    • 새눈

    • 에이앤티코리아

    • 유투에스알

    • 태정이엔지

    • 네티마시스템

    • 에이치지에스코리아

    • 지에스티엔지니어링
      게이트 / 스피드게이트

    • 미래시그널

    • 두레옵트로닉스

    • 엘림광통신

    • 에스에스티랩

    • 에이앤티글로벌

    • 현대틸스
      팬틸트 / 카메라

    • 모스타

    • 지와이네트웍스

    • 보문테크닉스

    • 엔에스티정보통신

    • 메트로게이트
      시큐리티 게이트

    • 포커스에이치앤에스

    • 엔시드

    • 엠스톤

    • 글로넥스

    • 유진시스템코리아

    • 카티스

    • 세환엠에스(주)

Copyright thebn Co., Ltd. All Rights Reserved.

MENU

회원가입

Passwordless 설정

PC버전

닫기