한국정보통신기술협회(TTA)는 인공지능(AI) 기반 합성 콘텐츠 투명성 확보를 위한 요구사항 표준화를 추진한다고 8일 밝혔다.
생성형 AI 기술 발달로 실제와 구분하기 어려운 딥페이크 이미지 대량 생산과 유포가 우려된다. 정부는 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(AI기본법)의 일환으로, 생성형 AI가 만든 생성물엔 AI 작업 결과물임을 표기하는 AI 표시 의무제를 도입한다.
이에 발맞춰 TTA는 AI 생성물 투명성 관련 메타데이터, 워터마크 방식 등 투명성 정보 표시 기술, AI 생성물 생성-제공-활용에 이르는 생명주기 정의, 각 생명주기별 이해관계자 및 요구사항 등을 제공할 예정이다.
AI 생성물 투명성은 디지털 콘텐츠의 출처와 기록에 대한 정보를 문서화하고 이에 접근 가능하도록 하는 프로세스를 말한다.

▲인공지능 투명성 정보 표시 기술 상세 설명 [자료: TTA]
이 표준은 TTA AI신뢰성센터가 제안하고, 한국조폐공사와 성균관대학교가 참여해 TTA 인공지능 기반기술 프로젝트그룹(PG1005)에서 연내 제정을 목표로 추진 중이다. 이 프로젝트그룹엔 한국전자통신연구원(ETRI), 한림대, 한국마이크로소프트 등 16개 산학연 기관이 참여했다.
손승현 TTA 회장은 “사회 전체의 안전한 정보 유통에 있어 인공지능 생성물에 대한 투명성은 보다 중요해지고 있다”며 “이번 표준화를 통해 인공지능 생성물 활용성 확대와 신뢰할 수 있는 정보 유통 환경 조성에 기여할 수 있을 것”이라고 밝혔다.
[한세희 기자(boan@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>