ICT·인공지능 분야에서는 ‘정책적 관심’과 함께 ‘신뢰성 확보’ 방안이 중점 주제
[보안뉴스 조재호 기자] 2024년 국정감사가 10월 7일부터 25일까지 진행된다. 국정감사는 국민의 대표기관인 국회가 행정부를 비롯한 국가기관 전반을 감찰하고 비판하는 자리다. 국회가 입법과 예산심사 및 국정 통제기능을 효율적으로 수행하는 데 그 의의가 있다.
[이미지=gettyimagesbank]
국감에 앞서 국회입법조사처는 ‘2024 국정감사 이슈 분석 보고서’를 발간했다. 이번 국감에서 중점적으로 다뤄질 내용과 함께 개선방안을 제시한 것인데, 올해 논의될 주제 중 보안 업계가 주목해야 할 이슈 중 ICT·인공지능 분야 이슈로는 인공지능에 대한 ‘정책적 관심’과 함께 ‘신뢰성 확보’가 꼽힌다.
국가 인공지능 정책 거버넌스 내실화 : 과학기술정보통신부
생성형 인공지능(AI) 중심으로 AI 기술 및 서비스가 발전하고 여러 분야에서 이용이 늘어남에 따라 해외 주요국은 국가 차원의 AI 정책을 수립·추진하고 각 부처의 AI 정책·사업·예산 등을 조정하는 범정부 AI 정책 거버넌스를 운영하고 있다.
우리나라는 「정보통신 진흥 및 융합 활성화 등에 관한 특별법」에 따른 최상위 정보통신 의사결정기구인 ‘정보통신 전략위원회’가 있지만 소관 분야와 위원 구성 측면에서 AI 정책을 총괄하기 어렵고 지난 21대 국회에서 AI 기본법 제정법안이 발의되어 국가인공지능위원회 설치를 시도했지만, 임기 만료로 폐기됐다.
이어서 지난 4월 정부가 ‘AI전략최고협의회’를 출범했으나 법정 위원회가 아니기 때문에 AI 정책 심의·조정 등에 대한 책임성을 담보하기 어려운 실정이며 이어서 8월 대통령령으로 ‘국가인공지능위원회’를 설치·운영할 예정이지만 위원회의 위상·기능·기한 등에 제약이 있다.
개선방안으로는 국가인공지능위원회가 심의·조정한 사항의 집행력을 확보하고 위원회의 권한 범위 내에서 국가적으로 중요한 사항을 발굴해 추진할 수 있도록 해당 위원회의 운영을 내실화할 방안과 함께 장기적으로 법률 제·개정을 통해 AI 전담 거버넌스를 설치할 필요성이 있다. 이 과정에서 다양한 이슈를 포괄하고 균형적인 정책결정을 위해 위원회의 형태가 적절하지만, 독임제 기관에 비해 의사결정·평가·환류의 속도가 느려 단점을 보완할 운영전략이 병행되어야 한다는 의견이다.
인공지능 신뢰성 확보 : 과학기술정보통신부
인공지능(AI)이 가져올 부작용을 통제하고 신뢰성을 확보하기 위한 논의가 국제적으로 진행되고 있다. 미국은 지난해 ‘안전하고 보안성이 높으며 신뢰할 수 있는 AI 개발 및 사용’ 행정명령을 발표하고 유럽연합도 지난 3월 「인공지능법」을 마련해 제품 안전, 보건·안전·기본권과 관련된 인공지능에 대해 적합성 평가, 기본권 영향평가 및 지속적인 모니터링을 요구했다.
우리나라도 과학기술정보통신부가 지난 2021년 「신뢰할 수 있는 인공지능 실현전략」을 2025년까지 지속·단계적으로 추진할 계획을 발표했다. 실현전략에 따라 분야별로 ‘신뢰할 수 있는 AI 개발안내서’와 인증 기준을 마련했는데, 기술적 측면의 신뢰성 확보 방안을 다루며 개인정보보호, 저작권 등 측면은 ‘AI 개인정보보호 자율점검표’, ‘생성형 AI 저작권 안내서’, ‘생성형 AI 윤리가이드북’으로 나뉘어 있다.
이에 국회입법조사처는 인공지능 국제 표준을 선도할 수 있도록 노력하고 인공지능 신뢰성 제고를 위해 제도와 함께 인공지능 신뢰성 기술 연구개발에 적극적인 투자가 필요하다는 의견이다. 아울러 분야별로 각기 다른 개발안내서·지침이 마련될 경우, 서비스 개발 등에 있어 혼란과 함께 중복 우려가 있어 관련 부처가 함께 통합 안내서를 마련하며 정책에 대한 컨트롤타워를 준비하는 방안을 제시했다.
인공지능 이용자 보호의 구체성 강화 : 과학기술정보통신부
인공지능(AI)은 작동 과정이 투명하지 않아 인간에게 불리한 결정을 할 가능성이 있고 오작동의 우려와 함께 부적절한 데이터 학습에 따른 오판 및 특정 가치관에 대한 편향성 문제도 발생할 수 있어 인간의 생명·건강·재산, 그리고 국가의 안전과 발전에 위험을 초래할 수도 있다.
미국과 유럽연합은 AI의 잠재적 위험으로부터 이용자를 보호하기 위하여 AI 기술과 서비스에 대해 사전 규제를 담은 법령을 제정해 시행하고 있다. 우리 정부도 2020년 ‘사람 중심의 AI 구현’을 위한 인공지능(AI) 윤리기준 수립을 시작으로 ‘AI 윤리’에 초점을 둔 이용자 보호 정책을 추진했다. 그러나 윤리 자체가 추상성이 높고 이용자의 안전과 재산을 구체적으로 보호하거나 윤리기준을 위반한 AI 기술·서비스를 규제하는 규범으로 활용하기 어렵다.
이에 AI 윤리기준을 벗어나 이용자에게 구체적으로 발생할 수 있는 ‘위험’을 식별하고 이러한 위험으로부터 이용자를 보호할 수 있는 구체적인 대응방안 마련이 필요하다. 이용자 보호 방안은 AI에 대한 규제로 작용할 수 있어 국내 상황에 적합한 규제를 마련하기 위해서는 이해관계자의 의견수렴을 비롯한 사전영향분석 등을 통해 세계시장 진출에 걸맞은 기준과 함께 우리 현실에 맞는 균형잡힌 AI 입법 추진이 필요하다는 의견이다.
금융 부문 인공지능(AI) 활용과 규제 합리화 : 금융위원회
금융 부문에서 인공지능(AI) 활용은 효율성 제고에 대한 기대효과와 동시에 잠재적 리스크도 존재한다. 이에 정부가 나서 금융혁신을 제한하는 규제 해소를 비롯해 금융권 AI 활성화를 위한 지원정책과 AI 관련 위협 요인을 최소화하고 피해 책임을 명확히 하는 AI 규율체계를 이원화해 검토해야 한다는 것이다.
생성형 AI의 발전은 개인 맞춤형 금융서비스를 확산하고 자원의 효율적 배분 기능을 강화하며 산업간 융합 및 혁신을 촉진하는 효과가 기대된다. 다만, 금융 부문의 특성상 공공성과 사회적 책임이 크고 금융상품에 대해 고객에 대한 설명책임 및 거래의 투명성과 형평성 확보 등이 요구된다는 점에서 AI의 활용이 시장에 미치는 영향을 분석·파악하고 리스크를 토대로 한 규제체계 도입 논의가 필요하다.
정부도 금융 부문에 대한 AI 관련 리스크 관리에 중요성을 인식하고 AI 활성화 및 신뢰 확보를 위한 다양한 정책과제를 추진하고 있다. 금융위원회는 지난 2021년 ‘금융분야 인공지능 가이드라인’과 함께 2022년 ‘금융분야 인공지능 활용 활성화 및 신뢰확보 방안’을 발표한 바 있다. 이어서 후속조치로 2023년 ‘AI 기반 신용평가모형 검증체계’와 ‘금융분야 AI 보안 가이드라인’을 마련하고 금융권 AI 활성화 관련 인프라 지원 및 감독 등 정책 방향을 논의하기 위해 금융위 부위원장이 주재하는 ‘금융권 AI 협의회’를 설치해 운영하고 있다.
다만, 현재까지는 가이드라인 중심의 자율규제 형태를 취하고 있어 여전히 제도의 불확실성이 크고 지침의 구체성과 명확성에서 미흡한 측면이 있어 개선 및 보완이 필요하다는 의견이다. 불필요한 제약요인과 규제를 해소함으로써 양질의 데이터를 확보하고 활용하기 쉬운 인프라 구축을 위한 입법·정책적인 지원 검토가 필요하다는 것이다.
[조재호 기자(sw@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>