“AI 기반 보안은 기술 발전에 비해 법적 프레임 미흡...논란 소지 다분”
[보안뉴스 조재호 기자] “인공지능(AI)의 등장으로 사이버보안의 패러다임이 변화했습니다. AI를 활용한 보안에서 가장 큰 법적 문제는 보안 사고와 영업 중단에 대한 것입니다. 기술 발전 속도에 비해 법적 프레임이 미흡하기 때문입니다.”
강한철 김앤장 법률사무소 변호사는 27일 서울 강남구 코엑스에서 열린 ISEC 2025에서 이같이 말했다. 보안을 위한 AI 기술 발달은 긍정적인 일이나 법률적 관점에선 주체별 책임 범위가 복잡하게 얽혀 있고, 신고를 비롯한 행정 부분에서도 신경쓸 부분이 한둘이 아니기에 대비가 필요하다는 설명이다.

▲ 강한철 김앤장 법률사무소 변호사 [자료:보안뉴스]
강 변호사는 ‘보안에 AI 적용을 위한 법적·제도적 쟁점 사항과 대응 방안’을 주제로 키노트 하며 최근 보안 업계 화두인 AI 보안 관련 법적 요구와 기술적 조치를 아우른 종합 대응 전략을 공유했다.
AI 보안 관련 법적 책임 문제는 AI 개발자와 보안 사업자, 이용자 등 주체에 따라 법적 책임 범위가 복잡하게 얽혀 있다. 사고가 생겼을 때 과실 및 법령 준수 여부에 따라 손해배상 책임과 과태료 등이 부과될 수 있다. AI 모델의 결함이나 악용 여부에 따라서도 책임 소재가 논란이 될 수 있다.
보안 사고가 터지면 법에 정해진 보안 조치를 이행했는지, 사회적 기대 수준에 맞는 조치가 이뤄졌는지 등을 판단한다. 담당자와 임원의 관리·감독 의무에 대한 논란이 일 수 있고, 기업의 피해에 대해 주주나 이해관계자들의 소송 가능성도 상존한다. 이같은 갈등은 민사소송·행정처분·형사처벌 등 다양한 방식으로 진행될 수 있다.
AI를 적용한 보안 시스템의 경우, 관련된 일반 법령이 없어 기존 법규를 적용해야 한다는 점에서 한계를 보인다. 강 변호사는 “AI 보안 사업자에 대한 안전성·신뢰성·관리 의무가 강화되는 추세로, 국내외에서 AI 보안 관련 법률 개정 및 규제 강화 움직임을 보인다”며 “기업 입장에서 보안 컴플라이언스 관련 부담이 커지면서 인력과 예산 확보가 중요한 과제로 떠올랐다”고 말했다.
이어 “AI 모델의 보안 취약점과 악용 가능성에 대한 위험 관리에 있어 현행 법령으로 책임 소재가 불명확한 부분이 있어 사업자와 이용자 간 책임 분배와 법적 해석이 계속 논의되고 있다”고 말했다.
최근 AI의 발달과 함께 일상 속 AI 서비스가 늘어나고 있어 AI 관련 보안 사고가 미치는 사회적·경제적 영향력이 커지고 있다. 하지만 AI 기술 발전에 비해 법률 및 규제 체계는 뒤처져 법적 공백이 생겼다. 이러한 법적 책임 소재 불명확성은 보안 인력과 기업의 부담을 가중하고 있다는 진단이다.
강 변호사는 “AI 보안 관련 법률과 규제 체계의 정비, 명확화가 필요한 상황”이라면서도 “이에 앞서 보안 인력 전문성을 강화하고, 법률가와 협력해 대응 체계를 구축해야 한다”고 말했다. 또 법률 개정에 앞서 기업 내부 보안 규범 강화와 지속적 모니터링 체계 마련이 필요하다는 권고다.
[조재호 기자(sw@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>