외부 생성형 AI의 다양한 기능을 활용할 수 있도록 오픈하는 방식이 ‘외향적’(E)이라면, 내부 수요에 특화된 sLLM은 ‘내향적’(I)이라 할 수 있다. 편리한 사용성이 중요하다면 ‘감성적’(F), 보안이 가장 중요한 원칙이라면 ‘이성적-사실적’(T)이라 할 수 있을 것이다.
직원들에게 생성형 AI를 활용할 채널을 열어주고 동시에 보안도 고려한다면 ‘플랫폼’ 형태가 적당하다. 외부 생성형 AI를 도입하되, 직원이 프롬프트에 개인정보나 민감정보를 입력하면 관리자가 미리 설정한 정책에 따라 입력을 차단하거나 개인정보가 드러나지 않도록 다른 단어로 치환할 수 있다.

[자료: 컴트루테크놀로지]
기존 챗봇이나 그룹웨어에 보안성을 추가하거나 보안을 위해 사내 구축형 AI 플랫폼을 자체 구축할 경우, 또는 필요할 때만 프롬프트 보안 위협을 확인하고 싶은 경우엔 API 형태를 추천한다.
API를 통해 개인정보나 민감정보 검출 요청이 들어오면 AI 보안 솔루션이 판단해 결과를 전달하고, 이렇게 필터링된 프롬프트로 질의하는 방식이다.
김현정 컴트루테크놀로지 전략마케팅팀장은 27일 서울 코엑스에서 열린 PIS페어 2025에서 ‘개인정보를 지키는 AI의 모든 것’이란 주제로 발표하며 “생성형 AI 열풍이 불고 있지만, 이와 연관된 개인정보 보호 등 컴플라이언스 이슈도 크다”며 “회사마다, 조직마다 다른 AI 활용 방식에 맞춰 적절한 보안 정책을 세워야 한다”고 말했다.

▲김현정 컴트루테크놀로지 전략마케팅팀장 [자료: 보안뉴스]
생성형 AI를 안 쓸 순 없지만, AI로 인해 고객 정보나 기업 기밀 등이 유출될 가능성 등 새로운 보안 고민이 나타난 것이다. 내부망인지 망분리 환경인지, 외부 생성형 AI를 도입해야 하는지 등 조직이 처한 여러 사용 환경도 고려해야 한다.
이 같은 다양한 조건을 고려해 조직 특성에 맞는 AI 보안 체계를 도입해야 한다는 권고다.
AI는 보안에 위협을 가져오지만, AI를 보안에 활용할 수도 있다. 개별 기업에 특화된 소형 생성형 언어 모델(sLLM)은 개인정보 검출 관리에 유용하다. 정해진 규칙에만 따라서 개인정보를 필터링해 경직된 기존 방식에 비해, sLLM은 언어적 맥락을 통해 정확하게 판단해 개인정보를 검출할 수 있다. 기업 상황에 맞게 조정돼 성능이나 속도를 최적화할 수 있다는 것도 장점이다.
[한세희 기자(boan@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>