‘AI 보안’ 아무리 발전해도 결국은 인간이 최종 선택
AI 주도 신세계, 우리는 어떤 ‘호모 파베르’가 되어야 하나
[보안뉴스 성기노 기자] 최근 한 공공기관 연구원의 연구위원을 만났다. 그는 AI와 관련한 저서도 내고 각종 강연회의 인기 초청 강사로서 활발한 활동을 하고 있다. 하지만 그에게도 고민이 있다.

[이미지=gettyimagesbank]
AI 관련 베스트셀러를 낼 정도로 스스로를 ‘AI 전문가’라고 자부하고 있지만 최근 AI의 발전 속도는 자신도 따라가기가 버거울 정도라고 한다. 작년에 AI 관련 책을 냈는데 이미 ‘구문’이 될 정도로 현재의 AI 산업은 그 발전 속도를 누구도 따라갈 수 없을 정도라고 한다.
그러면서 이 연구위원은 두 가지 문제에 대해 고민하고 있다고 말했다. 먼저 그가 지적한 문제는 AI라는 ‘도구’를 쓰는 인간의 숙련도와 그 격차에 따른 ‘AI 양극화’ 현상이었다. 그는 AI라는 신 문물을 가장 빨리 받아들이고 그 도구의 효용성을 극대화하는 ‘호모 파베르’(도구를 사용하는 인간)가 도래하는 AI 시대의 새로운 정보권력 강자로 부상할 것이라고 예측했다.
AI는 잘 쓰면 잘 쓸수록 그에 상응하는 효율성은 더욱 높아지게 되고 생산성과 경제적 이익도 더 극대화할 수 있다는 것이다. AI라는 도구는 능수능란하게 쓰면 쓸수록 더욱 그 가치와 효용성이 빛난다는 것이다.
하지만 AI를 초보자 수준에서 쓰는 사람은 우주선 엔진을 달고 국도를 달리는 것과 마찬가지다. AI에 대한 지식의 한계 때문에 그 도구의 활용을 극대화하지 못하고 문명의 이기를 그냥 ‘놀리는’ 것과 같다는 것이다.
이렇게 되면 세계는 더욱 AI 양극화로 치닫게 된다. 개인은 개인대로, 국가는 국가대로 도구의 활용 능숙도에 따라, 그 투자 규모에 따라 몇 년 후에는 어마어마한 격차가 발생할 것이라는 얘기다. AI 빈국과 부자의 나라, AI 약자와 강자의 사회로 나눠지면 그 격차는 경제적 양극화 못지않은 사회 문제가 될 수도 있다.
AI가 천재 솔루션 제안해도 결국은 인간이 취사선택
그래서 이 연구위원은 그 격차를 줄이는 방법으로 AI에 대한 정보와 접근성을 ‘평등’하게 만드는 시스템 연구에 골몰하고 있다고 한다. 과거 인터넷 시대가 도래하면서 그 도구를 ‘광속도’로 사용하는 사람과 인프라와 투자의 부족 등으로 ‘거북이 인터넷 선’을 사용하는 사람 간의 정보 격차가 커지게 되고 결국 그것이 빈부 격차와 사회 양극화로 이어지게 되는 것이다.
연구위원이 지적한 또 다른 문제는 바로 ‘보안’과도 관련이 있다. AI의 활용을 극대화하기 위해서는 역시 ‘인간’이 그 역할의 최정점에 있어야 한다는 것이다. 아무리 AI가 천재적인 솔루션과 대안을 제시한다고 해도 결국 그 결과물을 최종 취사선택하는 것은 바로 ‘사람’이다.
인간이 지혜롭고 더 똑똑하면 똑똑할수록 AI에게 뽑아내는 결과물도 더욱 우수하고 고퀄리티가 된다. 인간의 질문 구체성과 지적 수준에 따라 AI도 딱 그것에 맞는 ‘정답’만을 던져줄 것이다.

[이미지=gettyimagesbank]
그리고 인간의 지적 수준이 더 높으면 높을수록 AI가 내놓은 결과물에 대해 만족하지 않고 더 나은 대안과 퀄리티를 요구할 수 있다. AI의 지적 확장성은 무궁무진하기 때문에 인간이 얼마나 더 ‘짜내느냐’에 따라 AI의 결과물도 엄청난 품질의 격차를 보일 수 있다는 것이다.
이는 보안의 영역에도 그대로 적용된다. 전문가들은 생성형 AI는 단순한 도구를 넘어 보안 전략의 핵심 요소로 자리 잡아갈 것이라고 전망한다. 지금까지 인간이 해오던 보안의 모든 프로세스를 AI가 대체할 수 있게 된 것이다.
AI가 데이터 분석, 위협 탐지, 심지어 대응 전략까지 자동화하게 되면 기존 보안 팀의 역할은 근본적으로 변화할 수밖에 없다. 하지만 인간은 과연 AI의 보안 역할을 얼마나 신뢰할 수 있게 될까.
지금도 챗GPT 등을 쓰는 사람들은 그것이 내놓은 답에 대해 전적으로 신뢰하지 않는다. 평이하고 평범한 답을 내놓을 때가 많고 그마저도 가짜이거나 거짓 정보일 가능성을 배제할 수 없기 때문에 완전히 AI의 답을 받아들이지 않는 것이다.
결국 인간이 자신의 지적 능력과 지식 수준으로 AI의 답에 대해 ‘게이트 키핑’을 할 수밖에 없다. AI가 발전하면 할수록 인간의 역할은 오히려 더 커질 수밖에 없다. 생성형 AI는 방대한 데이터를 실시간으로 분석하고, 복잡한 패턴을 인식하며, 위협을 사전에 예측할 수 있다.
AI 효과적 활용 위해 인간의 역할 재정의 돼야
하지만 AI는 인간의 직관과 창의성을 대체할 수 없다. 특히 AI가 생성한 결과물의 신뢰성을 판단할 때 인간의 지적 수준과 판단의 준거가 상당히 중요하다. 또한 AI 결과물의 윤리적·법적 문제를 고려하는 것도 여전히 인간의 몫이다.
‘보안 AI’가 탐지한 위협이나 제안한 전략을 검토하고 그것을 실제로 적용할지 결정하는 것은 여전히 인간의 지식과 의지의 영역 안에 있다. AI가 보안의 기술적 영역을 담당하는 소프트웨어라면 인간은 그 첨단기술을 실제 현장에 적용하고 관리하는 하드웨어가 되어야 한다.
AI가 발전한다고 해서 모든 것을 그 ‘인공지능’이 지능적으로 다 해줄 것이라는 생각은 착각을 넘어 맹신에 가깝다. 생성형 AI가 보안 산업을 일거에 바꿀 ‘게임 체인저’이자 미래를 혁신하는 강력한 도구가 될 수 있을 것이다.
하지만 결국은 그 첨단 인공지능을 효과적으로 활용하기 위해서는 인간의 역할이 재정의되어야 한다. AI가 펼칠 신인류의 보안 세상이 도래하고 있다. 우리는 그 신세계를 살아가기 위해 어떤 ‘호모 파베르’가 되어야 하는가.
[성기노 기자(kino@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>