[보안뉴스 여이레 기자] 인공지능(AI) 기술의 발전 속도가 가팔라지면서 AI 개발 기업이 스스로 위험을 경고하고 나섰다.

[자료: 연합뉴스]
챗GPT 개발사 오픈AI는 자사 차세대 AI 모델이 높은 수준의 사이버 보안 위험을 초래할 수 있다고 10일(현지시간) 밝혔다. 오픈AI는 차세대 모델이 고도화될 경우 보안이 철저히 구축된 시스템에 대한 제로데이 공격 코드 개발이나 복잡한 산업·기업 침입 작전에 악용될 가능성이 있다고 분석했다. AI가 단순 정보 분석을 넘어 고급 해킹 시나리오를 자체적으로 생성·지원할 단계에 접근하고 있음을 시사한다.
이번 발표는 단일 기업의 보안 전략을 넘어 AI 산업 전반의 위험 인식이 한층 구체화되고 있음을 보여준다. AI의 연산 효율성과 창의적 문제 해결 능력이 높아진 만큼, 공격자가 이를 악용할 경우 방어 측면의 복잡성은 크게 증가할 전망이다.
AI가 자동으로 코드 취약점을 탐색하고 보안 체계를 우회하는 공격 경로를 설계할 수 있게 되면 기존 보안 인프라로 대응이 어렵다. AI가 인간의 역량을 대체하거나 능가할 가능성이 커질수록, 이 기술을 어떻게 제어 가능하고 안전한 형태로 발전시킬 지가 글로벌 규제 및 산업계 핵심 과제로 떠오르고 있다.
이를 위해 오픈AI는 AI를 ‘공격 도구’가 아니라 코드 감사, 취약점 패치, 보안 절차 자동화 등 ‘보호 도구’로 활용하는 전략을 추진 중이다. 오픈AI 측은 “방어적 사이버 보안 역량을 강화하는 방향으로 연구와 투자 방향을 조정하고 있다”고 밝혔다.
또 오픈AI는 접근제어·인프라 강화·데이터 유출 통제·모니터링을 결합한 보안 관리체계를 도입하고, 향후 사이버 방어 역량을 갖춘 사용자에겐 단계별로 강화된 기능을 제공하는 프로그램을 시행할 예정이다.
나아가 ‘프런티어 리스크 위원회’(Frontier Risk Council)를 구성해 외부 보안 전문가 및 정부·산업계 실무자들과 협력할 계획이다. 위원회는 초기엔 사이버 보안에 집중하되, 이후 신흥 기술 분야 전반으로 활동을 확대한다는 구상이다.
[여이레 기자(gore@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>










.gif)



