요약 : 보안 외신 핵리드에 의하면 생성형 인공지능 모델인 챗GPT를 활용해 악성 코드를 개발하는 방법이 새롭게 발견됐다고 한다. 챗GPT는 가짜 정보를 생성하려는 특성을 가지고 있는데, 이를 공격자가 활용하여 멀웨어를 만들어낼 수 있다는 것이다. 코딩과 관련된 질문을 챗GPT에 할 경우 패키지를 추천하는 답변을 내놓기도 하는데, 이 때 실제 존재하지 않거나 공개되지 않은 패키지들이 언급되기도 한다. 하지만 일일이 조사하지 않는 이상 그 패키지가 있는지 없는지 알아내기 어렵다. 공격자들이 이를 이용해 챗GPT가 추천할 만한 패키지를 실제로 만든 후 기다리면 챗GPT의 추천을 받은 개발자들이 의심 없이 이 패키지를 가져다가 자신들의 개발 프로젝트에 접목시키게 된다.
[이미지 = gettyimagesbank]
배경 : 챗GPT가 이러한 성향을 보이는 건, 챗GPT 알고리즘을 훈련시킬 때 사용했던 데이터에 오래됐거나 부정확한 것들이 섞여 들어갔기 때문이다. 그러나 대형 언어 모델은 대단히 그럴듯한 답변을 생성하기 때문에 부정확한 정보를 단번에 파악하기가 힘들다.
말말말 : “인공지능 모델을 비롯해 여러 신기술들은 충분히 검증되지 않을 경우 보안 위협이 되는 게 분명합니다. 챗GPT에서도 자꾸만 이러한 사실들이 입증되고 있습니다.” -벌칸사이버(Vulcan Cyber)-
[국제부 문가용 기자(globoan@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>