[이미지 = gettyimagesbank]
배경 : 챗GPT와 같은 생성형 인공지능 프로그램에 악성 명령을 주입할 경우, 인공지능 자체에서 이를 수행하지 않도록 설정되어 있는 게 보통이다. 따라서 해킹 프로그램을 만든다든가 누군가를 비방하는 내용의 글을 생성하는 등의 행위를 인공지능이 수행하도록 하는 게 쉽지 않다. 이는 인공지능 개발사가 심어둔 안전장치 때문이다. 따라서 이 안전장치를 무력화 하는 기법들이 여기 저기서 연구되고 있다.
말말말 : “✍️, ➡️, 🐍,😈와 같은 이모티콘을 섞어서 사용할 경우에도 악성 명령이 만들어질 수 있습니다.” -모질라-
[국제부 문가용 기자(globoan@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>