[보안뉴스 문가용 기자] 미국의 FBI가 생성형 인공지능 기술과 관련된 대국민 권고문을 발표했다. 인공지능을 활용했을 때 각종 사이버 공격과 사기 시도가 훨씬 정교해지고 있으며, 그로 인한 피해자들이 증가하고 있기 때문이다. 특히 공격자들 편에서 투자해야만 했던 것들이 인공지능 덕분에 획기적으로 줄어든다는 게 가장 큰 문제이며, 이 때문에 공격자들은 같은 돈으로 더 많은 공격을 더 정확하게 할 수 있게 됐다고 FBI는 경고했다.

[이미지 = gettyimagesbank]
“생성형 인공지능은 사용자가 입력한 예시 데이터를 바탕으로 완전히 새로운 것을 생성할 수 있습니다. 그렇기 때문에 각종 콘텐츠 제작에 있어서 강력한 기능을 선보이고 있습니다. 그 과정에서 인간의 실수를 매끄럽게 교정하기도 합니다. 이러한 강점들을 공격에 활용하면 어떻게 될까요? 보다 정교한 가짜 콘텐츠들이 탄생합니다. 정교하고 매끄러우며 실수가 없기 때문에 신뢰도가 높아지기도 합니다.” FBI의 설명이다. “게다가 그런 인공지능 콘텐츠를 식별하는 것이 지금으로서는 매우 어렵다는 게 문제입니다. 그래서 이번 권고문을 통해 일반인들이 뭘 어떤 식으로 주의해야 하는지를 알리고자 합니다.”
인공지능 텍스트
인공지능의 텍스트 작성 능력은 이미 널리 알려져 있다. 공격자들의 경우 이 기능을 주로 사회 공학 공격과 스피어피싱 공격을 하는 데 활용한다고 FBI는 설명했다. “특히 돈을 훔쳐내기 위한 금융 사기 시도에서 인공지능 텍스트를 활용하려는 경우가 많습니다.”
그러면서 현재 상황은 다음과 같다고 정리하고 있다.
1) 가짜로 소셜미디어 프로필을 대량으로 만들어 피해자들을 속인다. 그런 후 돈을 송금하게 유도한다.
2) 피해자에게 보내는 메시지를 더 많이, 더 설득력 있게 만들고 있다. 이전에는 소수의 대상들에게 맞춤형 공격을 해야만 설득력 있는 거짓말을 할 수 있었는데, 이제는 더 많은 사람들에게 맞춤형 공격을 빠르게 할 수 있게 됐다.
3) 다른 나라의 언어로 공격을 하는 게 더 쉬워졌다. 인공지능 번역 기술 덕분에 문법과 철자 오류를 획기적으로 줄일 수 있었기 때문이다.
4) 암호화폐 투자를 이끌어내기 위해 인공지능을 가지고 보다 그럴 듯한 웹사이트를 만들고 있다.
5) 인공지능 챗봇을 가짜 웹사이트에 구축함으로써 피해자가 악성 링크를 클릭하도록 유도한다.
인공지능 이미지
계속해서 FBI는 인공지능이 생성한 이미지 역시 공격자들이 적극 활용하고 있다고 경고했다. 이미 나타난 사례들은 다음과 같다고 알리면서였다.
1) 허위 소셜미디어 프로필을 대량으로 만들기 위한 가짜 사진을 생성한다.
2) 가짜 신분증을 생성함으로써 신원 도용 및 사칭 사기에 활용한다.
3) 피해자와 사적 대화에서 진짜 사람처럼 보이게끔 하는 각종 사진들을 생성한다.
4) 유명인이나 소셜미디어 인플루언서의 사진을 허위로 만들어 가짜 광고 혹은 미배송 사기에 활용한다.
5) 자연재해나 전 세계적 분쟁 상황을 묘사한 이미지를 만들어 허위 자선 단체를 꾸린 뒤 기부를 유도한다.
6) 가짜 이미지를 만들어 주가를 조작하려 시도한다.
7) 피해자의 음란 사진을 만들어 섹스토션 공격에 이용한다.
인공지능 오디오와 비디오
인공지능이 생성한 오디오의 경우, 이미 수년 전부터 실제 피해가 있었을 정도로 정교한 수준에 올라왔다. FBI도 이 부분을 지적하며 “매우 실제와 똑같은 인물로 사칭이 가능하다”고 경고했다. 그러면서 다음과 같은 상황이 있을 수 있다고 알렸다.
1) 친숙하고 친밀한 사람의 목소리를 복제한 상태로 접근하여 돈 입금을 요구하거나, 아예 납치 상황을 꾸며 몸값을 요구한다.
2) 피해자 본인의 목소리를 복제하여 거래 은행에 전화를 걸고, 은행 직원을 속여 사기성 거래를 진행한다.
인공지능 비디오의 경우 다음과 같은 상황들이 발생하고 있다고 한다.
1) 가짜 임원, 가짜 정부 기관 요원, 가짜 유명 인물과 실시간 영상 통화를 하는 것처럼 믿게 한다.
2) 특히 1)번을 활용해 사적 대화 공간으로 피해자를 이끌어낸다. 그러면서 피해자의 믿음을 더 굳건하게 만든다.
3) 유명인이 등장하는 허위 홍보 영상을 만들어 투자 사기를 진행한다.
인공지능으로부터의 위협, 어떻게 방어해야 하는가?
FBI는 이번 문건을 통해 다음과 같은 자기 방어 대책을 제안했다.
1) 가족, 지인, 사랑하는 사람들과 암호문이나 암호구를 만들어 진짜와 가짜를 확인할 수 있게 한다.
2) 인공지능이 만든 이미지와 영상에는 미묘한 결함이 있다. 아직 완벽하지 않기 때문이다. 특히 손과 발, 치아, 눈 등에서 묘한 이질감이 느껴지는데 이 부분을 확인하는 게 좋다. 얼굴이 흐릿하거나 그림자가 전혀 엉뚱한 방향에서 나타나거나, 반응이 지나치게 느릴 때에도 인공지능을 의심할 수 있다.
3) 통화를 한다면 음성의 높낮이나 어휘를 세심히 들을 필요가 있다. 평소의 억양, 평소 어휘와 사뭇 다른 점이 느껴질 수 있을 것이다.
4) 온라인 공간이나 소셜미디어에 자신의 사진이나 음성을 되도록 올리지 않는다. 소셜미디어 계정을 비공개로 전환하는 것도 좋은 방법이다.
5) 의심스러운 전화가 왔다면 일단 끊은 후 자기가 다시 전화를 건다. 예를 들어 주 거래 은행에서 전화가 왔는데 수상한 면이 있었다면, 통화를 종료하고 그 은행에 직접 전화를 거는 식이다.
6) 오프라인에서는 한 번도 보지 못했는데 온라인에서만 친한 인물에게 민감한 정보를 주지 않는다.
7) 모르는 사람이나 온라인으로 만난 사람에게 돈, 선불카드, 암호화폐를 보내지 않는다.
[국제부 문가용 기자(globoan@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>