AI 등 신기술 악용한 범죄 예방을 위한 기술 연구 및 대응 방안 마련 중요
[보안뉴스 김경애 기자] 최근 AI피싱이 기승을 부리고 있어 이용자들의 각별한 주의가 요구된다. 특히 내 가족이나 친구, 지인 등의 목소리를 흉내 내어 돈을 갈취하는 범죄가 발생하고 있어 SNS를 통해 음성 영상물을 업로드하지 않도록 하는 등 주의가 필요하다.
[자료=경찰청]
16일 경찰청에 따르면 최근 딥페이크, 딥보이스를 활용한 AI보이스피싱이 성행하고 있다며 인공지능 기술을 통해 자녀의 얼굴과 목소리를 조작해 가족들에게 돈을 요구하는 신종 AI피싱이 발생하고 있다며 주의를 당부했다.
이에 따라 개인정보를 최소화하는 등 개인 SNS 관리에도 주의가 필요하다. 이와 관련 경찰청은 “AI를 이용한 딥보이스는 억양과 호흡, 침묵까지 표현할 수 있어 실제 음성과 구분이 점점 어려워지고 있는 만큼 SNS에 음성이 포함된 게시물을 올릴 땐 각별히 주의할 것”을 당부했다.
또한 경찰청은 “의심스러운 요청은 반드시 사실 여부를 확인해야 한다”며 “일단 전화를 끊고 당사자 또는 주변 지인들에게 확인하는 게 바람직하다”고 강조했다.
스틸리언 신동휘 CTO는 “최근 AI 기술을 활용한 다양한 범죄가 발생하고 있다”며 “이는 신뢰할 수 없는 사회 분위기로 확산시킬 수 있는 만큼 누군가가 유선으로 “~~~하다. 무언가를 해달라” 요청한다면 반드시 직접 당사자에게 전화해 확인해야 한다”며 당부했다. 이어 신 CTO는 “범죄예방 관련 신기술에 대한 다양한 연구개발이 요구되며 전화번호 변작에 대한 대응방안 마련이 필요하다”고 제시했다.
과학기술정보통신부 심주섭 과장은 “정부는 딥보이스 활용 등 신종 보이스피싱 수법의 심각성을 인지하고 이에 대응하고 있다”며 “제도적 안전장치 마련, 탐색 및 방지 기술개발 등을 추진할 계획”이라고 밝혔다.
시큐리온 유동훈 대표는 “유명인 사칭 사건의 경우 신뢰할만한 플랫폼을 통해 이뤄지기 때문에 플랫폼 차원에서 대응 노력이 필요하다”며 “피해자의 기기가 악성코드에 감염된 상태에서 이뤄지는 타깃형 공격이라면 백신을 통한 치료 후 사실 여부를 확인하거나 타인의 기기를 통해 당사자 또는 주변 지인에게 사실을 확인해야 한다”고 말했다.
[김경애 기자(boan3@boannews.com)]
<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>