일반 여성 얼굴 사진으로 ‘딥페이크 음란물’ 만들어
딥페이크 기술은 특정 인물의 얼굴 등을 인공지능(AI) 기술을 이용해 특정 영상에 합성한 편집물을 말한다. 최근 사망한 사람의 사진 등을 이용해서 영상물을 통해 다시 되살리는 그런 예능 프로그램이 나올 정도로 딥페이크 기술을 제대로 활용하면 모든 사람들의 마음을 적시는 그런 기술이다. 하지만 잘못 이용하면 범죄에 이용할 수 있다. 특히 여성 얼굴을 음란물에 합성하는 기술이 점차 발전하면서 딥페이크 음란물 영상이 출현하고 있다. 경찰청 국가수사본부 등에 따르면 지난해 12월부터 4월 말까지 ‘딥페이크’를 악용한 불법합성물 제작·유포 사범 94명을 검거(구속 10명)했으며 103건을 내·수사 중이다. 검거된 피의자 94명의 연령대는 10대와 20대가 각각 69.1%(65명), 18.1%(17명)로, 주로 저연령층에서 불법행위가 발생하고 있다. 피해자 114명 중 여성은 95.6%(109명)로 압도적이었으며, 남성은 4.4%(5명)였다. 딥페이크 음란물 영상을 만들어 돈을 뜯어내는 사례도 발생하면서 이른바 딥페이크 피싱이 이제는 현실화되는 분위기다. 최근에는 휴대폰과 사진만 있으면 딥페이크 음란물 영상을 만드는 것은 쉬운 일이기 때문에 피해자들은 더욱 늘어날 것으로 예측된다.딥페이크 피싱, 노년층에 취약
더욱이 딥페이크 피싱은 노년층에 취약할 가능성이 매우 높다. 딥페이크 기술이 점차 발전하면서 진짜 영상과 가짜 영상을 구분할 수 없는 단계로 나아가고 있기 때문이다. 딥페이크 피싱 소식을 제대로 접하지 못하는 노년층에게는 취약할 것으로 예측된다. 자녀라고 속이는 영상을 부모에게 보내고, 돈을 보내달라고 한다면 노년층은 그 해당 영상물이 딥페이크 피싱 영상인지 모르고 돈을 송금할 가능성이 매우 높기 때문이다. 딥페이크 기술은 점차 발전하면서 진짜와 가짜의 구분 경계는 더욱 옅어질 것으로 예측되며, 그에 따라 가족들끼리 피해를 입는 경우가 발생할 것으로 예측된다. 경찰청은 만약 가족들끼리 돈을 보내달라는 영상을 받았을 경우 해당 가족에게 전화를 해서 확인을 해야 한다고 충고했다. 돈이 필요하면 전화를 해서 돈을 달라고 하지 영상을 보내지는 않는다는 것이다. 그리고 평소 가족이 사용하는 주거래통장 정도는 미리 알아두는 것이 좋다고 조언하고 있다. 해당 통장이 아닌 다른 통장 계좌번호를 불러준다면 한번은 의심해야 한다는 것이다.저작권자 © 파이낸셜리뷰 무단전재 및 재배포 금지