메뉴 바로가기 본문 바로가기 하단 바로가기

“조인성, 송혜교라 믿었는데”… 신종 금융 사기의 정체

딥페이크 이용한 신종 사기 기승
유명 연예인 합성한 영상으로 홍보
비대면 금융거래에서 악용, 정책적 보호 필요

출처 : 뉴스 1

유명 연예인의 딥페이크 영상으로 사기를 치는 사례가 세계적으로 늘고 있는 가운데 우리나라도 이를 간과하면서 지나갈 수는 없는 지경에 이르렀다.

딥페이크는 인공지능을 기반으로 두는 이미지 합성 기술이다. 기존에 있던 인물의 특정 부분이나 얼굴 등을 CG처럼 교묘하게 합성한 영상편집물을 말한다.

출처 : 뉴스 1

출처 : 뉴스 1

최근 조인성, 송혜교의 얼굴과 음성을 조작한 딥페이크 영상을 활용해 투자를 권유하는 사기 범죄 피해가 알려졌다. 영상 안에는 조인성과 송혜교가 자신의 이름을 직접 말하며 행사 개최에 감사하다며 인사를 했다.

출처 : youtube@KNN_NEWS

출처 : youtube@KNN_NEWS하지만 이 영상은 조인성, 송혜교는 자신들의 얼굴이 들어가는지도 모르는 딥페이크로 만들어진 가짜 영상으로 밝혀졌다.

출처 : 뉴스 1

이 범죄 조직은 2차 전지 투자 열풍을 이끈 ‘베터리 아저씨“라 불리는 박순혁 작가의 비서라며 투자자들에게 접근했다. 또한, 유명 연예인이 참여하고 있다는 영상을 보여주며 신뢰를 쌓아 투자를 유도하는 방식을 써 투자금을 편취했다.

경찰은 해당 사건을 심각한 신종 금융 범죄로 보고 수사 중이지만 피해자들은 늘어나고 있는 것으로 알려졌다.

출처 : 뉴스 1

딥페이크 사기는 해외에서 이미 금융 사기의 또 다른 유형으로 유명하다. 홍콩의 한 기업의 직원이 재무 책임자가 등장하는 딥페이크 화상 통화에 속아 2억 홍콩달러, 한화 약 341억을 송금한 사실이 지난 4일 CNN을 통해 알려졌다.

이 직원은 피해 사실을 모르고 있다가 나중에 회사 본사를 통해 알게 되었다. 사기 조직은 화상 통화에 참석했던 모든 직원의 얼굴을 딥페이크 영상으로 재현했다.

홍콩에서 이러한 딥페이크를 활용한 금융 범죄는 처음이 아니었다. 분실 신분증 8개를 도용해 만든 딥페이크 이미지를 은행에 제출해 대출 90건을 받고 계좌 54개를 만들어 붙잡힌 사례를 비롯해 최소 스무 건에 달하는 범죄가 발각된 것으로 드러났다. 비대면 금융 거래가 늘어나면서 딥페이크 기술이 비대면 금융 범죄에서 더 증가할 거란 예측도 보인다.

딥페이크를 활용한 범죄는 애당초 성 관련 영상에 등장하는 것이 문제로 제기되어 왔다.

영상의 화질이나 처리되는 데이터의 질에 따라 원본과 구분이 어려울 정도의 정교한 영상으로 발전하며, 온라인에 공개된 리소스의 양이 많은 유명인의 모습을 합성한 ‘딥페이크 포르노’가 탄생했다. 실제로 다수의 포르노 사이트, 트위터 등에 영상이 돌아다녀 논란이 되었다.

성범죄 사기를 넘어서 AI 기술을 이용한 딥페이크 관련 범죄는 앞으로 더 다양하게 확장되어 문제를 일으킬 것으로 예측됐다.

기술이 발전해 가고 딥페이크 영상을 제작하기는 쉬워진다. 그러나 이를 식별하는 기술은 딥페이크 영상이 발전해 가는 속도를 따라가지 못해 사기에 악용하는 사례가 끊이지 않는다.

출처 : 뉴스 1

특히 유명인들의 이미지를 불법으로 사용한 사기 광고가 가장 큰 문제로 두드러진다. 누구나 알 수 있는 유명인들의 모습을 사용했을 때 파급력과 피해 규모가 더 큰 것으로 알려졌다.

자신도 모르는 사이에 얼굴과 목소리가 도용되어 사기에 이용되고 있는 연예인들이 많지만, 이를 문제 삼기도 쉽지 않은 것으로 알려졌다. 초상권 침해의 경우 대상자와 피해가 명확해야 한다.

그러나 딥페이크 영상으로 발생한 사기로 초상권 침해 당사자가 어떤 피해를 보았는지 명확하게 입증하기가 어렵다. 이 때문에 딥페이크 사기는 계속해서 발전하고 악용되는 것이다. 유명 연예인들은 실제로 본인의 SNS에 글을 남기기도 했다.

출처 : 뉴스 1

출처 : 뉴스 1

한국의 경우 김숙, 송은이, 유재석 등 자신들이 등장하는 가짜 영상이나 게시물에 대한 주의를 당부하기도 했다.

딥페이크 영상을 이용한 범죄는 사실상 ‘속지 않으면 된다.’ 가 예방책이나 해결책의 전부로 뽑힌다.

출처 : 뉴스 1

범죄에 이용되는 딥페이크에 대한 법적 규제가 필요하다고 전문가들은 말한다. 과학기술정보통신부는 지난해 월 제4차 인공지능 최고위 전략대화에서 올해 1분기 중 AI 산출물 워터마크 표기 의무화 제도를 도입하겠다며 말했다.

이런 방식들이 의논 되고 있지만, AI 관련 법안이 1년이 넘도록 국회에서 계류하고 있다는 점에서 정책의 반영 속도는 늦을 것으로 추측된다.

딥페이크 영상에 대한 표식을 넣는 것이 해결 방안으로 제기되지만, 이것도 범죄자가 지워버릴 수 있는 가능성이 다분하기 때문에 주먹구구식 해결 방안에 불과하다고 지적된다.

일각에서는 정책적인 규제가 AI 기술의 발전을 막을 것이라는 의견도 나온다.

딥페이크 방지법이나 처벌법이 생기면 무리한 규제까지 생긴다고 보는 것이다. 생성형 AI 기술을 제한하면서 관련 연구 개발을 위축시킬 것이라고 보고 있다.

산업 발달이 가속화되고 있는 단계에 규제법을 만든다고 해서 우려되는 부분이 다 해소되지는 않는다며 말을 덧붙였다. 또한, 규제법은 오히려 기술개발의 인위적 방해물만 만들 소지가 있다고 주장했다.

이 기사에 대해 어떻게 생각하시나요?
+1
0
+1
0
+1
0
+1
0
+1
0
김진아 기자의 프로필 이미지

댓글0

300

댓글0

공유하기