TOP
사회

AI로 조작된 가족 목소리, 보이스피싱 주의보

조진욱 입력 : 2024.05.14
조회수 : 803
<앵커:>
인공지능 AI의 발전이 점점 빨라지는 가운데, 똑같이 만들어낸 가족의 목소리로 보이스피싱을 시도하는 사례까지 발생하고 있습니다.

직접 실험해 보니 똑같은 목소리를 만들어 내는 데는 1분도 걸리지 않았습니다.

조진욱 기자가 취재했습니다.

<기자>
60대 A씨가 납치됐단 딸의 전화를 듣고 급하게 돈을 찾습니다.

{전화 목소리 재연(경찰 제공)/ 엄마, 친구보증 섰는데, 친구가 연락 안 돼서 잡혀왔어.}

하지만 이를 수상하게 여긴 은행원의 도움으로 다행히 송금하지 않았습니다.

딸의 전화는 AI가 만들어낸 가짜 목소리, '딥보이스 보이스피싱'으로 보입니다.

AI 기술이 발달하면서 이제는 짧은 음성만으로 목소리를 똑같이 흉내 낼 수 있습니다.

사실 지금까지 나온 뉴스 목소리도 모두 AI였습니다.

관련 앱에서 그동안 보도된 뉴스를 넣고, 몇 번 클릭하자 가짜 목소리가 바로 만들어집니다.

누군가와 똑같은 목소리를 이용하면 보이스피싱 범죄를 당할 가능성은 더 높아집니다.

최근에는 사진 한 장만으로 입 모양까지 맞춰주는 기술이 개발돼 영상통화도 피싱사기의 표적이 되고 있습니다.

전문가들은 SNS에 영상을 올릴 때 주의하고, 지인들과는 평소에 암호를 만드는 것도 필요하다고 조언합니다.

{김기홍/ 동서대 영상애니메이션학과 교수/"또다른 방어기술로 막는 건 아직은 시간이 걸릴 것 같고요. 현재 단계에서는 가족이면 가족끼리 사용하는 은어라든지 2차적으로 확인할 수 있는 방법을... "}

지난 7개월 동안 국내에서 발생하거나 검거한 보이스피싱 건수만 2만 3천 건 정도.

피해액은 3천2백 억 원을 넘어섰습니다.

KNN 조진욱입니다.
KNN 뉴스는 24시간 여러분의 제보를 기다립니다.

▷ 전화
부산 051-850-9000
경남 055-283-0505
▷ 이메일 jebo@knn.co.kr
▷ knn 홈페이지/앱 접속, 시청자 제보 누르기
▷ 카카오톡 친구찾기 @knn
저작권자 © 부산경남대표방송 KNN 무단전재 및 재배포 금지
사이트맵