Vietnam.vn - Nền tảng quảng bá Việt Nam

딥페이크 음성 사기가 점점 더 정교해지고 있는데, 어떻게 해야 할까?

딥페이크 음성 기술을 이용하면 사람들이 실제 사람과 똑같은 목소리를 흉내낼 수 있어 많은 사람이 친숙한 목소리를 믿는 함정에 빠지게 됩니다.

Báo Tuổi TrẻBáo Tuổi Trẻ09/07/2025

Deepfake Voice - Ảnh 1.

딥페이크 음성으로 음성 사칭 사기

급속도로 발전하는 인공지능 시대에, 한때 확실한 증거로 여겨졌던 음성은 이제 악당들의 손에 들어가면 위험한 도구가 되었습니다. 딥페이크 음성 기술은 실제 사람과 똑같은 가짜 음성을 만들어내, 정교한 가짜 통화를 통해 재산을 사취하고 탈취합니다.

딥페이크 목소리가 무서운 이유는?

딥페이크 음성은 인공지능(AI)과 머신러닝을 적용하여 실제 사람의 목소리와 동일한 가짜 음성을 만드는 기술입니다.

Tacotron, WaveNet, ElevenLabs와 같은 최신 모델이나 Respeecher와 같은 음성 복제 플랫폼의 지원을 받으면 사기꾼은 3~10초 분량의 음성 샘플만으로 95% 신뢰도 높은 딥페이크를 만들 수 있습니다.

딥페이크 음성은 발음, 억양, 심지어 각 사람의 독특한 말투 습관까지 거의 완벽하게 사람의 목소리를 흉내낼 수 있기 때문에 특히 위험합니다.

이로 인해 피해자는 진짜와 가짜를 구별하기가 매우 어렵습니다. 특히 목소리가 친척, 친구 또는 상사의 것일 경우 더욱 그렇습니다.

음성 마이닝 또한 매우 쉽습니다. 오늘날 대부분의 사람들이 TikTok, 소셜 미디어 라이브 스트리밍, 팟캐스트, 온라인 회의와 같은 플랫폼을 통해 자신의 음성을 노출하고 있기 때문입니다. 더욱 우려스러운 점은 딥페이크 음성은 이미지나 영상과 같은 시각적 흔적을 남기지 않아 수사를 어렵게 만들고 피해자는 금전적 피해를 입을 위험이 크다는 것입니다.

Lừa đảo bằng deepfake voice ngày càng tinh vi, phải làm sao? - Ảnh 2.

단 몇 초의 음성 샘플만으로도 딥페이크를 만들 수 있습니다.

딥페이크 음성 사기는 점점 더 정교해지고 있으며, 종종 익숙한 시나리오를 이용합니다. 즉, 비상 상황에서 지인의 목소리를 모방하여 피해자에게 공황 상태를 조성하고 즉시 돈을 이체하도록 압력을 가하는 것입니다.

베트남에서는 어머니가 "아들"에게서 사고를 당해서 급히 돈이 필요하다는 전화를 받은 사건이 있었습니다. 영국에서는 한 회사 임원이 "사장"의 전화 송금 요청을 듣고 24만 달러(한화 약 3억 4천만 원) 이상을 사기당했습니다. 한 관리직 직원도 "전략적 파트너"에게 돈을 지불해 달라는 "사장"의 전화를 받고 사기를 당했습니다.

이런 상황에서 공통적으로 나타나는 점은 가짜 목소리가 친척이나 상관의 목소리처럼 똑같이 재현되어 피해자가 절대적으로 신뢰하게 되고 확인할 시간도 없게 된다는 것입니다.

항상 확인하고, 즉시 믿지 마세요

딥페이크 음성 사기가 증가함에 따라, 사랑하는 사람의 목소리와 똑같다고 하더라도 음성만으로 전화로 돈을 이체하지 않는 것이 좋습니다. 대신, 거래를 하기 전에 이전 번호로 다시 전화를 걸거나 다양한 채널을 통해 정보를 확인하세요.

많은 전문가는 특이한 상황에서의 확인을 위해 집이나 회사 내에 "내부 비밀번호"를 설정할 것을 권장합니다.

또한, 특히 긴 콘텐츠의 경우, 목소리가 또렷한 영상의 소셜 네트워크 게시를 제한해야 합니다. 특히, 노약자나 기술에 대한 노출이 적은 계층 등 취약 계층은 첨단 기술 사기의 주요 타깃이므로, 이러한 취약 계층에 대한 적극적인 경고 및 안내가 필요합니다.

Deepfake Voice - Ảnh 3.

친척, 친구, 동료의 목소리도 모두 가짜로 만들 수 있습니다.

많은 국가에서 당국은 자체적인 법적 틀을 마련하여 딥페이크 기술에 대한 관리를 강화하기 시작했습니다.

미국에서는 여러 주에서 선거 운동이나 허위 정보 유포에 딥페이크를 사용하는 것을 금지했습니다. 유럽연합(EU)은 AI법을 통과시켜, 기관들이 투명성을 확보하고 인공지능으로 생성된 콘텐츠에 대해 명확하게 경고하도록 요구했습니다.

한편, 베트남에서는 딥페이크 음성에 대한 구체적인 규정은 없지만, 관련 행위는 현행법에 따라 사기, 재산횡령, 사생활 침해, 신분 위조 등의 범죄로 처리될 수 있습니다.

그러나 현실은 기술이 법의 감시 능력을 훨씬 뛰어넘는 속도로 발전하고 있어 나쁜 행위자가 악용할 수 있는 허점이 많이 남아 있다는 것입니다.

목소리가 더 이상 증거가 아닐 때

음성은 예전에는 친밀하고 신뢰할 수 있는 수단이었지만, 딥페이크 음성으로 인해 더 이상 유효한 증거가 될 수 없습니다. AI 시대에는 모든 사람이 디지털 보안에 대한 지식을 갖추고, 적극적으로 검증하며, 통화가 함정이 될 수 있으므로 항상 경계해야 합니다.

판하이당

출처: https://tuoitre.vn/lua-dao-bang-deepfake-voice-ngay-cang-tinh-vi-phai-lam-sao-20250709105303634.htm


댓글 (0)

No data
No data

같은 태그

같은 카테고리

무오이응트와 송트렘에서 녹색 관광을 경험하려면 우민하를 방문하세요.
베트남, 네팔전 승리로 FIFA 랭킹 승격 위기에 처한 인도네시아
해방 71주년, 하노이는 현대적 흐름 속에서도 유산의 아름다움을 간직하고 있다
수도 해방 기념일 71주년 - 하노이가 새로운 시대로 굳건히 나아가도록 하는 정신을 고취하다

같은 저자

유산

수치

사업

No videos available

현재 이벤트

정치 체제

현지의

제품