“AI換臉”騙局來了!山東臨沂真實案例曝光!
俗話說
(相關資料圖)
耳聽為虛,眼見為實
但是近日臨沭警方
接到張先生報警的這件事
居然“眼見”也為假
“他先給我打了視頻電話,確實是他本人。”5月23日上午11點左右,山東省臨沂市臨沭縣張先生收到了自稱是有過交集的“熟人”的微信好友添加申請,張先生通過其好友申請后,對方打來了視頻電話,視頻畫面中看起來對方在說話,但是張先生這邊卻聽不到聲音。
很快對方將視頻電話掛斷,稱信號不好,發來一張圖片讓張先生添加他的QQ賬號(實際為群聊)。張先生按“熟人”提供的賬號加入群聊后,“熟人”先是進行了寒暄,并希望第二天能安排時間面談。正在張先生心存感激表示感謝“熟人”關心的時候,對方提出來有個事需要張先生幫忙處理。
“熟人”說,自己現在走不開,希望張先生能幫個忙。“熟人”先轉一筆錢給張先生,經由張先生再轉給他的朋友,這樣方便他日后收回。因為剛剛通過視頻電話,并且對方提出來第二天還要見面談事情,張先生沒有想太多,就一口答應了,并問他具體需要自己做些什么。
“熟人”向張先生要了銀行卡賬號和開戶名,隨后發給張先生一張轉賬22萬的賬單截圖。“已經轉過去了,收到沒?”“熟人”問張先生。張先生表示還沒有收到到賬提示。“我這邊顯示到你賬上了,剛才忘記點加急,可能要24小時才可以到。”“熟人”希望張先生先墊付,等他的“轉賬”到賬后再扣除。
張先生不疑有他,到附近銀行將手頭上現有的10萬元轉到了相應賬戶里,并回復說已實時到賬。當張先生從銀行出來收到對方回復的時候,突然反應過來事情不太對勁,通過電話核實,張先生發現自己果然被騙了!
AI技術如何介入新騙局?有什么新的詐騙方式?注意了!
1.聲音合成
騙子通過騷擾電話錄音等來提取某人聲音,獲取素材后進行聲音合成,從而可以用偽造的聲音騙過對方。
2.AI換臉
人臉效果更易取得對方信任,騙子用AI技術換臉,可以偽裝成任何人,再通過視頻方式進行信息確認。騙子首先分析公眾發布在網上的各類信息,根據所要實施的騙術,通過AI技術篩選目標人群。在視頻通話中利用AI換臉,騙取信任。
除了AI換臉、合成語音外,還有一些詐騙手段也可謂防不勝防,就在前不久就有騙子通過轉發微信語音的方式行騙。
在盜取微信號后,騙子便向其好友“借錢”,為取得對方的信任,他們會轉發之前的語音,進而騙取錢款。盡管微信沒有語音轉發功能,但他們通過提取語音文件或安裝非官方版本(插件),可實現語音轉發。
4.通過AI技術篩選受騙人群
騙子不是漫無目的地全面撒網,而是別有用心地鎖定特定對象。他們會根據所要實施的騙術對人群進行篩選,從而選出目標對象。例如,當進行金融詐騙時,經常搜集投資信息的小伙伴會成為他們潛在的目標。
警方提示:
針對花樣翻新的智能AI詐騙,公眾要提高防范意識。
1.不輕易提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻等;
2.網絡轉賬前要通過電話等多種溝通渠道核驗對方身份,一旦發現風險,及時報警求助;
3.如果有人自稱“熟人”“領導”通過社交軟件、短信以各種理由誘導你匯款,務必通過電話、見面等途徑核實確認,不要未經核實隨意轉賬匯款,不要輕易透露自己的身份證、銀行卡、驗證碼等信息;
4.如不慎被騙或遇可疑情形,請注意保護證據立即撥打96110報警。
關鍵詞: