久操视频在线播放_精品综合在线_久久不卡一区_成人情趣视频无遮掩免费

AI換臉詐騙再現!防止盜號是關鍵 這些方法可識破AI換臉_全球快播報
2023-05-26 14:29:37 來源: 貝殼財經

AI火了,騙子也來了!

近日,兩起利用AI換臉實施詐騙的案例引發關注。繼包頭警方發布“福州市某科技公司法人代表郭先生10分鐘內被人用AI換臉詐騙430萬元”后,5月25日,安徽警方也通過當地媒體披露了一起類似案件,詐騙分子使用了一段9秒鐘的智能AI換臉視頻,佯裝“熟人”,導致安慶經開區的何先生被詐騙245萬。

短時間內曝光的兩起AI換臉詐騙案,對今年以來持續火爆的AI技術發展無疑是一種警醒:未來令人“防不勝防”的AI換臉詐騙會否大規模爆發?又應如何防范這類詐騙?


(資料圖片僅供參考)

5月25日,新京報貝殼財經記者采訪反詐民警以及行業專家發現,目前使用AI換臉詐騙的案例并不多,同時在上述兩起詐騙案中受害者均是先入為主認為發來視頻的是朋友的社交賬號才有了后續“AI換臉”的登場,因此源頭上應先防止自己賬號被盜用、警惕他人社交賬號真偽。此外,AI技術的發展也確實降低了AI換臉的門檻,客觀上降低了AI換臉詐騙的成本。

兩起AI換臉詐騙有何共同點?針對性詐騙,賬號被盜是問題關鍵

可以發現,在上述詐騙案例中,詐騙分子對受害者和其好友的身份、日常話術均有深刻了解,才能完成詐騙。此外,在偽造好友身份這一環,通過AI偽造視頻只是增加可信性,但消息確實是從“好友”的微信號發來,才造成了受害者深信不疑。

電信專家付亮表示,在何先生的案例中,首先出現微信直接聯系,然后轉QQ號碼直連,轉賬也未通過微信或QQ(繞開了騰訊的安全判定),“假冒QQ好友的詐騙手法快30年了,都沒有用到AI,互聯網快速發展,更多防護意識較弱的人成為網民,快捷的電子轉賬也為騙子提供了便利。兩起案例中都是盜用賬號詐騙,AI換臉只是輔助?!?/p>

民間互聯網安全組織網絡尖刀創始人曲子龍告訴新京報貝殼財經記者,此類AI換臉的詐騙手段都是定向針對性詐騙,而非傳統意義上“廣撒網,打打電話”的電信詐騙,往往干的也都是“大單”。源頭上需要防止賬號被盜用,不要輕易加陌生人,“也要防止其他人用小號加你,過一段時間改成你親友,然后再實施詐騙?!?/p>

AI換臉詐騙不會大規模出現有哪些方法可以識別對方是AI換臉?

5月25日,某沿海城市反詐專班民警對新京報貝殼財經記者表示,目前并未發現當地有使用AI冒充熟人作案的案例,主要是這種詐騙方式手段特殊,需要特定人群、還需要人臉數據等,要素比較多,因此不會大規模出現。

實際上,AI換臉技術早在2017年就已在網上流行,不論是使用女明星的臉替換成人影星的色情影片,還是為了娛樂使用自己的臉替換電影形象曾流行一時的App“ZAO”,使用的都是同一類技術。

如何識別對方是AI換臉?曲子龍表示,AI換臉目前在連續動作的實時渲染方面還是會存在技術缺陷,比如在說話的時候嘴部動作、眼部動作,如果仔細看都會存在一定的“不和諧”情況,如丟幀、嘴巴時大時小等問題。

有專家提示稱,“AI假臉”的紋理特征存在破綻。例如,偽造后的視頻人物的眼睛或牙齒輪廓細節容易不一致;兩只眼睛瞳孔的顏色不一樣或瞳孔中心反射的細節不一樣;很多偽造視頻由于視頻分辨率低于原始視頻,偽造出來的視頻牙齒邊緣過于整齊等。

不過,一個現實問題是,隨著AI技術的進步,AI換臉的門檻確實也越來越低?!耙郧癆I換臉還需要一兩百張圖片,現在不同角度的照片,一般5到8張就可以生成很不錯的模型了?!鼻育堈f。

曲子龍坦言,“AI發展太快,想要防止臉被盜用太難了,尤其是一些公眾人物、明星、網紅,他們的照片很好獲取。像微博、抖音、朋友圈,或者干脆去偷拍你幾張高清照片,都能通過AI建模實現換臉?!?/p>

付亮對新京報貝殼財經記者表示,對于此類詐騙手法,主要要防范騙子通過微信或 QQ 假冒熟人(親戚、朋友、客戶)詐騙。一方面,有資金往來,應先電話確認;此外,把錢打到陌生賬戶,要反復確認;最后,一定切記,對面和你聊天的不一定是本人,可能是假冒的,甚至可能是機器人,不要輕易相信。

記者聯系郵箱:luoyidan@xjbnews.com

關鍵詞:
責任編輯:zN_2654