常見的詐騙套路:
刷單、冒充領導發短信、殺豬盤.....
小伙伴們知道嗎?
近日詐騙份子又玩出了“新花樣”
AI換臉詐騙來了!
趕緊一起來看看都有哪些套路?
據相關報道,近日,一名擁有百萬粉絲的女網紅爆出了一起“AI換臉”事件。這名女網紅表示,突然有很多人說看過她的“視頻”,但她實際上并沒有發布過這樣的視頻。她疑惑地點開了這個視頻,結果發現里面的女生和她長得一模一樣,但做著一些難以描述的動作,讓她感到非常憤怒和無助,她隨即意識到可能是她的臉被人工智能(AI)盜用了。
AI技術發展迅速,近爆火的AI換臉,大家不知道玩過沒有。只需要提供一張帶臉的照片,就可以把自己置換成視頻、電視劇中的男(女)主角,而且擬真度非常高,毫無違和感。
技術改變生活
也改變了騙術
據相關報道,近日,福州的李先生遭遇了冒充領導的詐騙,被騙數萬元。這個騙子冒充李先生的領導“曾某”,偽造微信賬號添加李先生后,直接跟李先生打了視頻,步先取得了李先生的信任。視頻中,李先生看到了正在開會的領導本人,對方稱不便接聽電話,打完招呼后轉入文字聊天。
“曾某”說他有個親戚正在參加一個項目競標,急需周轉資金,自己不便出面,想借李先生的名義將錢轉給親戚。既然都有過視頻確認,李先生也不疑有他,向“曾某”提供的賬戶轉賬數萬元,后發現被騙。
據相關報道,除了用AI換臉事先制作視頻播放,有的軟件還可以實時捕捉替換人臉,并且直接接替攝像頭,用于視頻聊天。這款軟件的操作很簡單,只需要選擇一張你要換臉的照片。這個時候,你做什么動作,這張人臉也會做什么動作,眨眼、張嘴、點頭、搖頭都可以,動作非常逼真。騙子開發利用新技術的速度令人瞠目結舌。我們一直認為,各種冒充類的騙子不敢視頻。但實際上,騙術在精進,在顛覆我們的認知。
拋開事后諸葛亮,如果你是李先生,在領導和你視頻聊天,明確表示他正在開會的時候,你真的會再打個電話去確認他的身份嗎?當然,李先生還犯了一個錯誤,在“曾某”所謂的轉賬沒有到賬的情況下,就給他的“親戚”轉了錢。AI換臉技術大大提高了騙子詐騙的成功率,而這才剛剛開始,技術仍在飛速發展。可以想見,很快AI換臉技術將在各類騙局中大量使用。可能某一天,你的“網戀女友”會視著頻、撒著嬌跟你要紅包,你的“兒子們”要你把學費轉到“老師”的銀行卡里……也可能因此出現新的騙局。
AI詐騙常用手法
種 聲音合成
騙子通過騷擾電話錄音等來提取某人聲音,獲取素材后對聲音進行合成,從而用偽造的聲音實施詐騙。
第二種AI換臉
騙子首先分析公眾發布在網上的各類信息,根據所要實施的騙術,先通過AI技術篩選目標人群,后在視頻通話中利用AI換臉,騙取信任。而顯然人臉效果更易取得對方信任,騙子用AI技術換臉,可以偽裝成任何人,再通過視頻方式進行信息確認,真是防不勝防!
第三種轉發微信語音
微信語音居然也能轉發。騙子在盜取微信號后,便向其好友“借錢”,為取得對方的信任,他們會轉發之前的語音,進而騙取錢款。盡管微信沒有語音轉發功能,但他們仍會通過提取語音文件或安裝非官方版本(插件),實現語音轉發。
第四種通過AI技術篩選受騙人群
騙子不是漫無目的地全面撒網,而是別有用心地鎖定特定對象。他們會根據所要實施的騙術對人群進行篩選,從而選出目標對象。例如,當進行金融詐騙時,經常搜集投資信息的小伙伴會成為他們潛在的目標。
運用AI技術,再加上套路和劇本的演繹,這樣的詐騙手段,小伙伴們,你們還招架的住嗎?
如何保護自己
面對利用AI人工智能等新型手段的詐騙
我們要牢記以下幾點
01多重驗證,確認身份
在涉及到轉賬交易等行為時,一定要格外留意,可以通過電話、視頻等方式確認對方是否是本人。
在無法確認對方身份時,可以將到賬時間設定為“2小時到賬”或者“24小時到賬”,以預留處理時間。盡量通過電話詢問具體信息,確認對方是否為本人。
即便對方運用AI技術行騙,也可以通過提問的方式進一步確認身份。建議大家好向對方的銀行賬戶轉賬,避免通過微信等社交軟件轉賬。一方面有利于核實對方身份,另一方面也有助于跟進轉賬信息。
02保護信息,避免誘惑
加強個人信息保護意識,要謹防各種信息泄露,不管是在互聯網上還是社交軟件上,盡量避免過多地暴露自己的信息。對于不明平臺發來的廣告、中獎、交友等鏈接提高警惕,不隨意填寫個人信息,以免被騙子“精準圍獵”。
03相互提示,共同預防
這些高科技手段的詐騙方式,迷惑了很多人。警察提示各位要多多提醒、告誡身邊的親人、朋友提高安全意識和應對高科技詐騙的能力,共同預防受騙。
做好家中老人的宣傳防范工作。提醒老年人在接到電話、短信時,要放下電話,再次撥打家人電話確認,不要貿然轉賬。
04拒絕誘惑,提高警惕
要學會拒絕誘惑,提高警惕。避免占便宜心理,警惕陌生人的無端“獻殷勤”。