首頁>消費(fèi) >
細(xì)思極恐 騙子花30元就能買到你的“露臉視頻”-焦點(diǎn)觀察 2023-05-24 11:50:41  來源:中新經(jīng)緯

某天,你的一位熟人發(fā)來借錢的請(qǐng)求,隨后對(duì)方打來了視頻。視頻接通后你確認(rèn)長(zhǎng)相和聲音就是熟人“本人”,你沒有懷疑把錢轉(zhuǎn)了過去。沒過多久,你發(fā)現(xiàn)自己被騙了,剛才視頻里那位“熟人”并不是真的他。

這可不是鬼故事,而是已經(jīng)發(fā)生在多位受害者身上的真實(shí)案例。


(資料圖片僅供參考)

只需一張照片、10分鐘聲音素材

近日,一則10分鐘被AI騙走430萬元的新聞刷屏。據(jù)警方通報(bào),受害人郭先生遇到的就是上述情形,騙子通過智能AI換臉技術(shù),佯裝成好友對(duì)他實(shí)施了詐騙。

尤其值得警醒的是,據(jù)公開報(bào)道顯示,利用AI 技術(shù)實(shí)施詐騙,此前已有多起相似案例。而這些案件背后,均涉及了AI換臉以及聲音合成技術(shù)。

目前,AI換臉隨處可見,在短視頻平臺(tái),不少用戶都體驗(yàn)過換臉帶來的新鮮感。這項(xiàng)技術(shù)也越來越成熟,僅需提供一張照片,就可以讓你變成視頻中人,或直接生成會(huì)眨眼、張嘴的視頻。

七七(化名)專門在網(wǎng)上接單用AI幫別人生成視頻,“只需提供一張背景干凈的正面照,我就能生成視頻,不僅眼睛、嘴巴都會(huì)動(dòng),還能時(shí)不時(shí)動(dòng)動(dòng)頭,非常自然。另外如果你提供文字,我還可以讓視頻中的人物口型對(duì)上,配合度很高,可以連續(xù)播放1分鐘?!逼咂哒f,他目前做這個(gè)工作已經(jīng)非常熟練,“一個(gè)晚上就能完工”。

除了快速AI換臉,用AI手段合成或克隆聲音也越來越常見。

一位商家向中新經(jīng)緯介紹,只需要提供某人一段10分鐘至30分鐘的聲音素材,要求沒有雜音,就能用2天左右時(shí)間生成一個(gè)專屬模型,后續(xù)輸入任何文字,發(fā)出的都是這個(gè)人的聲音。

“這個(gè)辦法屬于一勞永逸,而且這個(gè)模型不僅能讀文也能唱歌。一般來說,提供的素材時(shí)間越長(zhǎng),最終相似度越高?!鄙鲜錾碳医榻B。

成本低至數(shù)十元

據(jù)中新經(jīng)緯了解,目前制作一套“露臉且說話”的視頻成本不高。七七表示,用照片生成一段1分鐘時(shí)長(zhǎng)的視頻僅需30元左右,如果視頻時(shí)間比較短,且畫面質(zhì)量要求不高,這個(gè)價(jià)格可以再降,幾塊錢一段都可以。上述商家也表示,生成一個(gè)專屬模型也只需要幾十元。

這意味著,如果有人蓄意生成你的長(zhǎng)相搭配你的聲音的視頻,花費(fèi)也僅需數(shù)十元。

不過,對(duì)于前述警方通報(bào)的案例,網(wǎng)友們也有疑問。比如不法分子是如何獲得的郭先生好友的照片及聲音素材?本應(yīng)是即時(shí)的視頻聊天,郭先生的手機(jī)里為何播放的是合成好的視頻?

電信分析師付亮對(duì)中新經(jīng)緯表示,假冒某人聲音、圖像實(shí)施詐騙在十多年前就已經(jīng)出現(xiàn),嚴(yán)格說目前AI詐騙并不是新類型?!巴▓?bào)中沒有詳細(xì)說明不法分子是如何獲取郭先生好友個(gè)人信息的,但有一點(diǎn)可以肯定,這位好友的社交媒體賬號(hào)被盜了。不法分子可能是從社交媒體里直接獲取了個(gè)人信息,也可能之前以騷擾電話的方式與郭先生的好友聯(lián)系過,獲取了其聲音信息?!备读练治?。

而至于為什么接通視頻通話,播放的卻是已經(jīng)合成好的視頻,付亮分析認(rèn)為可能是通過插件實(shí)現(xiàn)的。

據(jù)中新經(jīng)緯了解,目前虛擬攝像頭就可以做到這一點(diǎn)。利用一個(gè)程序,可以在視頻通話中讓對(duì)方看到任何你想播放的視頻,其中也包括通過AI換臉和聲音克隆合成的視頻。

應(yīng)對(duì)“高端”詐騙往往還得靠最樸素的手段

蓄意制作別人人臉、聲音的視頻是否違法?

北京嘉維律師事務(wù)所律師趙占領(lǐng)對(duì)中新經(jīng)緯表示,目前未經(jīng)他人許可使用其肖像,即使不以營(yíng)利為目的,也侵犯肖像權(quán)。但對(duì)于聲音來說,目前則不受著作權(quán)法保護(hù)?!暗行┚哂酗@著性的聲音申請(qǐng)注冊(cè)了商標(biāo),這種情況下是聲音是受法律保護(hù)的?!壁w占領(lǐng)說,如果將合成的視頻用于詐騙,且達(dá)到一定的數(shù)額標(biāo)準(zhǔn),那就涉嫌刑事犯罪。

目前,針對(duì)AI詐騙,包括北京反詐在內(nèi)的各類平臺(tái)已向公眾發(fā)出提醒,甚至稱“詐騙成功率接近100%”,并給出了一些提示。值得注意的是,由于對(duì)新技術(shù)辨別能力不強(qiáng),這種新型AI詐騙給中老年人更是帶來挑戰(zhàn)。

在日常生活中,公眾除了要注意個(gè)人信息保護(hù),不輕易提供人臉、指紋等個(gè)人生物信息給他人,不過度公開或分享動(dòng)圖、視頻外,還要增強(qiáng)意識(shí),尤其是涉及財(cái)務(wù)往來,務(wù)必通過電話、見面等最樸素的途徑核實(shí)確認(rèn),不要未經(jīng)核實(shí)隨意轉(zhuǎn)賬匯款,不要輕易透露自己的身份證、銀行卡、驗(yàn)證碼等信息。

此外,也要進(jìn)一步提高和掌握辨別AI合成視頻的能力、技巧,目前AI合成的視頻雖已比較逼真,但在細(xì)節(jié)處如色彩分布、肌膚紋理、表情自然連貫性仍有較為明顯的瑕疵。

(文章來源:中新經(jīng)緯)

關(guān)鍵詞:

相關(guān)閱讀:
熱點(diǎn)
圖片