首頁>資訊 >
網(wǎng)聊一個月,殺豬盤騙子竟被AI整破防,200萬網(wǎng)友大呼震撼 2023-01-06 14:44:54  來源:36氪

說起「殺豬盤」,大家肯定都恨得牙癢癢。

在這類交友婚戀類網(wǎng)絡(luò)詐騙中,騙子會提前物色好容易上鉤的受害者,而她們,往往是單純善良、對愛情懷有美好幻想的高知乖乖女。


【資料圖】

而為了能和這些騙子大戰(zhàn)500回合,B站大名鼎鼎的科技圈up主「圖靈的貓」訓練了一個聊起天來頻出爆梗,甚至比真人還6的AI。

結(jié)果,隨著AI的一通操作,騙子竟然被這個以假亂真的小姐姐搞得方寸大亂,直接給「她」轉(zhuǎn)了520。

更好笑的是,發(fā)現(xiàn)根本無機可乘的騙子,最后不僅自己破了防,還被AI附送一段「名句」:

視頻一出,立刻爆火,在B站沖浪的小伙伴們紛紛被刷屏。不到一個月,播放量就已經(jīng)接近兩百萬。

三句話,讓騙子v我520

不過,這個過程看似輕巧,但想請騙子入甕,鉤直餌咸肯定是不行的。

為此,「圖靈的貓」也是煞費苦心。

他不僅在多個社交平臺注冊了賬號,而且還根據(jù)公安部發(fā)布的受害者畫像,為賬號定位了單身渴望愛情、多金、高學歷乖乖女等身份標簽。

果不其然,賬號剛注冊好,私信就直接爆炸。

同時,為了避免誤傷,「圖靈的貓」根據(jù)公安部公布的詐騙犯畫像,設(shè)定了嚴格的篩選條件,只有同時滿足以下幾點的人才會讓AI接管對話:

經(jīng)過一系列過濾,最終有14位嫌疑人脫穎而出,他們與AI的對話過程也被全程記錄。

下面我們就看看,其中一位「天選之子」,是采用什么手段「殺豬」,又是怎么被AI小姐姐「調(diào)戲」到七竅生煙的。

值得注意的是,為了讓AI學會「看菜下飯」,「圖靈的貓」喂的語料主要抽取自B站和貼吧的熱門評論,因此這位AI小姐姐和騙子對話時,可謂是爆梗頻出,滿嘴金句。

可以看到,一上來,騙子就套路滿滿,想通過旁敲側(cè)擊,摸清小姐姐的家底。

不經(jīng)意間,騙子「隱隱約約」露富,小秀了一把,AI小姐姐當然是十分配合地捧場啦。

隨后,騙子玩起了「哥很忙」這一套,很可能是去找新的受害者下手了。欲擒故縱這一招,實在是6。

第二天,騙子要開始扮演「志趣相投」的知己了。他看到了AI小姐姐在朋友圈發(fā)的電影截圖,開始往這方面找話題。

他也不藏著掖著,很快打出了直球:「我像蓋茨比,你就是戴西」。很明顯,AI還不會接這種直球,她的回復讓騙子有點懵逼。

第四天,騙子開始反客為主,說起了騷話,對話進入了確立關(guān)系環(huán)節(jié)。

三周后,騙子發(fā)來了金額為520的紅包。

隨后,還用盜來的網(wǎng)圖秀起了肌肉。雖然是網(wǎng)圖,但倒也挺符合人設(shè)的。

在5-8周時,騙子果然開始正式「殺豬」了。

他開始聲東擊西,對AI小姐姐「賣慘」,一開口就是要50w。

而騙子口中的這個元宇宙項目,在好幾周前就埋下伏筆了。

看到對方并沒有上套,騙子說小姐姐不在意兩個人的感情,開始「難過」了。而小姐姐就倆字:沒錢!

騙子再接再厲,開始慫恿小姐姐朝自己的家人下手。

而AI小姐姐此時放出大招:「要不你借我點錢,等我湊齊了一塊投進去?」

發(fā)現(xiàn)自己很難「殺」到「豬」,騙子開始惱羞成怒了。

罵完人之后,騙子開始準備金蟬脫殼,要求小姐姐刪掉記錄,試圖讓以后的立案偵查難上加難。

面對騙子的PUA,AI小姐姐發(fā)出直擊靈魂的疑問:「什么感情」?一句話讓騙子開始無能狂怒。

最終,騙子徹底破大防。AI發(fā)出諸葛軍師的名言,測試結(jié)束。

而這種過程中很有趣的一點是,AI表現(xiàn)得并不完美,時有破綻,但騙子往往選擇忽略——畢竟對他們來說,受害人越不聰明,上鉤概率越大。

而騙子的520元魚餌錢,「圖靈的貓」也捐給了韓紅基金會。

「最新殺豬攻略」

雖然AI大戰(zhàn)騙子的過程看得人大快人心,但殺豬盤的背后,是觸目驚心、充滿血淚的一樁樁案件,甚至一條條生命。

「圖靈的貓」已經(jīng)用AI篩選出了兩位數(shù)的騙子,并把可疑賬號交給了警方。接警小哥說,這類案件每天都有,非常難破,一般都是境外黑號,錢轉(zhuǎn)過去就會很快被洗走。

正是因為這種詐騙犯一般在境外,即使報警也難以破案。而我們唯一能做的,就是建立好反詐意識,給自己內(nèi)心上一道防線。

此外,更可怕的是,騙子的努力,你根本想象不到。為了放長線,他們惡補各種知識,熟知火影海賊、JoJo、扳機社、刀塔、原神、逆水寒。甚至還能心算EBIDA、手寫C++,幫找大廠內(nèi)推。

具體來說,一個完整的「殺豬盤」,有著嚴格的腳本和流程。

首先,騙子會在各種「交友APP」上找到符合上述人設(shè)的女性。這一過程被稱為「找豬」。

加上微信后,騙子會向受害者展示自己朋友圈里的精心展示形象——成熟體貼,溫柔,金融行業(yè)……重重buff疊加,讓女性心動不已。這一過程被稱為「喂豬」。

「喂豬」完成后,騙子就會開始追求女性,通過種種甜言蜜語和體貼的舉動,讓女性產(chǎn)生「天降完美男友」的感受,對騙子建立起完全的信任。

這番高級的PUA之后,就來到了「殺豬」的環(huán)節(jié)。

騙子會以為兩個人的未來努力為名義,引導女性受害者投入錢財。頭一兩筆,會讓受害者掙一點錢。

而當受害者放下防備,可能就會把自己的積蓄盡數(shù)投入,走進騙子鋪好的天羅地網(wǎng)中。

而因為殺豬盤具有模式化、規(guī)則化的特點,「圖靈的貓」選擇用AI來迎戰(zhàn)騙子,正巧是利用了殺豬盤的規(guī)則,屬于「用魔法打敗魔法」。

他訓練出來的AI,仿佛加了一個「思想鋼印」,只要對面說出「投資」「理財」之類的話,AI就會瞬間觸發(fā)機制。

而如今被各類詐騙包圍的我們,也應該給自己打上這些「思想鋼印」,當有陌生人打聽家里情況、談起投資、推薦APP時,要立刻遠離或拉黑。

熱梗濃度超標的聊天機器人

其實在此之前,圖靈的貓也曾經(jīng)開發(fā)過不少文本創(chuàng)作型的AI,但由于缺乏知識圖譜和QA設(shè)計,就連up主自己都吐槽說,它們交流起來宛如一個智障。

為此,up主特地制作了一個全新的的生成式對話AI——AntiFraudChatBot。

基于大規(guī)模預訓練中文模型、語義識別與檢測、對話意圖等技術(shù)的AntiFraudChatBot,比起傳統(tǒng)的BertQA模型或non-prompt模型,在對話的流暢度上有著顯著的提升。

不過,現(xiàn)在還不能高興得太早。雖然AI說話是利索了,但健忘的毛病還沒解決。

眾所周知,微信聊天是以多輪對話的形式進行的。

而如此頻繁連續(xù)的對話,很容易讓AI忘記自己或?qū)Ψ街岸颊f了些什么。

結(jié)果就是,AI答非所問,被對方一眼看穿。

為了解決這個問題,up主參考LSTM的思想,為系統(tǒng)增加了記憶機制,讓AI能夠?qū)崿F(xiàn)簡單的長期對話記憶(比如昨天聊過的內(nèi)容)和短期對話記憶(上一輪對話內(nèi)容)。

具體操作如下:

將聊天記錄放入記憶區(qū),并在每次回復時計算相似度; 超過相似度閾值的歷史對話將被AI讀取使用; 設(shè)定遺忘窗口M,超過M/2輪次的對話將被pop() 。這樣,AI就能夠?qū)崿F(xiàn)簡單的長短期對話記憶,比如昨天聊過的內(nèi)容或上一輪對話內(nèi)容。

至于本次測試應用的場景——「殺豬盤」,則是一種規(guī)則化、模式化的對話博弈。

對于擅長零樣本(Zero-Shot)和小樣本(Few-Shot)學習生成式預訓練模型,比如up主選擇用的2457億參數(shù)的「源1.0」,可以在少量(1~3個)規(guī)則化的example示范下,很好地理解我們希望實現(xiàn)的「對話策略」,比如反套路、用語料拋梗等等。

于是,為了引導模型有針對性地學習如何與騙子對話,up主加入了一種基于prompt example的先驗規(guī)則。而其中用到的example語料,正是之前提到的B站和貼吧的熱門評論。

其實,這么做的原因很簡單:

1. 評論是天然的對話形式,有顯式的回復與被回復關(guān)系。

2. 自古評論出人才,一些金句和梗可以把人機對話變得不那么生硬。

除此之外,為了讓AI更加「像人」,up主還做了以下設(shè)計:

設(shè)定每條信息的回復間隔,模擬真實打字速度 加入通用emoji來替換關(guān)鍵詞(目前還不支持表情包) 當對方在限定時間內(nèi)發(fā)了多段文字時,wechaty會hold住本輪對話直到對方結(jié)束 這種情況下,對方的輸入會被拼接成一句話之后輸入AI,而AI也只會回復一次

最后,up主采用了開源的wechaty框架在云上搭建后端,然后通過本地的python腳本調(diào)用puppet服務,讓AI無縫接入微信。

只需登錄預先注冊好的微信號,AI就可以回復任意私聊或群聊了。

值得注意的是,框架中服務器端、本地端和模型端這3個模塊之間,是可以解耦并進行單獨迭代或替換的。

目前,這個把騙子整破防的應用已經(jīng)在Github上開源。

項目地址:https://github.com/Turing-Project/AntiFraudChatBot

核心:超大規(guī)模中文AI模型

那么,到底是什么基礎(chǔ)模型,讓up主搞出了這個把騙子玩得團團轉(zhuǎn)的AI?

說來也巧,up主在逛Github的時候,偶然發(fā)現(xiàn)了一個非常有趣的項目——AI劇本殺。

這個AI在游戲中所扮演的角色,不僅可以與其他玩家流暢對話,甚至會為了達成任務主動說謊「套路」人類玩家。

而這個項目,用到的便是目前國內(nèi)為數(shù)不多的開源(劃重點)預訓練中文模型——「源1.0」。

AI劇本殺:https://github.com/bigbrother666sh/shezhangbujianle

當然,這里還有一個重點:「源1.0」的API接口不僅使用方便,而且用起來不要錢。

論文地址:https://arxiv.org/pdf/2110.04725.pdf

簡單介紹一下,「源1.0」是浪潮在2021年9月發(fā)布的單體巨量自然語言處理模型。

相比GPT-3模型1750億參數(shù)量和570GB訓練數(shù)據(jù)集,「源1.0」在參數(shù)規(guī)模上領(lǐng)先了40%,而在訓練數(shù)據(jù)集規(guī)模更是領(lǐng)先了近10倍。

單體模型參數(shù)量達到2457億,這意味著模型的表達能力更強。 訓練數(shù)據(jù)達到了5000G,基本涵蓋過去5年中文互聯(lián)網(wǎng)所有的優(yōu)質(zhì)文本知識。

「源1.0」一經(jīng)發(fā)布,便問鼎全球最大規(guī)模的中文AI模型,在獲得中文語言理解評測基準CLUE榜單的零樣本(zero-shot)學習和小樣本(few-shot)學習兩類總榜冠軍的同時,也刷新了八項任務最高精度。

此外,「源1.0」在當時還登頂了中文語言能力理解和生成評測基準CUGE(智源指數(shù))精簡榜總榜榜首,并獲得語言理解(篇章級)、語言生成、對話交互、多語言、數(shù)學推理等5項評測最佳成績。

ZeroCLUE零樣本學習榜單(2021年9月)

FewCLUE小樣本學習榜單(2021年9月)

算法、數(shù)據(jù)、算力及社區(qū)

算法層面,采用Transformer結(jié)構(gòu)的「源1.0」,針對注意力層和前饋層的模型空間進行了結(jié)構(gòu)優(yōu)化,改進了注意力機制聚焦文章內(nèi)部聯(lián)系的學習。

數(shù)據(jù)層面,浪潮針對中文訓練數(shù)據(jù)存在的海量數(shù)據(jù)難獲取、數(shù)據(jù)難清洗和無統(tǒng)一質(zhì)量評估標準的現(xiàn)狀,浪潮自研了海量數(shù)據(jù)過濾系統(tǒng)(MDFS)。

通過建立從數(shù)據(jù)采集、粗濾、質(zhì)量分類、精濾的全自動化的端到端數(shù)據(jù)工作流程,清洗了866TB海量數(shù)據(jù),并由此獲得高達5TB的業(yè)界最大規(guī)模高質(zhì)量中文數(shù)據(jù)集。

算力效率層面,針對大模型訓練中存在計算模式復雜,算力集群性能較低的情況,「源1.0」在大規(guī)模分布式訓練中采用了張量并行、流水線并行和數(shù)據(jù)并行的三維并行策略。

同時,「源1.0」還首次提出了面向效率和精度優(yōu)化的大模型結(jié)構(gòu)協(xié)同設(shè)計方法,圍繞深度學習框架、訓練集群IO、通信展開深入優(yōu)化。在僅采用2x200G互聯(lián)的情況下,讓算力效率達到了45%,遠超MT-NLG與GPT-3等國際知名模型,算力效率世界領(lǐng)先。

除此之外,「源1.0」在發(fā)布后便打造了開源開放平臺,供廣大開發(fā)者開發(fā)不同領(lǐng)域的應用,不僅降低了AI開發(fā)的門檻,而且還有效地提升了AI開發(fā)的效率。

目前,「源1.0」開源平臺已經(jīng)匯集了近3000名開發(fā)者,并且誕生了很多有意思的應用,比如之前提到的AI劇本殺。

網(wǎng)友評論

不得不說,強大的基礎(chǔ)模型再加上B站和貼吧熱評的加持,「小源」不僅能說會道,還熟知互聯(lián)網(wǎng)黑話,句句爆梗。

以后跟網(wǎng)友聊天,非常有必要測一測對面是不是AI了。

也難怪經(jīng)過專業(yè)PUA訓練的騙子都被耍得團團轉(zhuǎn)。

畢竟,公司的培訓材料再強,還能強過人才濟濟的B站和貼吧了?

對此,稚暉君表示,也許未來讓騙子失業(yè)的正是AI。

另外,也有網(wǎng)友分享了自己從未在殺豬盤里中招的訣竅,一個字——摳。

「咱們朋友做的好好的,為啥要提錢呢?你不知道這樣會連朋友都沒的做嗎?」

而四川共青團,也在評論區(qū)義正言辭地進行了反詐宣傳。

用魔法打敗「魔」法

1月6日,在新智元與浪潮聯(lián)合舉辦的AI反詐論壇上,「圖靈的貓」就給我們詳細解釋了上面這個AI大戰(zhàn)「殺豬盤」的故事。

現(xiàn)在你可能會有些好奇,為什么「殺豬盤」的騙子意識不到與自己對話的可能是一個AI呢?

首先,「源1.0」模型本身的知識儲備就非常大,而基于這個模型的知識儲備,就可以做一些更深層的應用。比如,可以用一些短字數(shù)的評論去訓練和引導AI,讓它更加擬人。

如此一來,「小源」就區(qū)別于那些動輒發(fā)表長篇大論的長文本AI,可以用短句和分段表述,聊起天來就更加日常。

其次,在「殺豬盤」中,對于不同關(guān)鍵詞,騙子都是有一套邏輯的。而我們恰恰可以讓AI反著這個邏輯,為騙子準備一套話術(shù)。

當關(guān)鍵詞被觸發(fā)后,我們既可以直接進行人為的觀察和干預,也可以利用AI對騙子進行循循善誘讓他們露出馬腳,從而幫助提升案件的偵破效率。

隨著這幾年大模型的進步,也有不少人陷入惶恐,擔心AI的應用會帶來風險。

對此,浪潮的觀點是「科技向善」——科技是一種工具,能夠更好地幫助人類,為我們帶來價值。

項目代碼:

https://github.com/Turing-Project/AntiFraudChatBot

模型官網(wǎng)

https://air.inspur.com/home

視頻鏈接

https://www.bilibili.com/video/BV1qD4y1h7io/?vd_source=eecf800392d116d832e90ad1c9ae70f6

關(guān)鍵詞: 海量數(shù)據(jù) 能夠?qū)崿F(xiàn)

相關(guān)閱讀:
熱點
圖片 圖片