細思極恐,AI“花式詐騙”的N種方式

AIBigbull2050發表於2019-09-06


當科技手段用於詐騙,眾多普通人可能都無法辨別。科技從來都有兩面性,迴歸技術本身,也許是防範的最好手段。

最近關於AI的負面新聞著實有點多。不是“合成老闆聲音騙走173萬”,就是“過度採集資訊侵犯學生隱私”……作為一個長期關注AI進展的科技媒體,我們一邊替AI著急,同時又覺得心裡的另一隻靴子落了地——“該來的總會來”。

在很長一段時間內,大家更願意將目光聚焦在AI的技術進步上。比如“AI語音合成”,相關的新聞大家一定也看過很多了,“聊天App推出變聲成明星功能”,“僅用1分鐘AI就能模仿你說話”,“谷歌語音克隆實現情感表達”等等,無不伴隨著對技術的樂觀期盼,相關技術成果也被研究者們慷慨地分享在開源平臺上。

形勢一片大好中,這次“AI語音詐騙”事件恰恰給我們提了個醒:

技術的進步與普及速度,已經遠遠走在了普通人的認知前面。在社會高度智慧化、技術應用門檻越來越低的今天,AI也必然成為詐騙者的目標和幫兇,危及個人資產安全只是遲早的事。

對於個人來說,為了爭取不被騙子收割,預先了解AI有哪些能力,就是必不可少的一課了今天就來說說,有哪些辨別起來難度較大的AI騙局。

難度係數一星:偽造郵件釣魚郵件

即駭客偽造官網傳送郵件,其中攜帶惡意木馬或虛假內容來竊取資訊,早已經不是什麼新鮮的攻擊手段了。以現有的安全技術,檢測並防禦來自釣魚郵件的威脅,幾乎不費吹灰之力,近兩年類似的騙局也很少出現在大眾眼前。

可是,如果郵件這一用途與人工智慧相結合,使攻擊者能夠訪問公司網路並說服員工授權轉賬,那帶來的後果就會非常可怕了。

2017年,美國南俄勒岡大學就被誘騙進行了190萬美元的轉賬,他們認為自己的轉賬物件是負責建設學生娛樂中心的安德森建築公司,實際上卻轉到了騙子的銀行賬戶。該事件導致FBI向其他大學與機構發出了風險警告。

而在此前,已經有78起類似的騙局發生,電纜製造商Leoni和科技公司 Ubiquiti Networks 之類的公司,曾被騙走了數億美元。

這種商務電郵詐騙(BEC)到底是如何實現的呢?

首先,騙子很容易找出與機構有業務聯絡的工程專案公司,然後冒充既定廠商向機構財務部門傳送支付賬單,機構信以為真之後就會將後續的款項轉賬到騙子的銀行賬戶,等意識到被騙的時候,通常已經追不回來了。

之所以能夠達到如此逼真的效果,除了騙子會註冊一個與官方類似的域名來假冒郵件地址之外,人工智慧的參與也起到了非常大的幫助。

攻擊者透過Twitter、LinkedIn、Facebook等社交媒體,就能夠全面瞭解目標的業務往來資訊,有些企業和機構的官網也會公開(暴露)自己的組織機構和管理人員,而年齡、性別、博文等等多維資料都可以被注入到機器學習訓練模型之中。

細思極恐,AI“花式詐騙”的N種方式

比如一名高管在Twitter 上公開了他的日程、演講計劃、旅行計劃等,系統就能分辨出他何時在參加會議或是在工作,從而調整攻擊策略,然後藉助AI語言模型生成連貫的令人信服的內容。

最常見的是要求更改付款賬戶或是進行緊急付款,而高管人員正在假期或長途飛行時很難聯絡到本人,毫無防備的受害者很容易就會因“事態緊急”而選擇聽從號令。

由此產生的攻擊能幫助攻擊者繞過一些基於簽名的檢測系統,成功騙過當前的一些反垃圾郵件遙測技術。而且,它還能不斷學習,如果攻擊有效,資訊就會被反饋到模型中,進一步提升未來攻擊的準確性;失敗的資料也會反饋回來,以便機器可以學習哪類資訊是不奏效的。

別覺得這個套路過於簡單。聯邦調查局的資料顯示:2018年由偽造電郵騙局造成的損失超過了125億元(其中最大的一筆高達50億美元),是2017年的兩倍多。最關鍵的是,由於不帶有釣魚頁面或檔案,因此這種騙局很難透過安全軟體來進行甄別,地址和內容看起來都是“合法的”。

想要不上當,只能依靠個體的警覺了。如果掌握公司財務的是一個對技術近況不甚了了的“傻白甜”,結果可想而知。

難度係數二星:偽造筆跡

如果說提高警惕、仔細核驗,郵件詐騙在很大機率上能夠防範的話,那麼AI偽造筆跡這種個性化特徵,可能連極為熟悉你本人的親朋都容易上當。

英國UCL大學研究人員就開發出了“My text in your hand writing”人工智慧演算法,能夠分析一個人的字形及其特殊的書寫方式,生成字形、字號、顏色、筆線紋理、垂直及水平間距等完全相同的筆跡,這是迄今為止對人類筆跡的最精確複製。

細思極恐,AI“花式詐騙”的N種方式

而早在2017年上海舉行的GeekPwn2017國際安全極客大賽上,就有團隊透過類似的筆跡模型寫出了一張以假亂真的欠條。這個自帶書法筆跡深度學習系統的手臂 “DeepWritting”,首先從現場一位作家的真人筆跡中進行學習,掌握了作家筆跡的每一個細節和習慣,然後很快寫下了一張欠條,即使是現場請來的專業筆跡鑑定師,也無法發現有任何與真跡不符的地方。換句話說,如果騙子利用該模型偽造一張欠條,法律上也難以判定它是假的。

當然,欠條只是小case,恐怕罪犯也不願輕易勞心勞力地只坑一個人。但如果是偽造出具有較高精準度的法律或金融檔案,比如財務合同簽名、遺囑、歷史人物的手跡等等,就為司法證據的鑑定和非法證據的排除帶來了不少困難,有可能改變事實的關鍵走向。

歷史上就曾發生過《明星》畫刊編輯花費數百萬購買了大量包含希特勒筆跡的資料,歷時數月學習和模仿,偽造了一本多達62冊的希特勒日記,並將之作為獨家新聞公之於眾,在當時引起了全球性軒然大波。但很快歷史專家透過材料鑑定,發現該日記的紙張裡含有當時尚未發明的材料,才讓真相大白。

細思極恐,AI“花式詐騙”的N種方式

但隨著AI生成演算法能力的提升,未來想要靠專業鑑定師來識別出字跡的真偽,恐怕就不是一件容易的事了。

難度係數三星:機器人電話

當然,無論是郵件,還是手寫授權,在現代人的生活場景中都在逐漸淡化。不過,上述詐騙方式還沒遭到破解,就有更難以辨別的新手段出現了。

機器人電話,就是AI語音合成技術一種比較廣泛的應用。有些場景只是有點煩人,比如利用AI機器人進行推銷。想必大家都沒少經歷過,接通一個看似官方的來電,聲音那頭會非常自然地跟你打招呼“你好”,停頓之後,如果你客氣地回應“哪位”,對面的機器人就會將你引導到手機簡訊,鼓勵你辦理業務。

而有些手段就涉及到詐騙犯罪了,比如用虛假借口索取金錢或個人資訊。由於電銷機器人技術已經非常普及,幾乎不需要高投入就能行騙,也導致此類騙局正在泛濫。

比如今年4月份鄭州市公安局破獲的一起詐騙,某公司就是先從網上購買AI機器人電話軟體,由電話機器人自動操作。以每天1000-1500個的速度撥打客戶電話,一旦有客戶沒有拒絕接聽並表示感興趣;這些聲音甜美、說話熱情的AI語音機器人就會記下該電話號碼,然後由業務員主動新增該客戶的微信吸引他們充值投資;一旦資金到賬,就迅速拉黑對方。

2018年,美國聯邦委員會還向四家在全美境內提供非法機器人呼叫電話投放服務的運營商發起了訴訟。這些公司會向人們推銷虛假的能減免債務的服務,亦或是偽裝成慈善機構欺騙大家捐贈汽車等財務,再把它們賣掉。還有的聲稱自己是谷歌的“資料服務代理”,詐騙小企業主支付數百美金來最佳化其搜尋排名。

更讓人無奈的是,目前除了使用者主動進行“詐騙號碼”標記之外,並沒有其他能真正有效阻止非法機器人電話的方法。

難度係數四星:語音克隆

上述技術和語音克隆比起來,還是小巫見大巫了。

因為機器人語音系統還可能存在卡頓、音色機械化、語氣表現力不足、多輪對話“鬼打牆”等問題。但到了克隆級別, 不僅說話的聲音達到了真人水準,甚至還能模模擬人的情感和語調,自動說出全新的語句。

文章開頭提到的,AI偽裝成母公司“老闆”電話,講出帶有德國腔的英文;要求必須在一個小時之內給“匈牙利供應商”轉賬,成功騙走22萬歐元,採用的就是語音克隆技術。

除了能夠利用神經網路對原始音訊進行建模和模仿之外,AI還能夠分析本人的社交網路,很快掌握個性化的說話方式、與周圍人的關係、興趣愛好等等,從而模仿你與身邊的人自然地交流。

別說是工作夥伴了,就連親媽,可能都聽不出克隆出來的語音與本人有什麼區別。Buzzfeed的科技記者Charlie Warzel就曾使用一款免費的語音合成軟體,模仿了自己的聲音,然後打電話給自己的媽媽,結果對方居然沒聽出來。

目前,谷歌的WaveNet、Lyrebird語音合成軟體,Adobe的 Project VoCo,以及百度的Deep Voice,科大訊飛、騰訊等等都提供語音合成的開源應用。

順著這個思路往下延伸,或許有一天,AI可以模仿我們給朋友寫信、玩轉社交媒體,替我們簽名,甚至能夠代替我們和親朋好友聊天……這一切似乎很美好,但如此容易獲取的技術,無異於將很多個人安全資料都交到詐騙罪犯手中,又會是一種多麼可怕的存在?

AI詐騙這場仗,未來該如何打?

當然,說了這麼多,並不是為了讓大家對AI敬而遠之。絕對的“技術安全”本身就是一個偽命題,因噎廢食並不可取,也並不現實。

或許,當我們將AI作為一柄神兵利器釋放出來的時候,就註定就走上一條“以子之矛攻子之盾”的道路。

如何將“安全之盾”鑄造地更加強大呢?

如果說技術的發展是問題的起源,它也將成為解決問題的歸宿。最典型的,除了加強個人安全警示教育之外,許多新的技術方法也開始被應用在防範AI詐騙上。

比如安全公司賽門鐵克,最近就提出了採用區塊鏈技術和IP語音(VoIP)呼叫的方法,就是來辨別來電者的真實性,從而減少哪些模擬來自上級的詐騙電話。

再比如,卡迪夫大學和查爾斯三世大學的科學家透過NLP技術來判斷書面謊言,透過一個名為VeriPol的工具來識別語句中的各種特徵,判斷出報告是否真實。對於一些偽裝真人發出的詐騙郵件或書面檔案,更強大的AI模型顯然能起到很好的反制的作用。

當然,在不明確技術氾濫後果的前提下,合理地釋放技術成果也成為一些科技企業的選擇。比如OpenAI前段時間推出的效能更高的無監督語言模型GPT-2,就沒有按照行業慣例進行開源,只發布了簡化版,不釋出資料集、訓練程式碼以及模型權重,目的就是避免“這一技術被人惡意利用”。

除了技術人員與駭客們鬥智鬥勇,產業界也開始從規則建設的層面,為濫用AI的行為設立了禁區。

FTC和FCC近年來都加強了對非法機器人電話的監管行動,向八家小型電信運營商和網際網路通訊公司發出通知,敦促他們追捕並關閉可疑的欺詐電話來源。

在美國安全中心釋出的《人工智慧與國家安全》報告中,也明確將人工智慧偽造技術列為威脅國家安全的重點技術。

中國也開始透過政策管理和技術限制等途徑進行佈局,來應對人工智慧的潛在安全風險。

這次“AI語音詐騙”事件讓全球人民真切地經受了一次以AI為名的安全教育。

總的來說,攻擊者與防禦者手中的武器都在升級迭代,而圍繞AI生成的網路欺騙與安全問題有著太多意想不到的可能性,這場全新的鬥法,或許是時候從技術維度,走向常識、倫理、規則等更廣闊的領地了。





來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2656223/,如需轉載,請註明出處,否則將追究法律責任。

相關文章