AI帶來的詐騙技術革新,近八成當事人上當受騙

Editor發表於2023-05-06

最近,我們能經常在各影片平臺上看到有關AI換臉、AI翻唱的影片,例如這種:


AI帶來的詐騙技術革新,近八成當事人上當受騙


只要有足夠的樣本,AI語音合成技術幾乎可以完美模仿一個人的聲音)


還有這種:


AI帶來的詐騙技術革新,近八成當事人上當受騙

影片片段來源:B站up主“使用者名稱未填寫”


是不是有種真假難辨的感覺?


隨著人工智慧技術的不斷髮展,AI換臉和AI語音合成技術已經越來越成熟,這些技術的應用範圍也越來越廣泛,在影片製作、虛擬現實等領域帶來了很多便利。將其用在適當的地方,能夠產生許多意想不到的效果。例如,已經有人在考慮利用這種技術,保留下來已故親朋好友的音容笑貌,以作慰藉。


但是,這些技術也帶來了一些潛在的風險——大家有沒有想過,如果不法分子將這種技術運用到詐騙上,將會有多可怕?


想象一下,某天一個詐騙團伙,謊稱你遭遇重大事故,急需一筆錢救急。你的父母可能曾聽你提醒過電信詐騙的事情,一開始可能滿心警惕。但接著,還不等你家中老人試探,詐騙者主動發起了影片或者語音聊天邀請。螢幕裡邊的人,跟自己的子女長得一模一樣,說話的聲音也一模一樣,你說他們會不會有可能信以為真呢?要知道在以前騙子僅是傳送幾段文字都會有不少人上當受騙,如今面臨這種情況,無法跟上科技發展腳步的老一輩們,毫無疑問會再度被詐騙團伙所迷惑。


同樣的,如果有某位“領導”突然聯絡你需要進行一筆轉賬,他的聲音與平時你所認識的那位領導如出一轍,你會不會照做呢?


AI帶來的詐騙技術革新,近八成當事人上當受騙


除了上述情況之外,AI技術還可能會被用來傳播虛假新聞、製造虛假證據等方面。因此,在未來會需要加強對AI技術的監管和控制,以保護個人隱私和社會安全。


AI帶來的詐騙技術革新,近八成當事人上當受騙


而根據美國安全公司McAfee最近的一份研究報告,約有77%的詐騙目標就栽在了AI合成語音上並且損失了財產。眼下,為了避免成為詐騙的受害者,我們也有必要警惕此類風險,以下是一些防範措施:

1、 不要輕易相信陌生人的身份。涉及到金錢來往時,即使對方能夠提供影片或語音自證,也要保持警惕進一步核實身份。

2、平時儘量避免洩露個人資訊。這些資訊有可能會被不法分子用作合成素材。

3、注意語音和影片的細節。如果你懷疑對方正在透過AI換臉或者AI語音合成技術進行詐騙,可以仔細觀察影片和語音的一些細節,比如背景、光線、聲音等,輔助判斷真假。

4、及時報警。當你發現自己成為了詐騙的受害者時,要及時報警,以便警方採取措施阻止不法分子繼續作案。



編輯:左右裡

資訊來源:McAfee

轉載請註明出處和本文連結

相關文章