歐洲刑警組織在一篇報告中警告,像ChatGPT這類基於人工智慧的系統很可能會被犯罪組織濫用。ChatGPT是一種大型語言模型(LLM),用以處理、操作及生成文字。它能夠回答絕大多數問題、翻譯文字、進行對話交流、甚至是生成程式碼。同時,這種技術也可能被犯罪分子用於社會工程攻擊、虛假資訊宣傳、開發惡意程式碼等犯罪活動。
3月27日,歐洲刑警組織創新實驗室與相關專家組織了一系列研討會,探討犯罪分子會如何濫用 ChatGPT 等大型語言模型,以及它如何協助調查人員的日常工作。會議報告名為“ChatGPT - the impact of Large Language Models on Law Enforcement(ChatGPT - 大型語言模型對執法的影響)”,該報告概述了 ChatGPT 的潛在濫用,並展望了未來可能發生的事情。
歐洲刑警組織的專家們指出,ChatGPT可能為以下三個犯罪領域提供了便利:
1、欺詐和社會工程:ChatGPT高度逼真的文字生成能力使其成為網路釣魚的有力工具。LLMs語言模式再現能力可用於模仿特定個人或群體的說話風格。
2、假情報:AI擅長快速批次生成真假難辨的聲音文字,使用者能夠藉以生成及傳播特定敘述的資訊,這使其非常適合宣傳虛假資訊。
3、網路犯罪:只要提供明確的需求,ChatGPT 就能夠使用多種不同的程式語言生成使用者所需的程式碼。對於欠缺技術知識的潛在犯罪分子來說,它就是生成惡意程式碼的有力工具。
歐洲刑警組織的報告旨在提高人們對LLMs潛在濫用的認識,與人工智慧公司開展對話,幫助他們建立更好的保障措施,並促進安全可靠的人工智慧系統的發展。報告中特別強調了執法機構需要了解這些技術的積極和消極應用,以便應對未來的挑戰。可以看到,儘管目前AI的發展未臻完美,但其能力與日俱進,任何人都十分有必要提高對其的認知。
編輯:左右裡
資訊來源:歐洲刑警組織
轉載請註明出處和本文連結
每日漲知識
審計(audit)
對環境的系統檢查或審查,以確保遵守法規,並檢測異常、未授權的事件或直接犯罪。
﹀
﹀
﹀