ChatGPT (Generative Pre-trained Transformer的縮寫)是人工智慧研究實驗室Open AI在2022年11月釋出的全新聊天機器人模型。此後,該平臺在 5 天內獲得了超過 100 萬的使用者,席捲整個網際網路。ChatGPT基於人類編寫的來自網際網路的大量資料進行訓練,透過使用強化學習和人類反饋,可以生成人類相似文字,進行翻譯、總結和回答問題等。然而ChatGPT或任何大型語言模型都可能會對內容稽核帶來一些潛在挑戰。ChatGPT 能夠生成各種型別和基調的文字。雖然它有可能生成有用或資訊豐富的內容,但它也可用於生成有害、誤導或其他不當內容。如果未來品牌的廣告出現在ChatGPT或其他人工智慧生成的不準確或不適當的內容旁邊,則可能會損害品牌的聲譽和信譽,甚至會造成法律風險和收入損失。在數字營銷領域,我們也稱之為廣告的品牌安全問題。在未來人工智慧的時代,品牌安全所面臨的挑戰會有任何不同嗎?

主要觀察如下:

人工智慧演算法存在偏見和誤導資訊,所生產的內容提高了品牌安全風險

演算法以訓練資料為原料,從網路文字學習的大型語言模型或由於使用存在偏見的內容,從而產生偏見甚至誤導和虛假資訊。廣告出現在不安全資訊旁,對品牌造成負面影響。

和周邊內容語義相關的廣告有效提高廣告記憶度,品牌喜愛度以及品牌推薦意向

無論廣告主是否採用品牌安全解決方案,語義的效應及對廣告的影響是真實存在的。語義相關的廣告可提升30%-40%左右的廣告細節和全域性記憶。品牌喜愛度和推薦度也相應提高10%左右。

數字營銷的發展和網際網路的發展密切相關,語義識別技術也隨之逐步演進,品牌安全風險在人工智慧時代將依舊存在,甚至放大

網際網路逐漸趨向web 3.0,以去中心化的使用者為核心。AIGC技術加速了內容產生和分發的速度,同時進一步加大了品牌安全風險及識別難度。

人工智慧是品牌安全的雙刃劍,AI公司和中國政府都已採取措施監管和控制AIGC的安全和發展

人工智慧的發展一方面加快了AIGC的發展和商業應用,但也增加了廣告暴露在不安全環境的機率。內容稽核方和廣告驗證公司也應相應利用和提高AI技術來提升內容判定的能力。OpenAI公司正在研究演算法以識別AIGC,與此同時,中國在2023年1月正式實施《網際網路資訊服務深度合成管理規定》。

人工智慧的偏見

儘管OpenAI試圖限制chatGPT生成公然冒犯性或歧視性言論的可能性,但根據chatGPT官方平臺的闡述,它仍然存在一些侷限性,比如它還是可能偶爾會產生不正確的資訊,併產生有害的指令或有偏見的內容。ChatGPT作為大型語言模型,它的基礎是透過網路上的文字進行學習,在給定前一個詞的情況下,預測一系列詞中的下一個詞, 可以說GPT的輸出是機率分佈,並且每次的輸出結果都不同。而網際網路上充斥著大量顯露人性黑暗面和偏見的表達,而這些有害的資訊也可能被AI所學習模仿,從而產生對社會和廣告主的營銷有負面作用的內容。大型語言模型的發展正在比人類的思考走的遠遠靠前,ChatGPT狂歡的背後,未來廣告主或將面臨更深度複雜的品牌安全風險。

定義品牌安全

國際自律組織Trustworthy Accountability Group(簡稱TAG)將“品牌安全”定義為數字廣告供應鏈中的公司用來保護品牌免受與特定型別內容和/或相關投資回報損失相關的消費者意見負面影響的控制措施。品牌安全解決方案和報告則能夠幫助品牌遮蔽不可接受或者不恰當的廣告環境內容(人們普遍同意應該被遮蔽的內容)

品牌安全的價值- 語義相關的廣告可提高廣告回憶度

上下文匹配在廣告體驗中扮演什麼角色,消費者的大腦如何反應?為了解答這個問題,美國數字廣告驗證公司Integral Ad Science 於 2021 年 9 月對語義相關的廣告進行了一項生物識別研究。研究發現,當廣告的資訊能解決當前頁面內容的問題時,這種資訊匹配的廣告會引發強烈的細節記憶反應——對比完全沒有語義匹配時提高了36%的細節記憶(左圖)。當廣告和文章有相似的主題時,對比完全不匹配的文章則多提升了 40% 的全域性記憶(右圖)。

品牌安全的價值- 語義相關的廣告顯著提高品牌好感度和消費者購買意願

為了探尋語義相關廣告對注意力和營銷成果的營銷的影響。IAS 在 2022 年 5 月再次進行了研究。透過實驗設計和調研發現,語義相關的廣告對比不相關的廣告,消費者對於測試品牌的喜愛度提升了5%,購買測試品牌的意向增加了14%,廣告記憶度提升了4倍。

無論廣告主或代理公司是否採用相關的品牌安全監測解決方案,我們需要認識到一個事實:語義的效應及對廣告的影響是真實存在的。

網際網路和品牌安全技術的演進

在考慮品牌安全問題時,我們必須考慮技術,尤其是網際網路 Web 1.0 到 Web 3.0 的演變。以及隨網路技術發展而導致的數字營銷演進,以平臺為主的經濟逐步向去中心化的使用者靠攏,內容加速產出和分發。

網際網路第一代Web 1.0是使用者只能讀取資訊的時代,網路新聞門戶也蓬勃發展。新浪,騰訊,網易,搜狐等公司也在那個時代迅速崛起。

值得注意的是,在1994年,在HotWired的網站上,世界上第一個Banner廣告誕生了,並且點選率達到了44%。它也徹底改變了品牌安全的生態和營銷的方式。那個時代的語義品牌安全技術主要透過域名的列表遮蔽和對單個頁面的文字分析。

進入Web2.0時代,使用者可以自主建立網際網路中的內容, 平臺不僅給予使用者讀取權,同時也賦予了寫入的權力,社交平臺,短影片讓人類的互動模式發生了再一次的里程碑變化。而使用者生成內容作為 Web 2.0時代的產物很快誕生了。蓬勃發展的UGC內容和重視終端使用者體驗也大大增加了廣告出現在不當內容旁邊的機率,因為人們有更多的言論和創作自由。

在這個時代,品牌安全史上的一項重要發展是2011年程式化廣告的興起,它指的是使用演算法和機器學習來自動化廣告的買賣。程式化廣告讓品牌更容易定向特定受眾,但從品牌安全的角度。也更難確保廣告不會與不當內容出現在一起。在這段時期,上下文品牌安全技術更為豐富,比如競價前不良類別的規避、站點和應用程式包含和排除列表、URL和關鍵字遮蔽、自定義品牌類別等。機器學習、神經網路等人工智慧技術被廣泛應用在不安全內容的識別、判定和遮蔽中。

品牌安全史上的重大災難發生在2015年,當時寶潔和豐田等廣告主的pre-roll前貼片廣告被發現在極端組織“伊斯蘭國”ISIS的相關影片前展示。廣告主紛紛停止投放,引發了一場巨大的廣告安全危機。

在中國方面自2016年以來,品牌安全的概念也隨著BAV的推廣(語義安全,廣告可見度,無效流量)而逐步被廣告主知曉,但總體應用度仍然偏低。根據中國廣告驗證公司的rtbAsia的測量,2021年不安全內容比例為6.6%,其中不安全內容中,比重最大的是個人網站,高達到71%,境外網站的比例為21%。

在安全內容的分類比例分析中,21%的廣告投放在了娛樂類的內容環境中,佔比最大,其次是家庭和教育等。

而在國際市場,根據國際廣告驗證公司DoubleVerify釋出的2022年全球洞察報告中,它分析了全球市場2021年1月至12月間桌面和移動web、移動APP和智慧電視端影片和橫幅廣告資料。61%的廣告主採用了品牌安全監測和遮蔽的方案,自2019年不安全內容比例連續下降,2011年不安全內容比例為10%,比中國地區高了4個百分點。

然而需注意的是,中國的品牌安全監測的普及度遠低於國際市場。網際網路監管和媒體平臺自身對內容的稽核均有嚴格的要求以不觸犯國家相關法規。但隨著第三方cookie的逐漸消失,語義定向作為廣告定向的替代方案,其重要性不言而喻。因此內容判定技術的價值在全球各市場均是值得被重視的。

隨著Web 3.0時代逐漸到來,整個網際網路將走向去中心化的消費者導向的經濟。使用者不僅僅有讀寫權,同時在增加了網際網路的擁有和執行權。元宇宙,AR,VR,加密貨幣錢包,人工智慧裝置等概念不斷引起各方業界的關注。而人工智慧的發展也給廣告領域帶來了新的生機,比如元宇宙營銷也成為數字廣告領域新的香饃饃,數實融合的元宇宙迅速崛起也加速了AIGC復刻物理世界,無限創作。比如在廣告創意素材的生產中就起到了低成本快速週期製作的作用。目前AIGC已經在多個領域被廣泛的應用,如廣告、文娛、電商等。目前由人工智慧生成的資料佔全部資料的1%不到。根據Gartner預測,到2025年,人工智慧生成的資料將佔比10%。

在人工智慧更成熟的未來,品牌安全問題會有任何不同麼?會有減少麼?我們無法準確預判,但唯一我們知道的是:人類不會變的更缺少人類的特質。是什麼讓我們認為我們今天在社交媒體上看到的行為在元宇宙中會有所不同?它們很可能會被放大。比如在元宇宙的世界中,因為膚色問題,無法進入某個商店;欺凌和騷擾問題;VR遊戲中的兒童保護問題。又或者AI機器人勸導人類自殺,這類法律問題又該如何定責?AIGC產生的錯誤資訊誤導人類等等。品牌安全的前提是使用者安全,在未來將面臨更嚴峻的挑戰。

人工智慧是品牌安全的雙刃劍

目前主流的品牌安全監測技術得益於人工智慧的發展,主要透過爬蟲去爬取媒體提供的內容頁URL資訊,獲取相關的文字影像內容,或者透過媒體提供的文字、圖片等資訊,透過語意、語境識別,神經網路等演算法,進行分類處理,判斷是否存在對廣告主而言不安全的內容。但隨著類似chatGPT等人工智慧生產的內容越發流行,判斷不安全內容的難度也大大增加。這對品牌安全技術的提升提出了要高的要求,相關公司需要適應並且找到新的方法有效地判定和標記這些AI工具產生的有害內容。人工智慧是一把雙刃劍,利用人工智慧演算法可以更好地識別AIGC的有害內容,可謂以其人之道還至其人之身。

人工智慧公司自身需加強內容監管,據悉OpenAI目前正在開發一種工具,研究一種為人工智慧生成的內容“加水印”的方法,以識別區分人類生成內容與AI生成內容。此工具用於“對文字 [AI 系統] 的輸出進行統計水印”。每當系統(比如 ChatGPT)生成文字時,該工具就會嵌入一個“不易察覺的秘密訊號”,指示文字的來源。用AI來識別AIGC,是對人工智慧引發的道德問題的強有力回應。

同樣地,廣告驗證公司也可藉助AI的能力加強自身判定內容的技術和提高準確性,協助廣告主共同打造安全投放環境。建議如下:

  • 在多樣化且具有代表性的資料集上訓練機器學習演算法,這可以提高內容判斷的準確性。這將有助於演算法更好地理解正在審查的內容的上下文和含義,並更好地區分安全內容和有害內容。
  • 考慮語言和文化的差異對語義的影響。

  • 使用人工稽核:雖然自動化技術有助於識別潛在的有害內容,但讓人工審查員審查標記內容仍然很重要。
  • 教育客戶類似chatGPT這種AIGC的限制和潛在的品牌安全危害性。

中國對深度合成內容的監管

2022年,中國信通院釋出的《人工智慧生成內容白皮書》中提到,人工智慧技術的發展,讓AIGC可以以假亂真,對內容監管是極大的挑戰,需逐步完善和保障AIGC相關法律法規。而為了加強中國境內應用深度合成技術提供資訊服務的管理,《網際網路資訊服務深度合成管理規定》已經在2022年11月3日國家網際網路資訊辦公室2022年第21次室務會議審議透過,並經工業和資訊化部、公安部同意,自2023年1月10日起施行。

規定要求,深度合成服務提供者和使用者不得利用深度合成服務製作虛假新聞資訊,採取技術和人工方式對內容進行稽核,需落實安全主體責任,建立個人資訊保護,反電信網路詐騙的管理制度等。品牌安全的前提是使用者安全,此規定為AIGC指明瞭發展方向和安全規範,也從法律層面幫助了廣告主最大程度地避免品牌安全風險。

目前人工智慧相關法律初見格局,國家十四五重點發展人工智慧相關產業,未來配套的法律法規可預見將進一步完善。

資料來源:

IAS,RTBAsia,DoubleVerify,Garnter,網路資料整理

來自: 群邑智庫