AIGC用於智慧寫作的技術綜述-達觀資料

達觀資料DataGrand發表於2022-12-28

AIGC用於智慧寫作的技術綜述-達觀資料導語     

AIGC用於智慧寫作的技術綜述-達觀資料 圖1. ChatGPT生成的關於智慧寫作的介紹


智慧寫作指使用自然語言處理技術來自動生成文字內容。這種技術透過分析給定語料庫,學習文字的結構和語法,然後利用這些資訊來生成新的文字。智慧寫作可以用來快速生成高質量的文字內容,並且可以用來完成諸如文章寫作、報告生成和摘要提取等任務。


圖1為我們介紹了智慧寫作的基本概念,而令人意想不到的是,這一段介紹的作者竟是AI本身!這一段AI自動生成的“自我介紹”既富有邏輯條理,又闡述了正確的知識,這便是當下最火熱的AIGC技術的威力!


什麼是AIGC?AIGC,即AI-generated Content,基於AI的內容生產,它是利用人工智慧進行內容創作的方式,它被認為是繼PGC(Professionally-generated Content)、UGC(User-generated Content)之後的新型內容創作方式。AIGC在文字、影像和音影片等多領域都正在高速發展,近年來誕生了許多主打AIGC的創作體驗平臺,使用者可以輸入一句話讓AI合成一張與描述關聯的圖片,或者更為常見的是輸入一句文章的描述,或僅僅是一句故事的開頭,讓AI替你完成文章的續寫。智慧寫作在我們的日常辦公中具有相當好的落地前景,例如新聞寫作、詩歌春聯、故事寫作、廣告文案、金融報告、行政文書等辦公場景,這些場景都有相關智慧寫作產品得到應用,可以看到智慧寫作技術能夠為包括資訊、金融、廣告、政法等各行各業的從業者提供便捷且高質量的文字寫作服務,幫助人們更快地理解和分析複雜的資訊,從而幫助人們更好地做出決策,產生重要的價值。這一切生產力提高的願景正在逐步成為現實,背後原因是技術的發展和提升,下圖為筆者整理的AIGC用於智慧寫作的相關技術發展脈絡。

AIGC用於智慧寫作的技術綜述-達觀資料圖2. 文字寫作的相關重要技術


文字寫作技術在很長一段時間裡以RNN Seq2Seq為主,發展遲緩,而當Transformer模型結構問世後,這一領域的技術發展迅速爆發,圍繞著Transformer的文字寫作技術噴湧而出,包括微軟亞洲研究院、谷歌AI、Facebook AI、OpenAI等諸多國際知名研究機構都紛紛投入,先後誕生了UniLM(2019)、MASS(2019)、T5(2020)、BART(2020)、GPT系列(2018-2022)等多個影響力顯著的研究成果。本文將沿著這條技術發展脈絡,從傳統的智慧寫作到如今的前沿研究為讀者做詳細的闡述,併為大家介紹達觀資料的智慧寫作產品實踐。

智慧寫作相關技術背景 


01 任務定義

在深入瞭解相關技術之前,我們先對文字寫作任務進行一個數學上的形式化定義。文字寫作任務的核心是生成一個字串組成的序列Y = (y1,...,yi,...,yn ),其中yi∈ν,ν是一個給定的詞彙表。在大多數情況下,文字寫作需要以輸入作為條件進行生成,輸入的資料可能是文章主題,或者是文章的開頭句等等,我們用X表示輸入。基於以上定義,文字寫作任務建模可以表示為P(Y|X)  = P(y1,...,yi,...,yn |X),其中P表示機率分佈函式。

02 資料集

寫作任務公開的評測資料集,在英文上有CommenGen、ROCStories、WritingPrompts等若干資料集,而在中文上有Couplets、AdvertiseGen等若干資料集,資料集的概述見表1。

AIGC用於智慧寫作的技術綜述-達觀資料

表1. 文字寫作任務相關評測資料集

03 評測指標

文字寫作任務需要量身定製的指標能夠對技術的優劣進行評測,通常寫作的好壞會從四個角度進行度量:

  1. 流暢度(fluency):生成文字的流暢程度;

  2. 真實性(factuality):生成文字在多大程度上反映了語境;

  3. 語法(grammar):生成文字的語法正確性;

  4. 多樣性(diversity):生成的文字是否具有不同的型別或樣式。

通常此類任務的評測最好的方式當屬人工,然而人工評測的成本巨大,為此,業界設計了以下幾種自動評測的量化指標,這些指標通常是量化生成文字和參考文字之間的相似度。比較常用的有基於詞彙和基於語義的相似度度量。

3.1 基於詞彙

基於詞彙的度量是衡量單詞或短語單元的重合度,然後聚合到整體句子級相似度,包括:

  • BLEU-n,計算生成文字和參考文字的n-gram單元的重合度,最為廣泛使用的是BLEU和BLEU-2;

  • Self-BLEU,用來衡量生成文字的多樣性,即在多條不同的生成文字之間計算BLEU值,Self-BLEU越小則多樣性越強;

  • ROUGE-n,同樣是計算生成文字和參考文字的ngram單元的重合度,不同點在於BLEU是重合n-gram數/生成文字n-gram數,而ROUGE是重合n-gram數/參考文字n-gram數,因此可以看做召回版本的BLEU;

  • Perplexity(PPL)和Reverse PPL,PPL是在參考文字上訓練語言機率模型,然後用它計算生成文字的機率,機率越高則表示生成文字越流暢;而Reverse PPL則是在生成文字上訓練語言機率模型,然後反過來計算參考文字的機率,機率越高則表示生成文字越多樣。

3.2 基於語義

相比基於詞彙的方式,基於語義可以把字面不相似而語義相似的情況也納入考量,是一種更貼近人工評測的方式,這其中包括:

  • dssm,利用深層語義相似模型分別將生成文字和參考文字對映到一個低維語義表示空間,並計算生成文字向量和參考文字向量的距離;

  • BERTscores、BERTr、YiSi等,近年來湧現的基於預訓練模型的評測方法,利用BERT的embedding表示代替n-gram,計算生成文字和參考文字的相似性。

04 重要技術脈絡

AIGC用於智慧寫作的技術綜述-達觀資料圖3. 文字寫作的相關重要技術


圖3列舉了文字寫作領域中部分影響力較大的相關技術。在很長一段時間裡文字寫作是以基於RNN的Seq2Seq模型為主流技術,如圖4所示,其由兩個RNN網路組成,第一個RNN是編碼器,第二個RNN是解碼器。模型先以迴圈單元將輸入文字編碼到隱向量,後再透過迴圈單元順序逐字解碼,順序解碼時將上一單元輸出和上一單元隱向量同時作為解碼器的輸入。RNN Seq2Seq生成的文字質量通常欠佳,時常伴有語法錯誤或語意不明的問題,主要原因是其逐字順序編碼解碼過程引起的誤差傳遞和放大。

AIGC用於智慧寫作的技術綜述-達觀資料圖4. RNN Seq2Seq模型示意圖
AIGC用於智慧寫作的技術綜述-達觀資料

圖5. Transformer模型


隨著2017年Transformer模型結構(見圖5)的問世,世人驚歎於其強大的捕捉超長距離依賴的特徵表示能力,並且由於Transformer可以並行處理序列的特性,訓練效率相比RNN也大幅提升,於是文字寫作演算法研究投入也極速地向Transformer傾斜,隨之孕育而生了一系列的預訓練模型(見表2),時至今日已經成為文字寫作技術的主流前沿代表。下文將為讀者重點一一闡述。

AIGC用於智慧寫作的技術綜述-達觀資料

表2. 文字寫作的相關預訓練模型概述


AE=自編碼;AR=自迴歸;SLM=標準語言模型;CTR=受損文字重建;NSP=下一句預測;FTR=全文重建。


前沿技術介紹 


當下文字寫作的主流前沿技術是從不同型別、結構元件和預訓練任務中衍化的若干種預訓練模型。本節內容將為讀者做重點介紹。

01 UniLM

UniLM的全稱是Unified Language Model,是2019年微軟亞洲研究院提出的生成式BERT 模型,和傳統的Seq2Seq不同的是,它只用了BERT,沒有Decoder部分。它集合了L2R-LM(ELMo,GPT),R2L-LM(ELMo)、BI-LM(BERT)以及Seq2Seq-LM幾個其他模型訓練的方式,所以叫Unified模型。
AIGC用於智慧寫作的技術綜述-達觀資料圖6. UniLM模型概覽


UniLM的預訓練分為三個部分,Left-to-Right、Bidirectional以及Seq-to-Seq(見圖6)。

對於這三種方式,不同點只是Transformer的mask矩陣的改動而已:

  1. 對於Seq-to-Seq,前一句對後一句的Attention被mask,這樣一來前一句只能關注到自身,但不能關注到後一句;後一句每個詞向其之後的Attention被mask,只能關注到其之前的詞;

  2. 對於Left-to-Right,Transformer的Attention只關注這個詞本身以及前面的詞,後面的詞不做關注,所以mask矩陣是下三角矩陣;

  3. 對於Bidirectional,Transformer的Attention關注所有的詞,並且包含NSP任務,和原本的BERT一樣。

在UniLM的預訓練過程中,三種方式各訓練1/3的時間,相比原始BERT,其新增的單向LM預訓練加強了文字表示能力,而其新增的Seq-to-Seq LM預訓練也使UniLM能夠很好地勝任文字生成/寫作的任務。

02 T5

T5的全稱是Text-to-Text Transfer Transformer,是2020年穀歌提出的模型結構,其總體思路是用Seq2Seq文字生成來解決所有下游任務:如問答、摘要、分類、翻譯、匹配、續寫、指代消解等。這個方式能夠使所有任務共享相同的模型,相同的損失函式和相同的超引數。

AIGC用於智慧寫作的技術綜述-達觀資料圖7. T5思維框架


T5的模型結構是基於多層Transformer的Encoder-Decoder結構。與其他模型的主要區別是,GPT系列是僅包含Decoder結構的自迴歸語言模型(AutoRegressive LM),BERT是僅包含Encoder的自編碼語言模型(AutoEncoder LM)。
AIGC用於智慧寫作的技術綜述-達觀資料圖8. T5預訓練目標示例


T5的預訓練分為無監督和有監督兩個部分:

  1. 無監督部分

    無監督部分是採用類似BERT的MLM方法,不同的是BERT是mask單個詞,而T5是mask一段連續的詞,也就是text span。被mask的text span只用單個mask字元替換,也就是說對於mask後的文字而言,mask的序列長度也是不可知的。而在Decoder部分,只輸出被mask的text span,其它詞統一用設定的<X>、<Y>、<Z>符號替換。這樣做有三個好處,其一是加大了預訓練難度,顯然預測一個長度未知的連續text span是比預測單個詞更難的任務,這也使得訓練的語言模型的文字表示能力更有普適性,在質量較差的資料上的微調適應性更強;其二是對於生成任務而言輸出的序列就是長度未知的,T5的預訓練很好適配了這一特性;另一個好處是縮短了序列長度,使得預訓練的成本得以降低。T5所採用的這種預訓練任務也被稱為CTR(Corrupted Text Reconstruction,受損文字重建)。

  2. 有監督部分

    有監督部分採用GLUE和SuperGLUE中包含的機器翻譯、問答、摘要、分類四大類任務。核心是Fine-tune時把這些資料集和任務合在一起作為一個任務,為了能夠實現這一點它的思路是給每個任務設計了不同的prefix,與任務文字一同輸入。舉例說翻譯任務,把英語的“That is good.”翻譯為德語,那麼訓練時就輸入“translate English to German: That is good. target: Das ist gut.”,而預測時則輸入“translate English to German: That is good. target:”,模型輸出預測“Das ist gut.”。其中“translate English to German:”便是為此項翻譯任務新增的prefix。

03 BART

BART的全稱是Bidirectional and Auto-Regressive Transformers,是2020年Facebook提出的模型結構。正如其名,它是一種結合了雙向編碼和自迴歸解碼結構的模型結構。

AIGC用於智慧寫作的技術綜述-達觀資料圖9. BART的基本原理


BART的模型結構吸收了BERT的Bidirectional Encoder和GPT的Left-to-Right Decoder各自的特點,建立在標準的Seq2Seq Transformer model的基礎之上,這使得它比BERT更適合文字生成的場景;同時相比GPT,也多了雙向上下文語境資訊。
AIGC用於智慧寫作的技術綜述-達觀資料圖10. BART預訓練採用的[noise]


BART的預訓練任務採用基本理念同樣是還原文字中的[noise]。BART採用的[noise]具體有:

  • Token Masking:和BERT一樣,隨機選擇token用[MASK]代替;

  • Token Deletion:隨機刪除token,模型必須確定哪些位置缺少輸入;

  • Text Infilling:和T5做法類似,mask一個text span,每個text span被一個[MASK]標記替換。在T5做法基礎上,同時考慮了當text span長度為0,此時則插入一個[MASK]標記;

  • Sentence Permutation:以句號作為分割符,將輸入分成多個句子,並隨機打亂;

  • Document Rotation:隨機均勻地選擇一個token,以這個token為中心,旋轉輸入,選中的這個token作為新的開頭,此任務訓練模型以識別文件的開頭。

可以發現相比起BERT或T5,BART在Encoder端嘗試了多種[noise],其原因和目的也很簡單:

  1. BERT的這種簡單替換導致的是Encoder端的輸入攜帶了有關序列結構的一些資訊(比如序列的長度等資訊),而這些資訊在文字生成任務中一般是不會提供給模型的;

  2. BART採用更加多樣的[noise],意圖是破壞掉這些有關序列結構的資訊,防止模型去“依賴”這樣的資訊。針對各種不同的輸入[noise],BART在Decoder端採用了統一的還原形式,即輸出正確的原始整句。BART所採用的這種預訓練任務也被稱為FTR(Full Text Reconstruction, 全文重建)

04 GPTs

GPT的全稱是Generative Pre-Training, 是OpenAI在自然語言處理領域的一項極為重要的研究。GPT是一個循序迭代的預訓練模型,其家族主要成員包括初代GPT、GPT-2、GPT-3、InstructGPT和如今炙手可熱的ChatGPT等。下面為大家逐一介紹。


4.1 GPT


AIGC用於智慧寫作的技術綜述-達觀資料

圖11. 標準Transformer Decoder(左);GPT Decoder(右)


初代GPT是2018年OpenAI提出的一種預訓練語言模型,它的誕生相比BERT更早,它的核心思想是基於大量無標註資料進行生成式預訓練學習,然後在特定任務上進行微調。正因其專注於生成式預訓練,GPT的模型結構只使用了Transformer的Decoder部分,其標準結構包含了Masked Multi-Head Attention和Encoder-Decoder Attention(圖11左)。GPT的預訓練任務是SLM(Standard Language Model,標準語言模型),即基於上文(視窗)預測當前位置的詞,因此要保留Mask Multi-Head Attention對詞的下文遮擋,防止資訊洩露。因為沒有使用Encoder,所以GPT的結構中去除了Encoder-Decoder Attention(圖11右)。


4.2 GPT-2

初代GPT的問題是微調下游任務不具備遷移能力,Fine-Tuning層是不共享的,為了解決這個問題,2019年OpenAI又推出了GPT家族新的成員:GPT-2。
GPT-2的學習目標是使用無監督的預訓練模型做有監督的任務,與初代GPT相比,GPT-2有如下改動:1)模型結構去除Fine-Tuning層,所有任務都透過設計成合理的語句給語言模型進行預訓練,訓練需保證每種任務的損失函式都收斂;2)Layer Normalization的位置移動到了每個sub-block輸入的地方,在最後一個Self-Attention後面也加了一個Layer Normalization;3)採用了修正的初始化方法,在初始化時將殘差層的權重縮放到1⁄√N倍,N為殘差層的數量;4)Vocabulary規模擴充套件到了50257,輸入的上文大小由512擴充套件到了1024,使用更大的batch_size訓練。


GPT-2的多工訓練使其擁有更強的泛化能力,當然這同時也是得益於其用了多達40G的訓練語料。GPT-2的最大貢獻是驗證了透過海量資料和大量引數訓練出來的模型有遷移到其它類別任務中而不需要額外訓練的能力。


4.3 GPT-3
2020年OpenAI在GPT-2的基礎上又進一步推出了GPT-3。GPT-3的做法更加簡單粗暴,模型整體結構和訓練目標與GPT-2基本無異,但GPT-3把模型尺寸增大到了1750億引數量(比GPT-2大115倍),並且使用45TB資料進行訓練。得益於驚人龐大的引數量,GPT-3可以在不做梯度更新的情況下使用零樣本、少樣本進行學習預測。


4.4 InstructGPT
超大模型的GPT-3在生成任務的效果上確實達到了空前的效果,特別是零樣本和少樣本場景下成為最佳,但GPT-3面臨了一項新的挑戰:模型的輸出並不總是有用,它可能輸出不真實、有害或者反映不良情緒的結果。這個現象是可以被理解的,因為預訓練的任務是語言模型,預訓練的目標是在輸入的限定下使輸出的結果為自然語言的可能性最大化,而這其中並沒有“使用者需要安全、有用”的要求。為了解決這個問題,2022年OpenAI基於GPT-3發表了一項重要研究:InstructGPT,引入從人類反饋中強化學習(RLHF,Reinforcement Learning from Human Feedback)的技術。


AIGC用於智慧寫作的技術綜述-達觀資料圖12. InstructGPT操作過程


InstructGPT模型上基本和 GPT-3沒有太大變化,主要變化的是訓練策略,總體思路是標註人員對呼叫示例提供示範回答,然後用這些資料在模型上進行微調,從而使模型能夠做出更加合適的回答。

其訓練步驟分為三步:

  1. 收集示範資料,用監督訓練的方式訓練一個模型。從prompt資料集中取樣一部分進行人工標註,然後將其用於GPT-3的Fine-Tune;

  2. 收集對比資料,訓練一個回報模型。取樣一批資料輸入第一步Fine-Tune之後的模型,標註人員對模型的輸出按照優劣進行排序,然後用這些資料訓練一個回報模型;

  3. 用強化學習來最佳化模型的輸出。使用第二步得到的回報模型來對模型的輸出進行打分,將得分作為強化學習的獎勵,基於PPO(Proximal Policy Optimization)演算法來微調生成模型。

由此產生的 InstructGPT在遵循指令方面,遠比GPT-3要好得多,同時InstructGPT也較少地憑空捏造事實,有害輸出的產生呈現小幅下降趨勢。

4.5 ChatGPT
現在讓我們回顧本文的開頭,那個為我們準確並有條理地解答了“什麼是智慧寫作”的AI模型——它就是ChatGPT,OpenAI於2022年11月30日正式釋出了這一項最新研究。ChatGPT使用與InstructGPT相同的方法,使用來自人類反饋的強化學習(RLHF)來訓練該模型,改進點在於資料收集的方法(未具體公開)。
AIGC用於智慧寫作的技術綜述-達觀資料圖13. ChatGPT操作過程


可以看到,ChatGPT的訓練流程與InstructGPT是一致的,差異只在於InstructGPT是在GPT-3上做Fine-Tune,而ChatGPT是在GPT-3.5上做Fine-Tune(GPT3.5是OpenAI在2021年四季度訓練的InstructGPT模型,在自動編寫程式碼方面有較強的能力)。


縱觀從初代GPT到ChatGPT的發展,OpenAI證明了用超海量資料訓練超大模型,這樣得到的預訓練語言模型就足以應對自然語言理解和自然語言生成的各種下游任務,甚至不需要微調,零/少樣本一樣能夠應對。而在輸出的安全可控性上,OpenAI給出的答案是基於人力的強化學習:僱傭了40名標註人員全職工作近2年(標註時間官方未公開,筆者僅從GPT-3到ChatGPT大約兩年半時間間隔推測,因為強化學習需要不斷迭代),為模型的輸出進行標註反饋,由這些資料方可進行強化學習,指導模型最佳化。Transformer+超海量資料+超大模型+龐大人力+強化學習,造就瞭如今現象級的ChatGPT。


達觀資料的智慧寫作應用實踐

寫作一直是企事業單位的重要工作內容,是公司資料資產的主要載體,是建立企業知識中臺的重要基石。基於此,達觀資料以NLP技術綜合業務需求,全力投入研發並打造了兩款智慧寫作產品——達觀智慧寫作助手和達觀智慧文件寫作。


01 達觀智慧寫作助手

達觀智慧寫作助手是一款AI寫作工具,以AI技術綜合寫作場景需求,為內容創作和版式調整賦能,實現全場景的精彩表達,提升寫作效率和質量,成為寫作者的全能高效助手。

  • 取代傳統格式刷:高自由度排版工具,批次操作效率翻倍

快速掃描全文,分析文章結構,識別出段落的型別,點選即可一鍵應用統一樣式。達觀智慧寫作助手將依據文件及段落型別,推薦標準樣式,使用者也可以建立自定義的樣式庫。

AIGC用於智慧寫作的技術綜述-達觀資料

圖14.達觀智慧寫作助手智慧樣式排版


  • 靈感激發:啟發創作靈感

對於各類豐富場景的自由寫作,當遇到寫作思路瓶頸時,達觀智慧寫作助手藉助內建的大語言模型演算法能力,將根據已有段落的理解,自動續寫出若干種最貼合的下文,激發寫作人創作的靈感。

AIGC用於智慧寫作的技術綜述-達觀資料

圖15.達觀智慧寫作助手根據上文段落自動續寫


  • 海量素材:AI據意查詢

達觀智慧寫作助手內建30萬+條素材,涵蓋公文、名人名言、古詩詞等型別。支援根據使用者輸入的想法、需求等描述性語句,透過智慧分析搜尋最適合的寫作素材。

AIGC用於智慧寫作的技術綜述-達觀資料

圖16.達觀智慧寫作助手支援據意查詢


  • 全面校對:快速發現文章錯誤,保證文件質量

達觀智慧寫作助手透過拼寫檢查、語法檢錯和語法糾錯,嚴格校驗100多種常見錯誤,不放過任何差錯,確保文章高品質。

AIGC用於智慧寫作的技術綜述-達觀資料

圖17.達觀智慧寫作助手全面校對中文常見錯誤


達觀智慧寫作助手能夠為各行各業的人員帶來巨大的價值:

  • 新媒體運營:公眾號、小紅書、新聞稿等文案創作;

  • 辦公室白領:政府、企事業單位員工等均可利用達觀智慧寫作助手快速完成公文、報告、合同等文件書寫;

  • 創意寫作者:續寫提示,激發創作靈感,完成優質創作。


02 達觀智慧文件寫作

達觀智慧文件寫作,是一款主要實現債券、基金、合同等各類業務文件的智慧寫作產品,實現從文件的智慧審閱到智慧寫作的高度跨越。

  • 開箱即用:內建多種成熟模板

針對市面共性需求,達觀智慧文件寫作產品已內建盡職調查報告、各板塊招股說明書、各債券型別的債券募集說明書、發行公告、持續督導核查報告等數十種文件模板,並支援使用者根據業務需求修正及自定義。
AIGC用於智慧寫作的技術綜述-達觀資料圖18.達觀智慧文件寫作預製模板庫


  • 模板自定義:高度靈活的模板配置方式

達觀智慧文件寫作可支援使用者自定義寫作模板,特別針對一二級市場及其他常用合同文件寫作的需求,獨創了適用多資料、多表格的模板配置方式,支援模板中表格行數/列數自動判斷,資料佔比、變動等資訊自動計算,多資料融合彙總等功能,以方便快捷地實現各類文件的便捷模板定義及寫作。
AIGC用於智慧寫作的技術綜述-達觀資料圖19.達觀智慧文件寫作支援靈活的模板配置


  • 資料來源:資料庫、非結構化資料均可利用

達觀智慧文字寫作不僅支援介面對接、資料庫對接的形式自動從外部資料來源中獲取資料進行自動填充。同時,得益於達觀成熟的文字理解能力,支援從非結構化文字中提取結構化資訊,包括實體欄位、組合欄位、元素欄位(圖、表、段落、標題等)進行自動錄入。


以債承業務為例,系統可根據天眼查、企查查、WIND等第三方業務系統,及企業內部資料庫,如各類合同、往期財務資料、專利證照等資訊,根據使用者自定義的模板資訊完成文件寫作任務,並根據NLP技術潤色加工行文結構,生成適合行業寫作風格及格式的文件。
AIGC用於智慧寫作的技術綜述-達觀資料圖20.達觀智慧文件寫作支援豐富的資料來源


  • 智慧寫作:AI輔助非模板文件寫作

針對非模板文件寫作需求,達觀智慧寫作利用行業最新演算法技術實現摘要自動生成、自動續寫、實時聯想等功能。透過機器結合人工便捷實現各類文件寫作。
AIGC用於智慧寫作的技術綜述-達觀資料圖21.達觀智慧文件寫作AI輔助高度智慧化


  • 結果複核:多功能協同保障寫作質量

針對債承、股權、投研及法務財務等使用者對資料精確性、文字準確性的需求,達觀智慧寫作可與智慧文件稽核、智慧文件比對功能協同。寫作結果完成後可由AI對其資料邏輯性與一致性、語義標點規範性做稽核。從細節入手,以人性化的互動設計降低使用者人工複核成本,充分滿足使用者線上流暢編輯超長文件的需求。 AIGC用於智慧寫作的技術綜述-達觀資料

圖22.達觀智慧文件寫作多功能協同,保障寫作結果準確性


目前,達觀智慧文件寫作產品已在頭部券商、基金公司部署應用。未來產品將持續積累,為使用者提供數字化智慧轉型、建立企業知識中臺的便捷化、智慧化利器。


挑戰與展望

AIGC用於智慧寫作取得的進展確實令人驚歎,但是我們也不得不認識到當下依然存在許多挑戰,包括:

  • 缺乏創意:智慧寫作的主要挑戰之一是AI演算法很難生成真正原創和有創意的內容。雖然人工智慧可以產生語法正確且連貫的高質量內容,但它可能缺乏真正創造性寫作所必需的人情味和洞察力;

  • 對上下文的理解有限:智慧寫作的另一個挑戰是,AI演算法可能很難完全理解給定情況的上下文細微差別。例如,人工智慧可能無法準確解讀書面內容中的語氣、情感或文化差異;

  • 偏見問題:AI演算法的好壞取決於它們所訓練的資料,如果訓練資料有偏差,人工智慧的輸出也會有偏差。這可能會導致道德問題,例如刻板印象和歧視的長期存在;

  • 高成本落地:開發和落地 AI 演算法和系統非常昂貴,以目前取得不錯進展的技術來說普遍需要龐大的資料、算力乃至人工支援,這將對面向工業的智慧寫作落地形成挑戰

總體而言,智慧寫作AIGC仍有極大的潛力尚未充分發揮,未來的研究工作也會著重在如何克服上述的挑戰。未來可能會在融入人工意見和強化學習的基礎上,進一步透過設計相關維度的量化指標指導模型的最佳化。隨著效果的日益增強,相信會有更多研究工作投入到智慧寫作的小樣本學習和模型壓縮技術上,降低落地成本,使得智慧寫作產品能夠服務到每個人的日常工作中。


參考文獻

[1] Lewis M, Liu Y, Goyal N, et al. Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension[J]. arXiv preprint arXiv:1910.13461, 2019.

[2] Dong L, Yang N, Wang W, et al. Unified language model pre-training for natural language understanding and generation[J]. Advances in Neural Information Processing Systems, 2019, 32.[3] Li X L, Thickstun J, Gulrajani I, et al. Diffusion-LM Improves Controllable Text Generation[J]. arXiv preprint arXiv:2205.14217, 2022.

[4] Li J, Tang T, Zhao W X, et al. Pretrained language models for text generation: A survey[J]. arXiv preprint arXiv:2105.10311, 2021.

[5] Zhang H, Song H, Li S, et al. A survey of controllable text generation using transformer-based pre-trained language models[J]. arXiv preprint arXiv:2201.05337, 2022.

[6] Liu Y, Gu J, Goyal N, et al. Multilingual denoising pre-training for neural machine translation[J]. Transactions of the Association for Computational Linguistics, 2020, 8: 726-742.

[7] Raffel C, Shazeer N, Roberts A, et al. Exploring the limits of transfer learning with a unified text-to-text transformer[J]. J. Mach. Learn. Res., 2020, 21(140): 1-67.

[8] Zhang Z, Han X, Zhou H, et al. CPM: A large-scale generative Chinese pre-trained language model[J]. AI Open, 2021, 2: 93-99.

[9] Xue L, Constant N, Roberts A, et al. mT5: A massively multilingual pre-trained text-to-text transformer[J]. arXiv preprint arXiv:2010.11934, 2020.[10] Montesinos D M. Modern Methods for Text Generation[J]. arXiv preprint arXiv:2009.04968, 2020.

[11] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[J]. Advances in neural information processing systems, 2017, 30.

[12] Ouyang L, Wu J, Jiang X, et al. Training language models to follow instructions with human feedback[J]. arXiv preprint arXiv:2203.02155, 2022.[13] Radford A, Narasimhan K, Salimans T, et al. Improving language understanding by generative pre-training[J]. 2018.

[14] Radford A, Wu J, Child R, et al. Language models are unsupervised multitask learners[J]. OpenAI blog, 2019, 1(8): 9.

[15] Brown T, Mann B, Ryder N, et al. Language models are few-shot learners[J]. Advances in neural information processing systems, 2020, 33: 1877-1901.[16] ChatGPT: Optimizing Language Models for Dialogue. https://openai.com/blog/chatgpt/


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69997703/viewspace-2929883/,如需轉載,請註明出處,否則將追究法律責任。

相關文章