讓模型知道自己擅長什麼、不擅長什麼是一個很重要的問題。
我們遵循的原則是,後訓練應使模型「知道它知道什麼」,而不是增加知識。我們的主要方法是生成資料,使模型生成與預訓練資料中的事實資料子集保持一致。為此,我們開發了一種知識探測技術,利用 Llama 3 的 in-context 能力。資料生成過程包括以下步驟:
1、從預訓練資料中提取資料片段。 2、透過提示 Llama 3 生成一個關於這些片段(上下文)的事實問題。 3、取樣 Llama 3 關於該問題的回答。 4、以原始上下文為參照,以 Llama 3 為裁判,評估生成的回答的正確性。 5、以 Llama 3 為裁判,評估生成回答的資訊量。 6、對於 Llama 3 模型在多個生成過程中提供的資訊雖多但內容不正確的回答,使用 Llama 3 生成拒絕回答的內容。
我們使用知識探測生成的資料來鼓勵模型只回答它知道的問題,而拒絕回答它不確定的問題。此外,預訓練資料並不總是與事實一致或正確。因此,我們還收集了一組有限的標註事實性資料,這些資料涉及與事實相矛盾或不正確的陳述。