圖1描述了LoRA微調的原理,即在原模型的基礎上,建立一個旁支模型,旁支模型由A和B兩個小矩陣構成,且A@B的維度等於原模型的維度。
圖1 LoRA原理
圖1的LoRA原理,也可寫成式2的等式,權重W的新狀態W’,為圖10左路WFP16與右路A FP16@B FP16乘積之和,其中W、A、B的上標FP16,意指其矩陣元素的dtype型別是Float16半精度。
關注更多安卓開發、AI技術、股票分析技術及個股診斷等理財、生活分享等資訊資訊,請關注本人公眾號(木圭龍的知識小屋)
圖1描述了LoRA微調的原理,即在原模型的基礎上,建立一個旁支模型,旁支模型由A和B兩個小矩陣構成,且A@B的維度等於原模型的維度。
圖1 LoRA原理
圖1的LoRA原理,也可寫成式2的等式,權重W的新狀態W’,為圖10左路WFP16與右路A FP16@B FP16乘積之和,其中W、A、B的上標FP16,意指其矩陣元素的dtype型別是Float16半精度。
關注更多安卓開發、AI技術、股票分析技術及個股診斷等理財、生活分享等資訊資訊,請關注本人公眾號(木圭龍的知識小屋)