專案連結:https://github.com/facebookresearch/sam2
論文連結:https://arxiv.org/abs/2402.05755 程式碼連結:https://github.com/facebookresearch/spiritlm 模型權重:https://ai.meta.com/resources/models-and-libraries/spirit-lm-downloads/
論文連結:https://arxiv.org/abs/2404.16710 程式碼連結:https://github.com/facebookresearch/LayerSkip 權重連結:https://huggingface.co/collections/facebook/layerskip-666b25c50c8ae90e1965727a
專案連結:https://github.com/facebookresearch/lingua MEXMA MEXMA 是一種新型預訓練跨語言句子編碼器。在訓練過程中,透過結合 token 層級和句子層級的目標,MEXMA 的表現優於以往的方法。 研究團隊發現,之前用於訓練跨語言句子編碼器的方法僅透過句子表徵來更新編碼器,而透過引入 token 層級的目標,研究者可以更好地更新編碼器,從而改進效能。 MEXMA 覆蓋了 80 種語言,並且在句子分類等下游任務中表現出色。 論文連結:https://arxiv.org/abs/2409.12737 模型連結:https://huggingface.co/facebook/MEXMA
程式碼連結:https://github.com/facebookresearch/mexma
Meta 在 8 月發表了一篇題為《Self-Taught Evaluators》的論文,提出了自學習評估器,用於生成合成偏好資料來訓練獎勵模型,無需依賴人工標註。
論文連結:https://arxiv.org/abs/2408.02666 程式碼連結:https://github.com/facebookresearch/RAM/tree/main/projects/self_taught_evaluator 訪問合成資料:https://huggingface.co/datasets/facebook/Self-taught-evaluator-DPO-data 模型連結:https://huggingface.co/facebook/Self-taught-evaluator-llama3.1-70B