韓國科學家利用知識蒸餾技術壓縮了開源影像生成模型的大小,建立了名為"KOALA"的人工智慧工具:
- 可以在兩秒內生成影像,其引數規模更小,只有7億
- 較弱的 GPU 上執行,只需要 8GB RAM
韓國科學家使用了一種名為“知識蒸餾”的特殊技術來壓縮名為“Stable Diffusion XL”的開源(或公開可用)影像生成模型的大小,原模型具有 25.6 億個引數,即人工智慧在訓練期間用來學習的變數。
而新模型的最小版本被稱為“KOALA”,只有 7 億個引數,這意味著它足夠精簡,可以快速執行,而不需要昂貴且能源密集型的硬體。
他們使用的方法是知識蒸餾,將知識從大型模型轉移到較小的模型,理想情況下不會影響效能。較小模型的好處是執行計算和生成答案所需的時間較少。
該工具可以在低成本圖形處理單元 (GPU) 上執行,並且需要大約 8GB RAM 來處理請求,而較大的模型則需要高階工業 GPU。
該團隊於 2023 年 12 月 7 日在預印本資料庫arXiv上發表了一篇論文,發表了他們的發現。他們還透過開源 AI 儲存庫Hugging Face提供了他們的工作成果。
詳細圖例點選標題