最新版本 Stable Diffusion 開源 AI 繪畫工具之使用篇
tiny極客發表於2023-04-06
? 介面引數
- 在使用
Stable Diffusion
開源 AI
繪畫之前,需要了解一下繪畫的介面和一些引數的意義 - 目前 AI 繪畫對中文提示詞的效果不好,儘量使用英文提示詞
- 最主要一些引數如下:
- Prompt: 正向提示詞,也就是
tag
,提示詞越多,AI
繪圖結果會更加精準 - Negative prompt: 反向提示詞,也就是反向
tag
- Width / Height:要生成的圖片尺寸。尺寸越大,越耗效能,耗時越久。
- CFG scale:
AI
對描述引數 Prompt
的傾向程度。值越小生成的圖片越偏離你的描述,但越符合邏輯;值越大則生成的圖片越符合你的描述,但可能不符合邏輯。 - Sampling method: 取樣方法。有很多種,但只是取樣演算法上有差別,沒有好壞之分,選用適合的即可。
- Sampling steps: 取樣步長。太小的話取樣的隨機性會很高,太大的話取樣的效率會很低,拒絕機率高
- Seed: 隨機數種子。生成每張圖片時的隨機種子,這個種子是用來作為確定擴散初始狀態的基礎。不懂的話,用隨機的即可
- Restore faces: 面部修復,最佳化面部的,原理是呼叫一個神經網路模型對面部進行修復,影響面部。修復畫面中人物的面部,但是非寫實風格的人物開啟面部修復可能導致面部崩壞
- Tiling: 無縫貼圖,是一種老牌最佳化技術,即
CUDA
的矩陣乘法最佳化,影響出圖速度和降低視訊記憶體消耗,不過實際選上之後可能連正常的圖都不出來了。打死不開 - Highres.fix: 高解析度修復,預設情況下,文生圖在高解析度下會生成非常混沌的影像。如果使用高畫質修復,會型首先按照指定的尺寸生成一張圖片,然後透過放大演算法將圖片解析度擴大,以實現高畫質大圖效果
? 取樣器
- Euler a: 是個插畫,
tag
利用率僅次於 DPM2
和 DPM2 a
,環境光效菜,構圖有時奇葩 - Euler: 柔和,也適合插畫,環境細節與渲染好,背景模糊較深
- Heun: 單次出土平均質量比
Euler
和 Euler a
高,但速度最慢,高 step
表現好 - DDIM: 適合寬畫,速度偏低,高
step
表現較好,負面 tag
不夠時發揮隨意,環境光線與水汽效果好,寫實不佳 - DPM2: 該取樣方式對
tag
的利用率最高,幾乎佔用 80%
以上 - DPM2 a: 幾乎與
DPM2
相同,只是在人物的時候可能有特寫 - PLMS: 單次出圖質量僅次於
Heun
- LMS: 質感
OA
,飽和度與對比度偏低,更傾向於動畫風格 - LMS Karras: 會大改成最佳化的風格,寫實不佳
- DPM fast: 此為上界開發者所遺留的測試工具,不適合魔術師使用
? 文生圖(txt2img)
- 文生圖(text2img): 根據提示詞
Prompt
的描述生成相應的圖片 - 選擇
繪畫模型(Stable Diffusion checkpoint)
► 文生圖(txt2img)
► 填寫正向提示詞(Prompt)
► 填寫反向提示詞(Negative prompt)
► 選擇取樣器(一般選擇DPM++ 2M Karras)
► 設定取樣步驟(一般設定30)
► 設定長寬(Width / Height,推薦 1024 * 1536)
► 點選生成(Generate)
- 根據上面的步驟,即可透過文字生成圖片了,一般我們只要編寫
Prompt
即可, Negative prompt
一般都是固定的,限制一下水印,低質量以及其他可能出現的邏輯錯誤即可
? 圖生圖(img2img)
- 圖生圖(img2img): 將一張圖片根據提示詞
Prompt
描述的特點生成另一張新的圖片 - 選擇
繪畫模型(Stable Diffusion checkpoint)
► 圖生圖(img2img)
► 填寫正向提示詞(Prompt)
► 填寫反向提示詞(Negative prompt)
► 選擇取樣器(一般選擇DPM++ 2M Karras)
► 設定取樣步驟(一般設定30)
► 設定長寬(Width / Height,推薦 1024 * 1536)
► 點選生成(Generate)
- 將上傳一張圖片到圖生圖中,進行測試一下,這裡使用的是剛剛文生圖的照片,根據上面的步驟,點選生成,看看效果
- 可以看出:
AI
圖生圖,其實就是根據你上傳的圖片和你的 Prompt
生成一張跟上傳差不多的照片
? 模型下載
- 模型網站推薦:https://civitai.com/
- 左上角的下拉框可以用來選擇模型,其中
v1-5-pruned-emaonly.safetensors
是預設模型 - 預設的模型畫出來的圖片比較醜,所以我們需要下載更好更適合的模型來繪畫
- 每個模型側重繪畫的風格不一樣,有些適合畫人,有些適合畫動漫,有些適合畫風景,根據自己的需求選擇適合自己的繪畫風格模型進行下載
- 下載好模型,將模型檔案放入到
models/Stable-diffusion
資料夾下,過載 UI
,即可看到