用AI實現線上試衣,或者線上換裝,這不是一個新概念,肯定有人這麼想過,但並不是所有人能都能輕鬆做到啊!
今天就來分享一個人人都可以實現的方法,而且是那種傻瓜式的不用付錢的那種,甚至可以把軟體在直接裝在本地電腦上執行,無拘無束的玩耍。
下面就先來看幾個例子。
讓皮衣刀客老黃,穿點不一樣的!
一換女裝老黃要變蘇媽的趕腳… haha !
另外可以看到,即便是T恤上帶文字,也能做到很好的效果!
給泰勒換個上衣!
應該說,毫無違和感。
當然也可以找一張生活化的照片,自己給自己換個衣服!
不給原圖的話,真的看不出這T恤是P上去的。
看了幾個例子效果還不錯吧。當然,單論結果的話,PS玩家也能做出來。
那麼AI有什麼優勢呢?簡單咯!
AI加持下完成這些操作非常簡單,只要上傳圖片,點一下,即可完成。
這比PS簡單多了,所以AI繪畫出來之後,阿逗比都沒人玩了。
下面就來具體介紹下如何操作。
今天用到的軟體(開源專案)叫IDM-VTON ,主頁的一句話介紹是,在自然環境中改善擴散模型以實現真實的虛擬試穿。
從介紹來看,主打一個逼真。
這個軟體可以透過兩種方式執行。
一種是使用官方演示Demo線上執行。
另一種是自己配置安裝在電腦上執行。
今天先介紹第一種“輕量級”玩法,只要有瀏覽器就行,對電腦配置沒什麼要求。
直接開啟網址:
https://huggingface.co/spaces/yisol/IDM-VTON
開啟之後,立馬就可以看到主介面了。介面非常節儉,很好理解。
你只要上傳模特和衣服的照片,點一下下面的TRY-ON按鈕。
然後等個十幾秒鐘就可以了。
如果你沒有照片,可以用網頁上提供的示例圖片(Example),進行快速體驗。
只要點一下照片,會自動放到對應的區域。
執行成功之後,會生成兩張照片。
左邊是自動遮罩的照片,右邊是最終效果圖。
從這兩張圖片,我們可以清楚的知道,這個應用的本質還是區域替換或者區域生成。
替換的區域由遮罩決定,而自動生成的遮罩往往無法適用於任何場景。
所以,有時候我們需要手動畫遮罩。
下面就簡單說一下,手動遮罩的使用方法。
①點選畫筆
②塗抹衣服區域
③去掉自動遮罩前面的勾選。
這樣就可以替換自定義區域了。
另外說一下④自動裁剪和縮放選項,如果你提供的照片比例和樣例差的比較多,可能生成的圖片會有些奇怪,這種情況下可以勾選這個選項。
另外在Try-on按鈕下,還有兩個選項擴充套件選項Denoising Step 和Seed。
讓GPT4來給解釋一下。
Denoising Steps(去噪步數)
擴散模型工作的基本原理是先引入噪聲來擾亂影像,然後逐步去除這些噪聲來生成影像。在這個過程中,”Denoising Steps” 指的是去噪階段的具體步數。這些步數決定了模型將如何逐步從包含大量噪聲的影像中恢復出清晰的影像。
-
更多的去噪步驟:通常意味著生成過程更平滑,可以更細緻地控制噪聲的減少,可能會得到更高質量的影像。
-
較少的去噪步驟:生成速度更快,但可能會犧牲一些影像質量。
Seed(種子)
在生成影像的過程中,“Seed”指的是隨機數生成器的種子。這個種子決定了生成影像的隨機性的起始點。透過設定相同的種子,可以確保每次生成的影像是一致的,即使在不同的時間或不同的機器上執行相同的程式碼和引數。
-
使用相同的種子:可以重複生成完全相同的影像。
-
改變種子值:每次生成的影像會有所不同,即使是在相同的模型和引數配置下。
在實踐中,調整這些引數可以幫助你控制生成影像的過程和質量,實現更符合需求的結果。
之前玩過SD等繪畫軟體的,對這些引數應該比較熟悉。
這個用起來非常簡單,基本上只要給網址,大家都能輕鬆使用。
但是還是有兩個老問題。
一個是你可能根本打不開這個網址,這個懂得都懂,不懂我也不能給你解釋。
另外一個是,線上資源有限,你可能搶不到算力,也可能這個頁面突然就消失了。
所以,我們還是有必要搞個完全離線的版本。
我本地安裝配置已經搞好,RTX3090上十幾秒就能出一張圖,效率也挺高。
下一篇,給大家分享一下安裝配置過程和完全離線的一鍵執行包!
相關網址
github:https://github.com/yisol/IDM-VTON
demo:https://huggingface.co/spaces/yisol/IDM-VTON
website:https://idm-vton.github.io/
部落格:https://www.tonyisstark.com/2358.html