一袋米要扛幾樓
AI畫手到底能多醜?
「獵巫」新一集漫畫正在如火如荼製作中。
這集碰到的瓶頸就是大量的肢體細節,Controlnet和Latent couple,該有的擴充功能全開,仍舊抵擋不住Stable Diffusion對手指數量的癡迷。
十幾年後的AI世界將會有一個對話
「Stable diffusion爺爺,你還記得人類一隻手的手指有幾隻嗎?」
「5......不對,是8隻!」
「太棒了,Stable diffusion爺爺,您的記憶還是一如年輕的時候。」
天知道AI生的手是炸薯條還是甜不辣
天知道我為何作死挑戰Stable Diffusion的軟肋🙃
【工作流系列】1
坐在樹下的女子
畫畫白癡的我,怎麼做?
今天要來講使用Stable Diffusion做漫畫的其中一個缺點:突破不了訓練資料的限制。
AI模型大抵上基於你餵什麼資料,它就給你呈現什麼。這導致了我在用SD的過程中,很難跟AI溝通出滿意的結果。
該怎麼讓AI完全明白「一個坐在樹下的女子,女子穿著軍服遍體鱗傷、閉著眼睛、雙手攤地,然後軍服還要破一個洞露出肩膀,然後樹不要全部入鏡,然後也不要拍遠景,要特寫鏡頭,但也不要拍太近,然後不要有其他人入鏡,然後......」?
NG了很多次,我乾脆直接動用起躺在iPad裡面很久的Procreate,開始畫草圖,送到圖生圖模式給它跑。
我是分階段,因為提詞一次到位往往產生不滿意的圖片,像是你要畫面女子穿著染血軍服坐著睡覺,提詞太多太長的話,偏偏給你一個站著的女子,然後毫髮無傷。
總結以上工作流,就是:
1. 判斷構圖複雜度符不符合SD文生圖的能力,決定「文算」還是「手繪」。
2. 把草圖送入圖生圖中,分階段上提詞,由大方向到小細節開始修。
3. 滿意的圖片放入繪圖軟體,繼續修圖或摳圖。
我們當然也有controlnet,不過那又是另一個話題了,下次再談。