AIGC風暴來襲:4萬億服裝產業掀起巨浪

來源:億邦動力

文:胡镤心 編輯:張睿

AIGC大熱後,設計師林儷和版師張宇都覺得自己混得比對方慘,經營模特攝影工作室的“浪豬灰頭”也覺得正在失去生意。

4萬億服裝行業,正在被新一波AI技術改變,且衝擊和機遇並存——麥肯錫分析,未來3到5年,生成式AI可能會幫助服裝、時尚及奢侈品行業的營業利潤創造1500億美元的增量,樂觀估計可高達2750億美元。

億邦動力注意到,AIGC對服裝行業的影響主要集中於商品企劃、產品設計、零售終端三個環節,AIGC提升設計師效率、數字人+3D服裝再給消費者帶來新體驗,這些新內容都將給服裝行業帶來新機會。

只不過,要想解決行業內從設計到生產到營銷多環節的難題,並非易事。服裝行業也曾經過幾輪AI洗禮,從RNN(遞歸神經網絡,1990年提出)到GAN(生成對抗網絡,2014年提出)到如今的Diffusion(擴散模型),每一波AI都試圖打通整個產業鏈。那麼,這一輪生成式AI會對服裝行業產生哪些影響? AIGC將影響哪些崗位就業? AI能力外溢到供應鏈,能夠產生多大影響?

**01、設計師、版師、模特,誰被沖擊? **

1、AIGC幹不掉設計師

設計師和版師是服裝設計中的主要崗位,一個負責將天馬行空的靈感變成一張張圖紙,一個負責將圖紙變成樣衣。

Midjourney和Stable Diffusion一度給設計師林儷帶來很大的職業生涯危機,輸入提示詞,5秒內生成六張設計圖,還可以不停更新。林儷從事快時尚設計快5年,見過不少設計高手,還是被Stable Diffusion的生成效果驚艷了一把,“關鍵是速度快且量大,感覺分分鐘要失業。”

“上新”是快時尚的命脈,品牌企業對創造力和效率有極致追求。堅持用了半年Midjourney和Stable Diffusion,林儷放心下來,“大模型確實在生成速度上遠超設計師,但AIGC只是一個素材生成方式,輸入什麼提示詞,需要哪些元素,到底要用哪張,這些都需要我們來做選擇。我現在的靈感圖都由AIGC完成,效率大概提升了3倍。”

而且,AIGC目前只是在單款服裝的設計上提供了靈感。除了單款設計,設計師還需要做一些系列企劃——比如當季主推的款有哪些系列,哪些款式搭配起來好看,常規款和主推款怎麼搭配。甚至這些款式在門店的陳列,都得在設計師企劃時去規劃——主推款式放在什麼位置,效果如何,在門店如何陳列。顯然這些工作內容都超出AIGC的範圍。

“單從款式設計上來說,其實絕大多數服裝企業都有自己的版型基礎,也就是大體'規矩',在這個'規矩'內,設計師會去判斷用什麼樣的顏色、輔料、裝飾性元素。AIGC就是在這個環節給出靈感和幫助。”林儷補充。

AIGC到底能幫服裝設計師做什麼?知衣科技創始人兼CEO鄭澤宇認為主要有三方面:

第一,提供靈感。

第二,快速生成出大量符合提示詞的圖片。

第三,降低設計的成本,提高設計的精度和投產效率比。

“但目前AIGC能夠達到的效果只有第二點,第一和第三步還在測試中,1-2年內實現還有困難。”鄭澤宇補充。

鄭澤宇也認為,AIGC還遠遠談不上取代設計師,“AIGC只是一個素材生成方式,判斷這些圖是否是設計師或品牌方想要的,到底用哪張,這才是最重要的問題。”

**2、20年後再無版師? **

**AIGC取代不了設計師,但可以取代版師。這是凌迪科技Style3D首席科學家王華民對本輪AI的預判。 **

版師指從事服裝製版工作的人,製版在整個服裝生產流程中承上啟下——對上,要和設計師溝通樣衣的工藝細節;對下,要向樣衣工或生產工廠交代縫製樣衣的注意事項,把控樣衣(非大貨)質量。

一件衣服的設計圖出來後,還得經歷“打版-修改-再打版-再修改”的過程。 “有時候一個裝飾是要2.5厘米還是3.5厘米,得樣衣出來之後再看效果,因為這就是一個感覺的東西,就是大一點小一點,左一點右一點,得來回調整。”林儷回了一個不忍直視的表情。

這個過程往往耗時耗力,“設計師很多是不懂打版的,或者懂得不多,他需要和版師反复溝通,時間成本和溝通成本就會很高。”王華民認為。

和林儷在同一公司的版師張宇也認同AIGC對版師們的威脅,版師要將設計師的2D稿子變成生產需要的CAD圖,同時生產出樣衣,供設計師進行修改。 “2D轉3D,這個活兒很專業也很套路化。現在一些複雜的版,我們已經不用自己立裁,而是把3D效果給到設計師去看,讓他們直接在3D上做調整。”張宇說。

在凌迪的Style3D AI產業大模型中,只要將相應的服裝拖入設計框,點擊AI生成版片,幾秒內可以將版片和3D效果獨立出來。

圖片來源:凌迪科技Style3D官網

“20年後,當我們的模型足夠大,設計師會變得更全能,因為他的工具更多了。”王華民補充,“到時候,最完美的情況是設計師自己設計,自己打版,甚至人人都可以成為設計師。

**3、電商不需要模特了? **

**除了設計師和版師,模特界也開始“地震”。 **

在電商平台的款式的詳情頁背後,是十幾個人的分工協作,需要從請模特、攝影師、造型師、助理等+準備服裝+影棚租賃or出外景+選片+修片+配圖說明,成本百元到千元不等。

微博賬號“浪豬灰頭”曾發出一張模特攝影工作室的價格表:,一天8小時拍攝,需要支出3.6萬元。其中攝影費(包含400張修圖)1萬,男模和女模費用超2萬,化妝費2000元,搭配費4000元。

圖片:來自網絡

“請多個模特的話,得同時照顧幾個模特的檔期,大量的服裝也需要提前熨燙和整理。而且照片數據大,數量也多,下載、製作、挑選的過程至少5天。我們一個服裝專場至少10天就要上線,經常得招20個兼職人員才夠用。”“浪豬灰頭”補充。

而在凌迪科技推出的AI產業模型中,這些人員和費用都可以省略,只需輸入關鍵詞,就可以生成“數字模特”。

輸入“歐洲女子的臉型,中分長發,典雅氣質,妝容乾淨”,就能生成對應臉型。

圖片來源:凌迪科技Style3D官網

上傳一個模特姿勢圖,就能生成對應姿勢的模特圖。

圖片來源:凌迪科技Style3D官網

輸入背景關鍵詞“超現實主義背景,極簡主義的建築風格,畫面充滿活力,具有夢幻般的建築空間”,就能得到多張對應風格的背景圖。

圖片來源:凌迪科技Style3D官網

**數字人+3D服裝的AI組合拳,正在把一個款式的傳播成本,拉低到無法想像。未來也許品牌方提供一件衣服的照片就可以組織一場走秀和直播。 **

“AI+3D技術將改變傳統的人貨場模式。”王華民認為,“通過文生圖,我們可以生成模特、生成背景、生成姿勢,具體能省多少還沒有衡量。我們主要是工具給到他,至於他們怎麼使用,應用在哪些場景,能節約多少錢,就看他們如何使用這個工具。”

02、AI技術路徑之於服裝,有何不一樣

設計、打版、營銷,在這三個環節,已經有“服裝設計+AIGC”產品相繼面世。

  • 萬事利絲綢與無界AI合作,探索AIGC +絲巾設計;
  • 知衣科技與西湖心辰合作,推出服裝產業模型“FASHION DIFFUSION”,要做服裝行業的Midjourney,在找款、改款與設計等場景中提升設計效率;
  • 供應鏈服務企業魔魚發布“魔魚GPT”,提高服裝設計師提高工作效率;
  • 凌迪科技Style3D發布的Style3D AI產業模型,提供AI預測趨勢、AI生成圖案/版片/材質/圖像等功能,試圖構建起數字時尚產業的“基礎設施”。

服裝設計在過去也一直被AI賦能,這一輪AI與此前有什麼不同?王華民認為,雖然都是AI,但是10年前的AI、5年前的AI和這2年的AI各不相同,“一個人說自己是AI從業者,你得看看他幹的是哪一個AI。”

AI行業經歷了RNN、GAN、Diffusion等多輪迭代,此前的服裝AI都基於GAN,即用生成模型和判別模型相互競爭,生成模型用於創造一個看起來像真圖片的圖片,判別模型用於判斷一張圖片是不是真實的圖片,兩個模型一起對抗訓練,最終兩個模型的能力越來越強,最終達到穩態。

和GAN相比,Diffusion模型只需要訓練生成模型,訓練目標函數簡單,可以實現更優的圖像樣本質量和更好的訓練穩定性。

王華民指出,“GAN的可控性較差,很多東西停留在學術上或者論文上,Diffusion比GAN更容易訓練,同時將可控性整體上了一個台階,訓練效果也有了很大提升。”

基於Diffusion模型的AIGC有兩個明顯優勢:

1、降低設計工具的使用門檻,提高行業滲透率

以往的服裝設計工作,需要掌握繪畫、PS技能,而在本輪AI產業模型中,通過自然語言描述,就能直接生成設計圖。

比如打開知衣科技的FASHION DIFFUSION使用界面,風格、款式、特徵一目了然,只需選擇款式、顏色、材質等選項,10多秒,AI就能生成T台走秀風格、淘寶抖音商品風格,以及INS小紅書社媒風格等各種風格的款式圖片。

圖片來源:知衣科技官網

這樣的便利性和低門檻背後,是知衣科技超10億的服飾圖片與500+服裝設計標籤的行業沉澱,以及西湖心辰在深度學習方面的積累。

2、一個模型滿足多個任務

傳統AI的工作方式是一個任務訓練一個算法模型,且各個模型之間彼此獨立。比如要做圖片搜索,訓練一個模型;要做圖片生成,再訓練一個模型。

而大模型可以一個模型解決多個任務,比如Style3D AI 產業模型提供AI生成圖片、AI生成版片、AI生成材質、AI生成圖片等多種功能。

服裝行業的設計圖需要在2D、3D之間反复切換:

  • 2D:是設計師最初在紙面上設計的內容,如草圖或款式圖。
  • 2.5D:是版師基於款式圖進行製版,是連接二維和三維的橋樑,可以稱作2.5D。
  • 3D:3D數字服裝與數字人(Avatar)結合起來,有了可交互的方式。
  • 2D:在服裝展示環節,圖形學技術通過渲染,把三維物體變成2D視覺效果,例如輸出電商上新的圖片或視頻。

王華民認為,“一個模型可以完成這些模態之間的設計和轉化——我想要幹什麼,我直接告訴他就行了,只需要在出口端設立不同的出口形式,這是理想狀態。但也需要2-3年才能完成。”

**目前AI生成的設計圖,在精度、分辨率、細節、算力成本、製作成本、投產效率比都在測試中,距離商用還有距離。 **

鄭澤宇認為,儘管有海量數據支持,但設計師到底想要什麼,提示詞怎麼來,如何清晰描述出你想要的東西?還是一個問題,還需要通過關注趨勢預測或者捕捉靈感去實現。

同時,大模型的可控性始終是隱患。王華民認為,怎麼保證它出的圖是你想要的,而且可以修改、怎麼樣去提升可控性穩定性,是AIGC商用的重要一環。 “只不過我個人覺得,AI裡面的很多問題可能都是因為數據不夠導致。”

**03、AI能否深入服裝供應鏈? **

“沒有一個萬億級的行業能夠像服裝行業這樣來適應AIGC。”Style3D創始人劉郴認為。

儘管這一波人工智能被冠以“第四次工業革命”,但鄭澤宇覺得,相比起工業革命,目前AIGC對服裝行業的改變還差點意思。

“工業革命發生在生產製造維度上,AIGC更多在設計和時尚維度上,它確實會加速品牌迭代,但想要推動整個產業轉型升級,我覺得它還不夠。服裝的周期長環節多,推動產業轉型升級,還得是整個產業的數字化,而不是單一環節的調整。”鄭澤宇指出。

“儘管我們希望以後人人都是設計師,消費者在C端通過AIGC設計一件自己喜歡的衣服,然後通過C2M直接生產,但中間還有很多環節沒有打通。”王華民認為。

中國服裝供應鏈已經從傳統模式走向快反模式。億邦智庫認為,在小單、快反、個性定制等消費新需求驅動下,數字技術重構服裝產業生態,倒逼工廠及上下游走向敏捷響應。

不斷推廣的3D技術、AR製版、虛擬試衣也在不斷縮短設計師的時間,提高產業鏈反應速度。

(图源:亿邦智库) 供應鏈的數字化似乎超出了AIGC的範疇,但鄭澤宇認為,從設計師切入是牽引供應鏈升級的很好抓手,“設計定了,供應鏈、工藝、面料這些東西才能定。掌控了設計,就有對後端供應鏈的引導力。”

如何從設計出發,牽引供應鏈變革?鄭澤宇認為,數據打通和流轉仍然是核心問題——服裝行業的數據極度分散,掌握在不同參與者手上,幾乎不共享也不傳遞,這是服裝行業數字化的瓶頸。 **對整個產業變革來說,數據打通是更急迫和更瓶頸的那個東西。 **

阻力是多方面的。 “首先,大家不想要被打通的動力要遠遠大於打通的動力。”有從業者指出,“畢竟,一個工廠也不願意告訴你產能是多少,如果告訴你,你就不會派超過我產能的訂單;面料廠也不願意把最新款出上傳平台,防止抄襲。所以其中有很多的阻力。”

其次,有些環節的工藝始終難以數字化。比如面料環節很多企業沒有ERP,更不用提數字化。有服裝品牌負責人告訴億邦動力,“目前設計和生產的快反可以實現,但在面料環節,還是得提前備貨,還是傳統方式,因為面料涉及物理和化學等過程,還沒有太強的快反能力,這個問題短期內也無法解決。”

究其根源,服裝行業龐大而分散——這個行業是就業大戶,能提供約3億的就業崗位,但企業分散度極高,品牌存活週期平均不超過一年。 “大家都生存在一個高度不確定的環境下,都有很強的危機感。”鄭澤宇認為。

在這一背景下,如何實現服裝從設計、生產、銷售的局部協作與閉環?鄭澤宇指出,SheIn做了一個好示範——從訂單的維度去打通整個產業鏈。 SheIn可以給工廠提供穩定的訂單,工廠可以安心出貨;SheIn會把麵料提前給到工廠,品牌也可以放心合作。

設計與生產打通的好處也立竿見影,從設計草稿到打版到下大貨,如果品牌內部流程快,2~3天可以實現下大貨。

目前,知衣科技也在進行這樣的數字化協作——從設計師構思開始,設計師選款時看了哪些圖,選到哪個款,用了哪個供應商,用了哪些面料,誰來打版,線稿展樣板圖是什麼樣子,在哪個展廳,存放了多久,哪些品牌借出,最後誰下了單,下了多少訂單,被分發到哪一個工廠,什麼時候面料到倉,什麼時候開始生產,什麼時候出廠,工廠如何交付,這些所有流程都能用數據串聯起來。一個設計師的款式,從設計到交付,全流程一兩個月內完成。

在這個局部的產業鏈協同中,前端是數字化設計,中間是數字化款式匹配,後端是數字化供應鏈平台,“只有在這種協同下,才可以將AIGC的效率優勢發揮出來。我們距離人人都可以當設計師的時間,才會越來越近。”鄭澤宇認為。

查看原文
本頁面內容僅供參考,非招攬或要約,也不提供投資、稅務或法律諮詢。詳見聲明了解更多風險披露。
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)