1.本技術(shù)涉及計(jì)算機(jī)視覺領(lǐng)域和服裝設(shè)計(jì)領(lǐng)域,尤其涉及一種基于深度學(xué)習(xí)的民族服裝設(shè)計(jì)方法。
背景技術(shù):2.科技創(chuàng)新深刻改變著人們的生活方式,排在“衣、食、住、行”首位的“衣”,其發(fā)展也必須適應(yīng)科技發(fā)展帶來的變化甚至引導(dǎo)科技的發(fā)展方向。服裝作為社會(huì)經(jīng)濟(jì)文化發(fā)展的重要載體,也是時(shí)尚創(chuàng)新要素的主要體現(xiàn),目前科技創(chuàng)新在服裝產(chǎn)業(yè)發(fā)展中的作用更加突出,未來服裝產(chǎn)業(yè)發(fā)展藍(lán)圖將深受科技創(chuàng)新的影響。服裝風(fēng)格指一個(gè)時(shí)代、一個(gè)民族、一個(gè)流派或一個(gè)人的服裝在形式和內(nèi)容方面所顯示出來的價(jià)值取向、內(nèi)在品格和藝術(shù)特色。服裝設(shè)計(jì)追求的境界說到底是風(fēng)格定位和設(shè)計(jì),服裝風(fēng)格表現(xiàn)了設(shè)計(jì)師獨(dú)特的創(chuàng)作思想,藝術(shù)追求,也反映了鮮明的時(shí)代特色。如今,服裝款式千變?nèi)f化,形成了許多不同的風(fēng)格,有的具有歷史淵源、有的具有地域淵源、有的具有文化淵源,以適合不同的穿著場(chǎng)所、不同的穿著群體、不同的穿著方式,展現(xiàn)出不同的個(gè)性魅力。
3.中國是多民族國家,各民族生活環(huán)境各異,形成了別具一格的服飾文化。民族傳統(tǒng)服飾文化成為傳統(tǒng)文化的重要組成部分,對(duì)時(shí)代發(fā)展有著助推作用。民族傳統(tǒng)服飾設(shè)計(jì)在色彩搭配、圖案設(shè)計(jì)、紋樣繪制等方面都有各自的可取之處?,F(xiàn)代服裝設(shè)計(jì)可以借鑒民族傳統(tǒng)服飾的設(shè)計(jì)經(jīng)驗(yàn),從民族傳統(tǒng)服飾中挖掘精髓之處,讓更多人的人感受到民族文化的魅力。
4.但是,在實(shí)際設(shè)計(jì)中,由于中國的民族服裝具有量大的服裝風(fēng)格,所以如果將服裝風(fēng)格與現(xiàn)代設(shè)計(jì)的服裝內(nèi)容一一適應(yīng)配對(duì)進(jìn)行實(shí)地地設(shè)計(jì),將需要耗費(fèi)大量的時(shí)間,而在設(shè)計(jì)后,又要在茫茫多的設(shè)計(jì)中提取優(yōu)秀設(shè)計(jì)進(jìn)行實(shí)地生產(chǎn),導(dǎo)致整個(gè)過程冗長低效,造成了時(shí)間和精力等資源的浪費(fèi)。
技術(shù)實(shí)現(xiàn)要素:5.本技術(shù)提供了一種基于深度學(xué)習(xí)的民族服裝設(shè)計(jì)方法,能夠解決現(xiàn)有的將民族服裝風(fēng)格與現(xiàn)代服裝內(nèi)容結(jié)合過程中存在的低效和資源浪費(fèi)的問題。
6.本技術(shù)的技術(shù)方案是一種基于深度學(xué)習(xí)的民族服裝設(shè)計(jì)方法,包括:
7.s1:確定基于民族特色風(fēng)格的風(fēng)格圖片,以及根據(jù)民族特色風(fēng)格對(duì)風(fēng)格圖片進(jìn)行訓(xùn)練,得到相應(yīng)于民族特色風(fēng)格的處理模型;
8.s2:確定可配合民族特色風(fēng)格的內(nèi)容圖片,以及通過相應(yīng)于民族特色風(fēng)格的處理模型對(duì)可配合民族特色風(fēng)格的內(nèi)容圖片進(jìn)行風(fēng)格遷移,得到相應(yīng)于民族特色風(fēng)格的圖案素材圖片;
9.s3:確定服裝底板,以及基于服裝底板對(duì)圖案素材圖片進(jìn)行對(duì)抗網(wǎng)絡(luò)訓(xùn)練,得到可實(shí)用于服裝生產(chǎn)的服裝設(shè)計(jì)圖片。
10.可選地,所述可配合民族特色風(fēng)格的內(nèi)容圖片為基于服裝設(shè)計(jì)圖片的獲取目的,
基于民族特色風(fēng)格所選擇的內(nèi)容圖片。
11.可選地,所述步驟s1包括:
12.s11:獲取若干張基于民族特色風(fēng)格的風(fēng)格圖片并且確定每張風(fēng)格圖片的風(fēng)格,以及根據(jù)民族特色風(fēng)格將若干張風(fēng)格圖片進(jìn)行分類,得到基于民族特色風(fēng)格的風(fēng)格分類圖片;
13.s12:基于民族特色風(fēng)格對(duì)風(fēng)格分類圖片進(jìn)行訓(xùn)練,得到相應(yīng)于民族特色風(fēng)格的處理模型。
14.可選地,所述步驟s2包括:
15.s21:建立基于內(nèi)容損失和風(fēng)格損失的損失函數(shù),損失函數(shù)如下所示:
[0016][0017]
式中,loss
total
表示總損失值;loss
style
表示內(nèi)容損失;表示相應(yīng)于內(nèi)容損失的網(wǎng)絡(luò)權(quán)值;loss
content
表示風(fēng)格損失;表示相應(yīng)于內(nèi)容損失的網(wǎng)絡(luò)權(quán)值;
[0018]
s22:確定基于快速風(fēng)格遷移的網(wǎng)絡(luò)結(jié)構(gòu),所述網(wǎng)絡(luò)結(jié)構(gòu)包括:圖片轉(zhuǎn)換網(wǎng)絡(luò)階段結(jié)構(gòu)和損失網(wǎng)絡(luò)階段結(jié)構(gòu);
[0019]
確定可配合民族特色風(fēng)格的內(nèi)容圖片,以及通過相應(yīng)于民族特色風(fēng)格的處理模型對(duì)可配合民族特色風(fēng)格的內(nèi)容圖片進(jìn)行風(fēng)格遷移,得到相應(yīng)于民族特色風(fēng)格的圖案素材初始圖片;
[0020]
s23:根據(jù)圖片轉(zhuǎn)換網(wǎng)絡(luò)階段結(jié)構(gòu),轉(zhuǎn)換所述圖案素材初始圖片為圖案素材轉(zhuǎn)換圖片;
[0021]
s24:通過vgg19構(gòu)建損失網(wǎng)絡(luò),以及輸入可配合民族特色風(fēng)格的內(nèi)容圖片、基于民族特色風(fēng)格的風(fēng)格圖片和相應(yīng)于民族特色風(fēng)格的圖案素材初始圖片至損失網(wǎng)絡(luò),得到損失特征圖分布;
[0022]
s25:根據(jù)損失網(wǎng)絡(luò)階段結(jié)構(gòu),通過損失特征圖分布,計(jì)算圖案素材初始圖片的內(nèi)容損失和風(fēng)格損失;
[0023]
以及,根據(jù)損失函數(shù)、內(nèi)容損失和風(fēng)格損失,計(jì)算相應(yīng)于圖案素材圖片的總損失值;
[0024]
s26:基于總損失值最小化原則,調(diào)節(jié)和的占比,獲取和的最佳比例;
[0025]
s27:基于和的最佳比例,得到相應(yīng)于民族特色風(fēng)格的圖案素材圖片。
[0026]
可選地,在步驟s23中,損失特征圖分布中特征圖的數(shù)量為10層,包括:relu1_1、relu1_2、relu2_1、relu2_2、relu3_1、relu3_2、relu3_3、relu4_1、relu4_2和relu4_3;
[0027]
以及,在步驟s24中,基于relu4_3計(jì)算圖案素材初始圖片的內(nèi)容損失,基于relu1_2、relu2_2、relu3_3和relu4_3計(jì)算圖案素材初始圖片的風(fēng)格損失。
[0028]
可選地,在步驟s24中,通過計(jì)算relu4_3中可配合民族特色風(fēng)格的內(nèi)容圖片和相應(yīng)于民族特色風(fēng)格的圖案素材初始圖片的像素的歐氏距離的差異,得到內(nèi)容損失;
[0029]
以及,分別計(jì)算relu1_2、relu2_2、relu3_3和relu4_3中基于民族特色風(fēng)格的風(fēng)格圖片和相應(yīng)于民族特色風(fēng)格的素材初始圖片的grammatrix矩陣,基于grammatrix矩陣,分別計(jì)算relu1_2、relu2_2、relu3_3和relu4_3中像素的歐氏距離的差異,得到風(fēng)格損失。
[0030]
可選地,所述步驟s3包括:
[0031]
s31:確立用于生成服裝設(shè)計(jì)圖片的基于條件變量的cgan模型,條件變量為可控制服裝設(shè)計(jì)圖片在服裝底板上生成部位的部位標(biāo)簽;
[0032]
s32:確定服裝底板,以及通過條件變量為部位標(biāo)簽的cgan模型并且基于服裝底板對(duì)圖案素材圖片進(jìn)行對(duì)抗網(wǎng)絡(luò)訓(xùn)練,得到可實(shí)用于服裝制造的服裝設(shè)計(jì)圖片。
[0033]
可選地,所述cgan模型包括:均引入條件變量的生成模型g和判別模型d;
[0034]
以及,所述步驟s31包括:
[0035]
s311:根據(jù)預(yù)設(shè)分類將若干張圖案素材圖片進(jìn)行分類,得到基于預(yù)設(shè)分類的圖案素材分類圖片并且對(duì)圖案素材分類圖片進(jìn)行相應(yīng)于預(yù)設(shè)分類的類別標(biāo)簽的標(biāo)注,得到分類數(shù)據(jù)集;
[0036]
s312:輸入分類數(shù)據(jù)集至卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到相應(yīng)于預(yù)設(shè)分類的生成模型g;
[0037]
s313:獲取真實(shí)圖案素材集并且輸入真實(shí)圖案素材集至卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到判別模型d;
[0038]
以及,所述步驟s32包括:
[0039]
s321:確定服裝底板,以及通過所述生成模型g并且基于服裝底板,得到生成模型g的輸出;
[0040]
s322:輸入部位標(biāo)簽和生成模型g的輸出至所述判別模型d,所述判別模型d用于判斷均參照于部位標(biāo)簽的生成模型g的輸出和真實(shí)圖案素材集之間的差距,分別得到生成模型g和判別模型d的輸出損失值;
[0041]
s323:基于最小化生成模型g的輸出損失值和最大化判別模型的輸出損失值的優(yōu)化原則,分別對(duì)生成模型g和判別模型d的輸出損失值進(jìn)行優(yōu)化,以及重復(fù)步驟s321~s322,得到可實(shí)用于服裝生產(chǎn)的服裝設(shè)計(jì)圖片。
[0042]
有益效果:
[0043]
本技術(shù)通過將人工智能深度學(xué)習(xí)與服裝設(shè)計(jì)相結(jié)合,提取民族傳統(tǒng)服飾的廓型、色彩和細(xì)節(jié)元素,運(yùn)用風(fēng)格遷移,生成對(duì)抗網(wǎng)絡(luò)創(chuàng)造出新的藝術(shù)形式,創(chuàng)新出符合大眾審美的現(xiàn)代服裝,將藝術(shù)與科技進(jìn)行了有機(jī)的結(jié)合,取得的良好的效果。
[0044]
此外,上述步驟在實(shí)際使用過程中,大大降低了人工設(shè)計(jì)的冗長過程,可便捷簡單地設(shè)計(jì)出多種可供選擇的具有民族特色的服飾,滿足群眾對(duì)具有民族特色的現(xiàn)代服裝的需求,因此,本技術(shù)能夠解決現(xiàn)有的將民族服裝風(fēng)格與現(xiàn)代服裝內(nèi)容結(jié)合過程中存在的低效和資源浪費(fèi)的問題。
附圖說明
[0045]
為了更清楚地說明本技術(shù)的技術(shù)方案,下面將對(duì)實(shí)施例中所需要使用的附圖作簡單地介紹,顯而易見地,對(duì)于本領(lǐng)域普通技術(shù)人員而言,在不付出創(chuàng)造性勞動(dòng)性的前提下,還可以根據(jù)這些附圖獲得其他的附圖。
[0046]
圖1為本技術(shù)實(shí)施例中一種基于深度學(xué)習(xí)的民族服裝設(shè)計(jì)方法的流程示意圖;
[0047]
圖2為本技術(shù)實(shí)施例中風(fēng)格遷移的示例圖;
[0048]
圖3為本技術(shù)實(shí)施例中的基于快速風(fēng)格遷移的網(wǎng)絡(luò)結(jié)構(gòu)的結(jié)構(gòu)示意圖;
[0049]
圖4為本技術(shù)實(shí)施例中對(duì)抗網(wǎng)絡(luò)算法的原理示意圖;
[0050]
圖5為本技術(shù)實(shí)施例中帶條件約束的對(duì)抗網(wǎng)絡(luò)算法的原理示意圖;
[0051]
圖6為本技術(shù)實(shí)施例中具有民族特色的紋理示意圖;
[0052]
圖7為本技術(shù)實(shí)施例中風(fēng)格遷移的遷移示意圖一;
[0053]
圖8為本技術(shù)實(shí)施例中風(fēng)格遷移的遷移示意圖二;
[0054]
圖9為本技術(shù)實(shí)施例中多民族特色風(fēng)格在遷移完成后的成果示意圖;
[0055]
圖10為本技術(shù)實(shí)施例中服裝底板的示意圖;
[0056]
圖11為本技術(shù)實(shí)施例中渲染完成后的成果示意圖;
[0057]
圖12為本技術(shù)實(shí)施例中約束對(duì)抗完成后的成果示意圖。
具體實(shí)施方式
[0058]
下面將詳細(xì)地對(duì)實(shí)施例進(jìn)行說明,其示例表示在附圖中。下面的描述涉及附圖時(shí),除非另有表示,不同附圖中的相同數(shù)字表示相同或相似的要素。以下實(shí)施例中描述的實(shí)施方式并不代表與本技術(shù)相一致的所有實(shí)施方式。僅是與權(quán)利要求書中所詳述的、本技術(shù)的一些方面相一致的系統(tǒng)和方法的示例。
[0059]
人工智能(artificialintelligence,英文縮寫為ai)是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué),被譽(yù)為世界三大尖端技術(shù)之一。其中,人工神經(jīng)網(wǎng)絡(luò)是當(dāng)前備受矚目的人工智能算法,它通過模擬人類大腦皮層神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),實(shí)現(xiàn)模擬人類的思維能力。
[0060]
2014年,生成對(duì)抗網(wǎng)絡(luò)理論出現(xiàn),將人工智能正式引入創(chuàng)造領(lǐng)域。該網(wǎng)絡(luò)主要通過生成器和判別器互相博弈學(xué)習(xí)產(chǎn)生輸出,達(dá)到動(dòng)態(tài)均衡即生成器生成原始訓(xùn)練數(shù)據(jù)集中沒有的新圖像,既接近真實(shí)圖像分布,而判別器又識(shí)別不出真假圖像,這個(gè)過程可以看作是創(chuàng)造的過程。生成對(duì)抗網(wǎng)絡(luò)(gan,generativeadversarialnetworks)是一種深度學(xué)習(xí)模型,是近年來復(fù)雜分布上無監(jiān)督學(xué)習(xí)最具前景的方法之一。
[0061]
風(fēng)格遷移設(shè)計(jì)就是對(duì)圖像風(fēng)格的模仿過程。將一張風(fēng)格圖像遷移合成到目標(biāo)內(nèi)容圖像,使生成的結(jié)果圖像既保持目標(biāo)內(nèi)容服裝圖片的形狀、結(jié)構(gòu)信息,又具有風(fēng)格像的色彩、紋理等信息,形成一種新的風(fēng)格。
[0062]
現(xiàn)可通過本技術(shù)實(shí)施例的技術(shù)方案將人工智能深度學(xué)習(xí)與服裝設(shè)計(jì)相結(jié)合,提取民族傳統(tǒng)服飾的廓型、色彩和細(xì)節(jié)元素,運(yùn)用風(fēng)格遷移,生成對(duì)抗網(wǎng)絡(luò)創(chuàng)造出新的藝術(shù)形式,創(chuàng)新出符合大眾審美的現(xiàn)代服裝。
[0063]
本技術(shù)提供了一種基于深度學(xué)習(xí)的民族服裝設(shè)計(jì)方法,如圖1所示,圖1為本技術(shù)實(shí)施例中一種基于深度學(xué)習(xí)的民族服裝設(shè)計(jì)方法的流程示意圖,方法包括如下步驟:
[0064]
s1:確定基于民族特色風(fēng)格的風(fēng)格圖片,以及根據(jù)民族特色風(fēng)格對(duì)風(fēng)格圖片進(jìn)行訓(xùn)練,得到相應(yīng)于民族特色風(fēng)格的處理模型。
[0065]
其中,步驟s1包括包括:
[0066]
s11:獲取若干張基于民族特色風(fēng)格的風(fēng)格圖片并且確定每張風(fēng)格圖片的風(fēng)格,以及根據(jù)民族特色風(fēng)格將若干張風(fēng)格圖片進(jìn)行分類,得到基于民族特色風(fēng)格的風(fēng)格分類圖片。
[0067]
具體地,傳統(tǒng)的服裝圖片中包含了服裝圖片的風(fēng)格和服裝圖片的內(nèi)容。服裝圖片的風(fēng)格可以理解為服裝圖片的筆觸和顏色等信息,服裝圖片的內(nèi)容指的是服裝圖片的語義
信息,可以理解為圖中包含的是什么物體。如圖2所示,圖2為本技術(shù)實(shí)施例中風(fēng)格遷移的示例圖,水墨畫中的駿馬和肉眼看到的駿馬,內(nèi)容同樣都是馬本身,但顯示效果大不相同,水墨畫中的水墨紋理即為服裝圖片的風(fēng)格,這便能淺顯易懂的明白風(fēng)格與內(nèi)容的區(qū)別。并且從統(tǒng)計(jì)學(xué)角度或者數(shù)學(xué)角度來說,服裝圖片的內(nèi)容和風(fēng)格是可以分離開的。從這一角度出發(fā),試圖將服裝圖片的內(nèi)容和風(fēng)格進(jìn)行分離,提取出包含圖像風(fēng)格的模型并將其應(yīng)用到目標(biāo)圖像上內(nèi)容上,使其顯示出原圖像風(fēng)格,這便是本項(xiàng)目的風(fēng)格遷移的設(shè)計(jì)思路。
[0068]
首先依據(jù)需求將風(fēng)格圖片進(jìn)行分類,分類的程度根據(jù)需求確定。在分類后,可得基于民族特色風(fēng)格的風(fēng)格分類圖片。
[0069]
s12:基于民族特色風(fēng)格對(duì)風(fēng)格分類圖片進(jìn)行訓(xùn)練,得到相應(yīng)于民族特色風(fēng)格的處理模型。
[0070]
可配合民族特色風(fēng)格的內(nèi)容圖片為基于服裝設(shè)計(jì)圖片的獲取目的,基于民族特色風(fēng)格所選擇的內(nèi)容圖片。
[0071]
s2:確定可配合民族特色風(fēng)格的內(nèi)容圖片,以及通過相應(yīng)于民族特色風(fēng)格的處理模型對(duì)可配合民族特色風(fēng)格的內(nèi)容圖片進(jìn)行風(fēng)格遷移,得到相應(yīng)于民族特色風(fēng)格的圖案素材圖片。
[0072]
具體地,卷積神經(jīng)網(wǎng)絡(luò)具有強(qiáng)大的圖像處理能力,被廣泛應(yīng)用于圖像處理領(lǐng)域。卷積神經(jīng)網(wǎng)絡(luò)可通過許多局部的、輕量的卷積核層級(jí)地提取、組合圖像特征。在卷積神經(jīng)網(wǎng)絡(luò)中,每一卷積層的一系列卷積核都可以視作該網(wǎng)絡(luò)的一組圖像濾波器,這一組濾波器會(huì)對(duì)特定特征進(jìn)行提取,濾波器得到的響應(yīng)可以看做是該圖像的一組特征表達(dá)。只需要將卷積層的激活值通過線性分類器進(jìn)行類別劃分,最后的輸出即為包含著圖像的內(nèi)容或風(fēng)格的特征參數(shù)。
[0073]
同時(shí),采用卷積神經(jīng)網(wǎng)絡(luò)來對(duì)特征參數(shù)進(jìn)行提取可以很大程度上減少計(jì)算的困難程度。在人工的全連接神經(jīng)網(wǎng)絡(luò)中,每相鄰兩層之間的每個(gè)神經(jīng)元之間都是有邊相連的。
[0074]
當(dāng)輸入層的特征維度變得很高時(shí),這時(shí)全連接網(wǎng)絡(luò)需要訓(xùn)練的參數(shù)就會(huì)增大很多,計(jì)算速度就會(huì)變得很慢,例如一張黑白的28
×
28的手寫數(shù)字圖片,輸入層的神經(jīng)元就有784(28
×
28)個(gè)。若在中間只使用一層隱藏層,參數(shù)就有784
×
15=11760多個(gè);若輸入的是28
×
28帶有顏色的rgb格式的手寫數(shù)字圖片,輸入神經(jīng)元就有28
×
28
×
3=2352(rgb有3個(gè)顏色通道)個(gè)。這很容易發(fā)現(xiàn)使用全連接神經(jīng)網(wǎng)絡(luò)處理圖像中所產(chǎn)生的需要訓(xùn)練參數(shù)過多問題。而在卷積神經(jīng)網(wǎng)絡(luò)中,卷積層的神經(jīng)元只與前一層的部分神經(jīng)元節(jié)點(diǎn)相連,即它的神經(jīng)元間的連接是非全連接的,且同一層中某些神經(jīng)元之間的連接的權(quán)重和偏移是共享的,這樣大量地減少了需要訓(xùn)練參數(shù)的數(shù)量。
[0075]
其中,步驟s2包括:
[0076]
s21:建立基于內(nèi)容損失和風(fēng)格損失的損失函數(shù),損失函數(shù)如下所示:
[0077][0078]
式中,loss
total
表示總損失值;loss
style
表示內(nèi)容損失;表示相應(yīng)于內(nèi)容損失的網(wǎng)絡(luò)權(quán)值;loss
content
表示風(fēng)格損失;表示相應(yīng)于內(nèi)容損失的網(wǎng)絡(luò)權(quán)值。
[0079]
s22:確定基于快速風(fēng)格遷移的網(wǎng)絡(luò)結(jié)構(gòu),網(wǎng)絡(luò)結(jié)構(gòu)包括:圖片轉(zhuǎn)換網(wǎng)絡(luò)階段結(jié)構(gòu)和損失網(wǎng)絡(luò)階段結(jié)構(gòu)。
[0080]
確定可配合民族特色風(fēng)格的內(nèi)容圖片,以及通過相應(yīng)于民族特色風(fēng)格的處理模型
對(duì)可配合民族特色風(fēng)格的內(nèi)容圖片進(jìn)行風(fēng)格遷移,得到相應(yīng)于民族特色風(fēng)格的圖案素材初始圖片。
[0081]
具體地,如圖3所示,圖3為本技術(shù)實(shí)施例中的基于快速風(fēng)格遷移的網(wǎng)絡(luò)結(jié)構(gòu)的結(jié)構(gòu)示意圖。
[0082]
s23:根據(jù)快速風(fēng)格遷移(fastneuralstyletransfer)的圖片轉(zhuǎn)換網(wǎng)絡(luò)階段結(jié)構(gòu),轉(zhuǎn)換圖案素材初始圖片為圖案素材轉(zhuǎn)換圖片。
[0083]
具體地,如圖3所示,x(inputimage)表示圖案素材轉(zhuǎn)換圖片。
[0084]yt
表示圖案素材轉(zhuǎn)換圖片。
[0085]
imagetransformnet為將圖案素材初始圖片轉(zhuǎn)換為圖案素材轉(zhuǎn)換圖片的工具。
[0086]
s24:通過vgg19構(gòu)建損失網(wǎng)絡(luò),以及輸入可配合民族特色風(fēng)格的內(nèi)容圖片、基于民族特色風(fēng)格的風(fēng)格圖片和相應(yīng)于民族特色風(fēng)格的圖案素材初始圖片至損失網(wǎng)絡(luò),得到損失特征圖分布。
[0087]
具體地,損失特征圖分布如圖3的右側(cè)所示。
[0088]
損失特征圖分布中特征圖的數(shù)量為10層,包括:relu1_1、relu1_2、relu2_1、relu2_2、relu3_1、relu3_2、relu3_3、relu4_1、relu4_2和relu4_3。
[0089]
s25:根據(jù)損失網(wǎng)絡(luò)階段結(jié)構(gòu),通過損失特征圖分布,計(jì)算圖案素材初始圖片的內(nèi)容損失和風(fēng)格損失。以及,根據(jù)損失函數(shù)、內(nèi)容損失和風(fēng)格損失,計(jì)算相應(yīng)于圖案素材圖片的總損失值。
[0090]
具體地,通過使用卷積神經(jīng)網(wǎng)絡(luò)中的vgg19預(yù)訓(xùn)練模型進(jìn)行圖像內(nèi)容損失(contentloss)計(jì)算,網(wǎng)絡(luò)中的每一層都定義了一個(gè)非線性濾波器組(這一組濾波器會(huì)對(duì)特定特征進(jìn)行提取,濾波器得到的響應(yīng)可以看做是該圖像的一組特征表達(dá)。),其復(fù)雜性隨著該層在網(wǎng)絡(luò)中的位置而增加,將圖像輸入至網(wǎng)絡(luò)中,每一層都會(huì)對(duì)其進(jìn)行編碼。
[0091]
內(nèi)容損失計(jì)算:當(dāng)網(wǎng)絡(luò)的處理層次逐漸加深時(shí),網(wǎng)絡(luò)中的較高層根據(jù)輸入圖像的排列來捕捉高級(jí)內(nèi)容,但并不太注重精確像素值。相比之下,較低層的重建只是簡單地再現(xiàn)原始圖像的精確像素值,對(duì)于內(nèi)容并不敏感。計(jì)算內(nèi)容損失時(shí)如果選太淺的層,就會(huì)保留較多的紋理顏色信息,而在風(fēng)格遷移時(shí)其實(shí)只需要保留語義信息,因此,將網(wǎng)絡(luò)較高層中的特征響應(yīng)作為內(nèi)容特征進(jìn)行損失計(jì)算。
[0092]
因此,在圖3中通過計(jì)算relu4_3中可配合民族特色風(fēng)格的內(nèi)容圖片和相應(yīng)于民族特色風(fēng)格的圖案素材初始圖片的像素的歐氏距離的差異,得到內(nèi)容損失。
[0093]
風(fēng)格損失計(jì)算:對(duì)于風(fēng)格損失(styleloss)的計(jì)算,提到將圖像輸入至卷積神經(jīng)網(wǎng)絡(luò)中后,經(jīng)過卷積層后得到的特征圖的協(xié)方差矩陣。協(xié)方差矩陣可為grammatrix矩陣。
[0094]
grammatrix矩陣可以看作是feature之間的偏心協(xié)方差矩陣,featuremap中每個(gè)數(shù)字都來自一個(gè)特定濾波器在特定位置的卷積,因此每個(gè)數(shù)字就代表一個(gè)特征的強(qiáng)度。
[0095]
grammatrix是特征圖矩陣與自身逆矩陣相乘得到的矩陣,內(nèi)積之后得到的矩陣的對(duì)角線元素體現(xiàn)了每個(gè)特征在圖像中出現(xiàn)的量,而其他元素則包含了不同特征之間的相關(guān)信息。因此grammatrix矩陣可以反應(yīng)整個(gè)圖像的風(fēng)格。要度量兩個(gè)圖像風(fēng)格之間的差異,只需比較兩個(gè)圖像風(fēng)格的grammatrix矩陣即可實(shí)現(xiàn)。
[0096]
因此,在圖3中分別計(jì)算relu1_2、relu2_2、relu3_3和relu4_3中基于民族特色風(fēng)格的風(fēng)格圖片和相應(yīng)于民族特色風(fēng)格的素材初始圖片的grammatrix矩陣,基于grammatrix
矩陣,分別計(jì)算relu1_2、relu2_2、relu3_3和relu4_3中像素的歐氏距離的差異,得到風(fēng)格損失。
[0097]
最后,根據(jù)損失函數(shù)、內(nèi)容損失和風(fēng)格損失,計(jì)算相應(yīng)于圖案素材圖片的總損失值。
[0098]
s26:基于總損失值最小化原則,調(diào)節(jié)和的占比,獲取和的最佳比例;
[0099]
s27:基于和的最佳比例,得到相應(yīng)于民族特色風(fēng)格的圖案素材圖片。
[0100]
s3:確定服裝底板,以及基于服裝底板對(duì)圖案素材圖片進(jìn)行對(duì)抗網(wǎng)絡(luò)訓(xùn)練,得到服裝設(shè)計(jì)圖片。
[0101]
其中,步驟s3包括:
[0102]
s31:確立用于生成服裝設(shè)計(jì)圖片的基于條件變量的cgan模型,條件變量為可控制服裝設(shè)計(jì)圖片在服裝底板上生成部位的部位標(biāo)簽。
[0103]
具體地,雖然已經(jīng)生成出風(fēng)格遷移完成后的服裝圖案素材,但直接采用風(fēng)格遷移后的圖片進(jìn)行貼圖到服裝上,會(huì)導(dǎo)致服裝樣式單一,美觀度并沒有到達(dá)之前所設(shè)想的高度,所以這里選擇了cgan對(duì)服裝的各部位的圖案進(jìn)行設(shè)計(jì)。
[0104]
其中,cgan模型包括:均引入條件變量的生成模型g和判別模型d。
[0105]
生成式對(duì)抗網(wǎng)絡(luò)因其相互對(duì)抗精妙的設(shè)計(jì),在各種場(chǎng)景中的應(yīng)用,成為了近幾年學(xué)界的研宄熱點(diǎn),也產(chǎn)生了非常多的變體,如控制生成先驗(yàn)條件的條件生成對(duì)抗網(wǎng)絡(luò),從信息論角度優(yōu)化的infogan、對(duì)生成式對(duì)抗網(wǎng)絡(luò)優(yōu)化目標(biāo)進(jìn)行改進(jìn)的w-gan。生成式對(duì)抗網(wǎng)絡(luò)帶來的令人驚喜的效果,因此開始研宄如何將gan作為圖像翻譯任務(wù)的通用框架。
[0106]
gan模型框架包括兩個(gè)模塊:生成模型(generativemodel)和判別模型(discriminativemodel)的互相博弈學(xué)習(xí)產(chǎn)生折中的輸出,gan的對(duì)抗網(wǎng)絡(luò)公式如下所示:
[0107][0108]
此處以生成圖片為例對(duì)該公式進(jìn)行說明。假設(shè)有兩個(gè)網(wǎng)絡(luò),g(generator)和d(discriminator),功能分別是:
[0109]
g是一個(gè)生成圖片的網(wǎng)絡(luò),它接收一個(gè)隨機(jī)的噪聲z,通過這個(gè)噪聲生成圖片,記做g(z)。
[0110]
d是一個(gè)判別網(wǎng)絡(luò),判別一張圖片是不是“真實(shí)的”。它的輸入?yún)?shù)是x,x代表一張圖片,輸出d(x)代表x為真實(shí)圖片的概率,如果為1,就代表100%是真實(shí)的圖片,而輸出為0,就代表不可能是真實(shí)的圖片。
[0111]
如圖4所示,圖4為本技術(shù)實(shí)施例中對(duì)抗網(wǎng)絡(luò)算法的原理示意圖,在訓(xùn)練過程中,生成網(wǎng)絡(luò)g的目標(biāo)就是盡可能生成真實(shí)的圖片去欺騙判別網(wǎng)絡(luò)d,而d的目標(biāo)就是盡量把g生成的圖片和真實(shí)的圖片分別開來。g和d構(gòu)成了一個(gè)動(dòng)態(tài)的“博弈過程”。
[0112]
最后博弈的結(jié)果,在最理想的狀態(tài)下,g可以生成足以“以假亂真”的圖片g(z)。對(duì)于d來說,它難以判定g生成的圖片究竟是不是真實(shí)的,即達(dá)到了一個(gè)納什均衡,因此d(g(z))=0.5。此時(shí),模型的收斂目標(biāo)是生成器能夠從隨機(jī)噪聲生成真實(shí)數(shù)據(jù)。
[0113]
gan目的是使得生成器能夠從隨機(jī)噪聲中生成真實(shí)數(shù)據(jù),然而,這種不需要預(yù)先建模的方法缺點(diǎn)是太過自由了,對(duì)于較大的圖片,較多的pixel(像素)的情形,基于簡單gan的
方式就不太可控了。并且gan在訓(xùn)練的過程中如有一點(diǎn)差錯(cuò)會(huì)導(dǎo)致程序崩潰,訓(xùn)練困難加大。想要解決這個(gè)問題,便需要在博弈的過程中加以約束,于是需要應(yīng)用cgan,即條件生成式對(duì)抗網(wǎng)絡(luò)。
[0114]
如圖5所示,圖5為本技術(shù)實(shí)施例中帶條件約束的對(duì)抗網(wǎng)絡(luò)算法的原理示意圖,cgan為一種帶條件約束的gan,在生成模型(d)和判別模型(g)的建模中均引入條件變量y(conditionalvariabley),使用條件變量y對(duì)模型增加條件,可以指導(dǎo)數(shù)據(jù)生成過程。
[0115]
條件變量y可以基于多種信息,例如類別標(biāo)簽,用于圖像修復(fù)的部分?jǐn)?shù)據(jù),來自不同模態(tài)(modality)的數(shù)據(jù)。
[0116]
如果條件變量y是類別標(biāo)簽,可以看做cgan是把純無監(jiān)督的gan變成有監(jiān)督的模型的一種改進(jìn)。這個(gè)簡單直接的改進(jìn)被證明非常有效,并廣泛用于后續(xù)的相關(guān)工作中。
[0117]
cgan的條件對(duì)抗網(wǎng)絡(luò)公式如下所示:
[0118][0119]
步驟s31包括:
[0120]
s311:根據(jù)預(yù)設(shè)分類將若干張圖案素材圖片進(jìn)行分類,得到基于預(yù)設(shè)分類的圖案素材分類圖片并且對(duì)圖案素材分類圖片進(jìn)行相應(yīng)于預(yù)設(shè)分類的類別標(biāo)簽的標(biāo)注,得到分類數(shù)據(jù)集。
[0121]
具體地,類別指的是服裝類別,即連衣裙或者t恤等。
[0122]
s312:輸入分類數(shù)據(jù)集至卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到相應(yīng)于預(yù)設(shè)分類的生成模型g。
[0123]
具體地,此時(shí),運(yùn)用到在前文提到的cgan的公式,對(duì)于生成模型g,將風(fēng)格遷移完成后的圖像進(jìn)行類別劃分,將不同的類型風(fēng)格圖像標(biāo)注類別標(biāo)簽,建立數(shù)據(jù)集,將數(shù)據(jù)集輸入至卷積神經(jīng)網(wǎng)絡(luò)生成器中以此來作為生成模型g。
[0124]
s313:獲取真實(shí)圖案素材集并且輸入真實(shí)圖案素材集至卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到(可判別服飾類別)判別模型d。
[0125]
具體地,對(duì)于判別模型d,首先自建服裝數(shù)據(jù)集,然后將服裝數(shù)據(jù)集輸入至卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行模型訓(xùn)練,生成可判斷服飾類別的判別模型來作為判別模型d。
[0126]
條件變量y由設(shè)計(jì)人員進(jìn)行人工輸入部位標(biāo)簽,用來控制圖像生成在服裝上的部位,從而進(jìn)一步約束對(duì)抗的過程。在完成一系列工作后,網(wǎng)絡(luò)會(huì)輸出符合我們大眾審美的服裝風(fēng)格。
[0127]
s32:確定服裝底板,以及通過條件變量為部位標(biāo)簽的cgan模型并且基于服裝底板對(duì)圖案素材圖片進(jìn)行對(duì)抗網(wǎng)絡(luò)訓(xùn)練,得到可實(shí)用于服裝制造的服裝設(shè)計(jì)圖片。
[0128]
其中,步驟s32包括:
[0129]
s321:確定服裝底板,以及通過生成模型g并且基于服裝底板,得到生成模型g的輸出。
[0130]
s322:輸入部位標(biāo)簽和生成模型g的輸出至判別模型d,判別模型d用于判斷均參照于部位標(biāo)簽的生成模型g的輸出和真實(shí)圖案素材集之間的差距,分別得到生成模型g和判別模型d的輸出損失值。
[0131]
s323:基于最小化生成模型g的輸出損失值和最大化判別模型的輸出損失值的優(yōu)
化原則,分別對(duì)生成模型g和判別模型d的輸出損失值進(jìn)行優(yōu)化,以及重復(fù)步驟s321~s322,得到可實(shí)用于服裝生產(chǎn)的服裝設(shè)計(jì)圖片。
[0132]
實(shí)施例一
[0133]
(一)模型訓(xùn)練:
[0134]
選取微軟coco數(shù)據(jù)集中的2014訓(xùn)練數(shù)據(jù)作為數(shù)據(jù)集,mscoco2014訓(xùn)練集共有82783張圖片。采用vgg19作為訓(xùn)練模型,vgg19相比alexne的一個(gè)改進(jìn)是采用連續(xù)的幾個(gè)3x3的卷積核代替alexnet中的較大卷積核(11x11,7x7,5x5)。對(duì)于給定的感受野(與輸出有關(guān)的輸入圖片的局部大小),采用堆積的小卷積核是優(yōu)于采用大的卷積核,因?yàn)槎鄬臃蔷€性層可以增加網(wǎng)絡(luò)深度來保證學(xué)習(xí)更復(fù)雜的模式,而且代價(jià)還比較小(參數(shù)更少)。
[0135]
將所收集到的基于民族特色風(fēng)格的風(fēng)格圖片進(jìn)行訓(xùn)練,分別生成相應(yīng)的模型,為后續(xù)的工作做準(zhǔn)備。
[0136]
運(yùn)用所生成的處理模型,對(duì)目標(biāo)圖片進(jìn)行遷移,目標(biāo)圖片選擇的是在內(nèi)容與風(fēng)格中,內(nèi)容更加突出的圖片來進(jìn)行測(cè)驗(yàn),例如只包含物體的圖片,例如動(dòng)物馬,樂器吉它,寵物狗等等。這樣生成的圖片更具有區(qū)分度,更加鮮明。至此,已經(jīng)生成出風(fēng)格遷移完成后的服裝圖案素材。
[0137]
(二)風(fēng)格遷移:
[0138]
具有民族特色的紋理圖案多種多樣,如圖6所示,圖6為本技術(shù)實(shí)施例中具有民族特色的紋理示意圖。
[0139]
1)選用侗族的太清濁二氣紋刺繡背帶蓋片作為原風(fēng)格圖片,選用孔雀作為目標(biāo)圖片,進(jìn)行訓(xùn)練,共訓(xùn)練20個(gè)epoch(一個(gè)epoch等于遍歷該數(shù)據(jù)集所有圖片一遍),這里共截取出三個(gè)epoch所遷移的效果。
[0140]
如圖7所示,圖7為本技術(shù)實(shí)施例中風(fēng)格遷移的遷移示意圖一,圖7中左側(cè)中contentimage表示內(nèi)容圖片,圖7中左側(cè)中styleimage表示風(fēng)格圖片,圖7中右側(cè)為三個(gè)generatedimage表示迭代后的圖片。
[0141]
2)選用侗族的太陽榕樹花刺繡蓋片紋樣作為原風(fēng)格圖片,進(jìn)行第二次遷移實(shí)驗(yàn)。效果如圖所示。
[0142]
如圖8所示,圖8為本技術(shù)實(shí)施例中風(fēng)格遷移的遷移示意圖二,圖8中左側(cè)中contentimage表示內(nèi)容圖片,圖8中左側(cè)中styleimage表示風(fēng)格圖片,圖8中右側(cè)為三個(gè)generatedimage表示迭代后的圖片。
[0143]
從圖8(實(shí)際的顏色版)中可明顯得出以下結(jié)論:第一次和第二次迭代圖片效果顏色較深,整體效果更偏向于原風(fēng)格圖片,第三次迭代后,顏色更加艷麗,更近似于內(nèi)容圖片和風(fēng)格圖片占比各占50%,實(shí)現(xiàn)了圖像風(fēng)格遷移,得到圖案素材圖片。
[0144]
如圖9所示,圖9為本技術(shù)實(shí)施例中多民族特色風(fēng)格在遷移完成后的成果示意圖。
[0145]
(三)服飾設(shè)計(jì):
[0146]
在遷移實(shí)現(xiàn)之后,需要將圖片應(yīng)用到服裝上。服裝有類型、原料、樣式、規(guī)格、顏色、圖案六種基本屬性,本技術(shù)實(shí)施例的服裝類型只選取標(biāo)準(zhǔn)男性純白短袖和女士長款裙子,以及選取圖案(即內(nèi)容)作為研究重點(diǎn),其他四種基本屬性并未涉及。
[0147]
實(shí)驗(yàn)初步,需要將生成好的圖案素材圖片渲染到選取的空白的服裝底板上,如圖10和圖11所示,圖10為本技術(shù)實(shí)施例中服裝底板的示意圖,圖11為本技術(shù)實(shí)施例中渲染完
成后的成果示意圖。
[0148]
(四)約束對(duì)抗:
[0149]
在完成遷移訓(xùn)練之后,開始進(jìn)行對(duì)生成的圖案素材圖片進(jìn)行對(duì)抗網(wǎng)絡(luò)訓(xùn)練,從而進(jìn)一步的生成符合大眾審美的服裝。
[0150]
首先經(jīng)過生成模型g生成輸出,在專業(yè)的設(shè)計(jì)人員的參與下,將控制圖案生成部位的部位標(biāo)簽與生成模型g的輸出一并輸入至判別模型d中,進(jìn)行判別輸出與真實(shí)數(shù)據(jù)之間的差距,計(jì)算生成器g與判別器d各自的輸出損失值。最后,通過算法來優(yōu)化訓(xùn)練出的權(quán)重參數(shù),然后進(jìn)行多次循環(huán),每經(jīng)過10個(gè)epoch輸出生成的圖像,如圖12所示,圖12為本技術(shù)實(shí)施例中約束對(duì)抗完成后的成果示意圖。
[0151]
綜上所述,本技術(shù)實(shí)施例利用tensorflow等開源技術(shù),將人工智能中的風(fēng)格遷移與生成對(duì)抗網(wǎng)絡(luò)與服裝設(shè)計(jì)結(jié)合。提取民族傳統(tǒng)服飾的廓型、色彩和細(xì)節(jié)元素,與現(xiàn)代服裝設(shè)計(jì)進(jìn)行整合、再創(chuàng)造,既傳承與弘揚(yáng)了民族傳統(tǒng),又滿足了人們對(duì)服裝高品質(zhì)的需求。傳統(tǒng)藝術(shù)形式與新科技、新技術(shù)的交融正是服裝發(fā)展的未來趨勢(shì),有著廣闊的應(yīng)用前景。
[0152]
以上對(duì)本技術(shù)的實(shí)施例進(jìn)行了詳細(xì)說明,但內(nèi)容僅為本技術(shù)的較佳實(shí)施例,不能被認(rèn)為用于限定本技術(shù)的實(shí)施范圍。凡依本技術(shù)范圍所作的均等變化與改進(jìn)等,均應(yīng)仍屬于本技術(shù)的專利涵蓋范圍之內(nèi)。