国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種基于深度學(xué)習(xí)的民族服裝設(shè)計(jì)方法

      文檔序號(hào):31838722發(fā)布日期:2022-10-18 22:01閱讀:250來源:國知局
      一種基于深度學(xué)習(xí)的民族服裝設(shè)計(jì)方法

      1.本技術(shù)涉及計(jì)算機(jī)視覺領(lǐng)域和服裝設(shè)計(jì)領(lǐng)域,尤其涉及一種基于深度學(xué)習(xí)的民族服裝設(shè)計(jì)方法。


      背景技術(shù):

      2.科技創(chuàng)新深刻改變著人們的生活方式,排在“衣、食、住、行”首位的“衣”,其發(fā)展也必須適應(yīng)科技發(fā)展帶來的變化甚至引導(dǎo)科技的發(fā)展方向。服裝作為社會(huì)經(jīng)濟(jì)文化發(fā)展的重要載體,也是時(shí)尚創(chuàng)新要素的主要體現(xiàn),目前科技創(chuàng)新在服裝產(chǎn)業(yè)發(fā)展中的作用更加突出,未來服裝產(chǎn)業(yè)發(fā)展藍(lán)圖將深受科技創(chuàng)新的影響。服裝風(fēng)格指一個(gè)時(shí)代、一個(gè)民族、一個(gè)流派或一個(gè)人的服裝在形式和內(nèi)容方面所顯示出來的價(jià)值取向、內(nèi)在品格和藝術(shù)特色。服裝設(shè)計(jì)追求的境界說到底是風(fēng)格定位和設(shè)計(jì),服裝風(fēng)格表現(xiàn)了設(shè)計(jì)師獨(dú)特的創(chuàng)作思想,藝術(shù)追求,也反映了鮮明的時(shí)代特色。如今,服裝款式千變?nèi)f化,形成了許多不同的風(fēng)格,有的具有歷史淵源、有的具有地域淵源、有的具有文化淵源,以適合不同的穿著場(chǎng)所、不同的穿著群體、不同的穿著方式,展現(xiàn)出不同的個(gè)性魅力。
      3.中國是多民族國家,各民族生活環(huán)境各異,形成了別具一格的服飾文化。民族傳統(tǒng)服飾文化成為傳統(tǒng)文化的重要組成部分,對(duì)時(shí)代發(fā)展有著助推作用。民族傳統(tǒng)服飾設(shè)計(jì)在色彩搭配、圖案設(shè)計(jì)、紋樣繪制等方面都有各自的可取之處?,F(xiàn)代服裝設(shè)計(jì)可以借鑒民族傳統(tǒng)服飾的設(shè)計(jì)經(jīng)驗(yàn),從民族傳統(tǒng)服飾中挖掘精髓之處,讓更多人的人感受到民族文化的魅力。
      4.但是,在實(shí)際設(shè)計(jì)中,由于中國的民族服裝具有量大的服裝風(fēng)格,所以如果將服裝風(fēng)格與現(xiàn)代設(shè)計(jì)的服裝內(nèi)容一一適應(yīng)配對(duì)進(jìn)行實(shí)地地設(shè)計(jì),將需要耗費(fèi)大量的時(shí)間,而在設(shè)計(jì)后,又要在茫茫多的設(shè)計(jì)中提取優(yōu)秀設(shè)計(jì)進(jìn)行實(shí)地生產(chǎn),導(dǎo)致整個(gè)過程冗長低效,造成了時(shí)間和精力等資源的浪費(fèi)。


      技術(shù)實(shí)現(xiàn)要素:

      5.本技術(shù)提供了一種基于深度學(xué)習(xí)的民族服裝設(shè)計(jì)方法,能夠解決現(xiàn)有的將民族服裝風(fēng)格與現(xiàn)代服裝內(nèi)容結(jié)合過程中存在的低效和資源浪費(fèi)的問題。
      6.本技術(shù)的技術(shù)方案是一種基于深度學(xué)習(xí)的民族服裝設(shè)計(jì)方法,包括:
      7.s1:確定基于民族特色風(fēng)格的風(fēng)格圖片,以及根據(jù)民族特色風(fēng)格對(duì)風(fēng)格圖片進(jìn)行訓(xùn)練,得到相應(yīng)于民族特色風(fēng)格的處理模型;
      8.s2:確定可配合民族特色風(fēng)格的內(nèi)容圖片,以及通過相應(yīng)于民族特色風(fēng)格的處理模型對(duì)可配合民族特色風(fēng)格的內(nèi)容圖片進(jìn)行風(fēng)格遷移,得到相應(yīng)于民族特色風(fēng)格的圖案素材圖片;
      9.s3:確定服裝底板,以及基于服裝底板對(duì)圖案素材圖片進(jìn)行對(duì)抗網(wǎng)絡(luò)訓(xùn)練,得到可實(shí)用于服裝生產(chǎn)的服裝設(shè)計(jì)圖片。
      10.可選地,所述可配合民族特色風(fēng)格的內(nèi)容圖片為基于服裝設(shè)計(jì)圖片的獲取目的,
      基于民族特色風(fēng)格所選擇的內(nèi)容圖片。
      11.可選地,所述步驟s1包括:
      12.s11:獲取若干張基于民族特色風(fēng)格的風(fēng)格圖片并且確定每張風(fēng)格圖片的風(fēng)格,以及根據(jù)民族特色風(fēng)格將若干張風(fēng)格圖片進(jìn)行分類,得到基于民族特色風(fēng)格的風(fēng)格分類圖片;
      13.s12:基于民族特色風(fēng)格對(duì)風(fēng)格分類圖片進(jìn)行訓(xùn)練,得到相應(yīng)于民族特色風(fēng)格的處理模型。
      14.可選地,所述步驟s2包括:
      15.s21:建立基于內(nèi)容損失和風(fēng)格損失的損失函數(shù),損失函數(shù)如下所示:
      [0016][0017]
      式中,loss
      total
      表示總損失值;loss
      style
      表示內(nèi)容損失;表示相應(yīng)于內(nèi)容損失的網(wǎng)絡(luò)權(quán)值;loss
      content
      表示風(fēng)格損失;表示相應(yīng)于內(nèi)容損失的網(wǎng)絡(luò)權(quán)值;
      [0018]
      s22:確定基于快速風(fēng)格遷移的網(wǎng)絡(luò)結(jié)構(gòu),所述網(wǎng)絡(luò)結(jié)構(gòu)包括:圖片轉(zhuǎn)換網(wǎng)絡(luò)階段結(jié)構(gòu)和損失網(wǎng)絡(luò)階段結(jié)構(gòu);
      [0019]
      確定可配合民族特色風(fēng)格的內(nèi)容圖片,以及通過相應(yīng)于民族特色風(fēng)格的處理模型對(duì)可配合民族特色風(fēng)格的內(nèi)容圖片進(jìn)行風(fēng)格遷移,得到相應(yīng)于民族特色風(fēng)格的圖案素材初始圖片;
      [0020]
      s23:根據(jù)圖片轉(zhuǎn)換網(wǎng)絡(luò)階段結(jié)構(gòu),轉(zhuǎn)換所述圖案素材初始圖片為圖案素材轉(zhuǎn)換圖片;
      [0021]
      s24:通過vgg19構(gòu)建損失網(wǎng)絡(luò),以及輸入可配合民族特色風(fēng)格的內(nèi)容圖片、基于民族特色風(fēng)格的風(fēng)格圖片和相應(yīng)于民族特色風(fēng)格的圖案素材初始圖片至損失網(wǎng)絡(luò),得到損失特征圖分布;
      [0022]
      s25:根據(jù)損失網(wǎng)絡(luò)階段結(jié)構(gòu),通過損失特征圖分布,計(jì)算圖案素材初始圖片的內(nèi)容損失和風(fēng)格損失;
      [0023]
      以及,根據(jù)損失函數(shù)、內(nèi)容損失和風(fēng)格損失,計(jì)算相應(yīng)于圖案素材圖片的總損失值;
      [0024]
      s26:基于總損失值最小化原則,調(diào)節(jié)和的占比,獲取和的最佳比例;
      [0025]
      s27:基于和的最佳比例,得到相應(yīng)于民族特色風(fēng)格的圖案素材圖片。
      [0026]
      可選地,在步驟s23中,損失特征圖分布中特征圖的數(shù)量為10層,包括:relu1_1、relu1_2、relu2_1、relu2_2、relu3_1、relu3_2、relu3_3、relu4_1、relu4_2和relu4_3;
      [0027]
      以及,在步驟s24中,基于relu4_3計(jì)算圖案素材初始圖片的內(nèi)容損失,基于relu1_2、relu2_2、relu3_3和relu4_3計(jì)算圖案素材初始圖片的風(fēng)格損失。
      [0028]
      可選地,在步驟s24中,通過計(jì)算relu4_3中可配合民族特色風(fēng)格的內(nèi)容圖片和相應(yīng)于民族特色風(fēng)格的圖案素材初始圖片的像素的歐氏距離的差異,得到內(nèi)容損失;
      [0029]
      以及,分別計(jì)算relu1_2、relu2_2、relu3_3和relu4_3中基于民族特色風(fēng)格的風(fēng)格圖片和相應(yīng)于民族特色風(fēng)格的素材初始圖片的grammatrix矩陣,基于grammatrix矩陣,分別計(jì)算relu1_2、relu2_2、relu3_3和relu4_3中像素的歐氏距離的差異,得到風(fēng)格損失。
      [0030]
      可選地,所述步驟s3包括:
      [0031]
      s31:確立用于生成服裝設(shè)計(jì)圖片的基于條件變量的cgan模型,條件變量為可控制服裝設(shè)計(jì)圖片在服裝底板上生成部位的部位標(biāo)簽;
      [0032]
      s32:確定服裝底板,以及通過條件變量為部位標(biāo)簽的cgan模型并且基于服裝底板對(duì)圖案素材圖片進(jìn)行對(duì)抗網(wǎng)絡(luò)訓(xùn)練,得到可實(shí)用于服裝制造的服裝設(shè)計(jì)圖片。
      [0033]
      可選地,所述cgan模型包括:均引入條件變量的生成模型g和判別模型d;
      [0034]
      以及,所述步驟s31包括:
      [0035]
      s311:根據(jù)預(yù)設(shè)分類將若干張圖案素材圖片進(jìn)行分類,得到基于預(yù)設(shè)分類的圖案素材分類圖片并且對(duì)圖案素材分類圖片進(jìn)行相應(yīng)于預(yù)設(shè)分類的類別標(biāo)簽的標(biāo)注,得到分類數(shù)據(jù)集;
      [0036]
      s312:輸入分類數(shù)據(jù)集至卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到相應(yīng)于預(yù)設(shè)分類的生成模型g;
      [0037]
      s313:獲取真實(shí)圖案素材集并且輸入真實(shí)圖案素材集至卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到判別模型d;
      [0038]
      以及,所述步驟s32包括:
      [0039]
      s321:確定服裝底板,以及通過所述生成模型g并且基于服裝底板,得到生成模型g的輸出;
      [0040]
      s322:輸入部位標(biāo)簽和生成模型g的輸出至所述判別模型d,所述判別模型d用于判斷均參照于部位標(biāo)簽的生成模型g的輸出和真實(shí)圖案素材集之間的差距,分別得到生成模型g和判別模型d的輸出損失值;
      [0041]
      s323:基于最小化生成模型g的輸出損失值和最大化判別模型的輸出損失值的優(yōu)化原則,分別對(duì)生成模型g和判別模型d的輸出損失值進(jìn)行優(yōu)化,以及重復(fù)步驟s321~s322,得到可實(shí)用于服裝生產(chǎn)的服裝設(shè)計(jì)圖片。
      [0042]
      有益效果:
      [0043]
      本技術(shù)通過將人工智能深度學(xué)習(xí)與服裝設(shè)計(jì)相結(jié)合,提取民族傳統(tǒng)服飾的廓型、色彩和細(xì)節(jié)元素,運(yùn)用風(fēng)格遷移,生成對(duì)抗網(wǎng)絡(luò)創(chuàng)造出新的藝術(shù)形式,創(chuàng)新出符合大眾審美的現(xiàn)代服裝,將藝術(shù)與科技進(jìn)行了有機(jī)的結(jié)合,取得的良好的效果。
      [0044]
      此外,上述步驟在實(shí)際使用過程中,大大降低了人工設(shè)計(jì)的冗長過程,可便捷簡單地設(shè)計(jì)出多種可供選擇的具有民族特色的服飾,滿足群眾對(duì)具有民族特色的現(xiàn)代服裝的需求,因此,本技術(shù)能夠解決現(xiàn)有的將民族服裝風(fēng)格與現(xiàn)代服裝內(nèi)容結(jié)合過程中存在的低效和資源浪費(fèi)的問題。
      附圖說明
      [0045]
      為了更清楚地說明本技術(shù)的技術(shù)方案,下面將對(duì)實(shí)施例中所需要使用的附圖作簡單地介紹,顯而易見地,對(duì)于本領(lǐng)域普通技術(shù)人員而言,在不付出創(chuàng)造性勞動(dòng)性的前提下,還可以根據(jù)這些附圖獲得其他的附圖。
      [0046]
      圖1為本技術(shù)實(shí)施例中一種基于深度學(xué)習(xí)的民族服裝設(shè)計(jì)方法的流程示意圖;
      [0047]
      圖2為本技術(shù)實(shí)施例中風(fēng)格遷移的示例圖;
      [0048]
      圖3為本技術(shù)實(shí)施例中的基于快速風(fēng)格遷移的網(wǎng)絡(luò)結(jié)構(gòu)的結(jié)構(gòu)示意圖;
      [0049]
      圖4為本技術(shù)實(shí)施例中對(duì)抗網(wǎng)絡(luò)算法的原理示意圖;
      [0050]
      圖5為本技術(shù)實(shí)施例中帶條件約束的對(duì)抗網(wǎng)絡(luò)算法的原理示意圖;
      [0051]
      圖6為本技術(shù)實(shí)施例中具有民族特色的紋理示意圖;
      [0052]
      圖7為本技術(shù)實(shí)施例中風(fēng)格遷移的遷移示意圖一;
      [0053]
      圖8為本技術(shù)實(shí)施例中風(fēng)格遷移的遷移示意圖二;
      [0054]
      圖9為本技術(shù)實(shí)施例中多民族特色風(fēng)格在遷移完成后的成果示意圖;
      [0055]
      圖10為本技術(shù)實(shí)施例中服裝底板的示意圖;
      [0056]
      圖11為本技術(shù)實(shí)施例中渲染完成后的成果示意圖;
      [0057]
      圖12為本技術(shù)實(shí)施例中約束對(duì)抗完成后的成果示意圖。
      具體實(shí)施方式
      [0058]
      下面將詳細(xì)地對(duì)實(shí)施例進(jìn)行說明,其示例表示在附圖中。下面的描述涉及附圖時(shí),除非另有表示,不同附圖中的相同數(shù)字表示相同或相似的要素。以下實(shí)施例中描述的實(shí)施方式并不代表與本技術(shù)相一致的所有實(shí)施方式。僅是與權(quán)利要求書中所詳述的、本技術(shù)的一些方面相一致的系統(tǒng)和方法的示例。
      [0059]
      人工智能(artificialintelligence,英文縮寫為ai)是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué),被譽(yù)為世界三大尖端技術(shù)之一。其中,人工神經(jīng)網(wǎng)絡(luò)是當(dāng)前備受矚目的人工智能算法,它通過模擬人類大腦皮層神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),實(shí)現(xiàn)模擬人類的思維能力。
      [0060]
      2014年,生成對(duì)抗網(wǎng)絡(luò)理論出現(xiàn),將人工智能正式引入創(chuàng)造領(lǐng)域。該網(wǎng)絡(luò)主要通過生成器和判別器互相博弈學(xué)習(xí)產(chǎn)生輸出,達(dá)到動(dòng)態(tài)均衡即生成器生成原始訓(xùn)練數(shù)據(jù)集中沒有的新圖像,既接近真實(shí)圖像分布,而判別器又識(shí)別不出真假圖像,這個(gè)過程可以看作是創(chuàng)造的過程。生成對(duì)抗網(wǎng)絡(luò)(gan,generativeadversarialnetworks)是一種深度學(xué)習(xí)模型,是近年來復(fù)雜分布上無監(jiān)督學(xué)習(xí)最具前景的方法之一。
      [0061]
      風(fēng)格遷移設(shè)計(jì)就是對(duì)圖像風(fēng)格的模仿過程。將一張風(fēng)格圖像遷移合成到目標(biāo)內(nèi)容圖像,使生成的結(jié)果圖像既保持目標(biāo)內(nèi)容服裝圖片的形狀、結(jié)構(gòu)信息,又具有風(fēng)格像的色彩、紋理等信息,形成一種新的風(fēng)格。
      [0062]
      現(xiàn)可通過本技術(shù)實(shí)施例的技術(shù)方案將人工智能深度學(xué)習(xí)與服裝設(shè)計(jì)相結(jié)合,提取民族傳統(tǒng)服飾的廓型、色彩和細(xì)節(jié)元素,運(yùn)用風(fēng)格遷移,生成對(duì)抗網(wǎng)絡(luò)創(chuàng)造出新的藝術(shù)形式,創(chuàng)新出符合大眾審美的現(xiàn)代服裝。
      [0063]
      本技術(shù)提供了一種基于深度學(xué)習(xí)的民族服裝設(shè)計(jì)方法,如圖1所示,圖1為本技術(shù)實(shí)施例中一種基于深度學(xué)習(xí)的民族服裝設(shè)計(jì)方法的流程示意圖,方法包括如下步驟:
      [0064]
      s1:確定基于民族特色風(fēng)格的風(fēng)格圖片,以及根據(jù)民族特色風(fēng)格對(duì)風(fēng)格圖片進(jìn)行訓(xùn)練,得到相應(yīng)于民族特色風(fēng)格的處理模型。
      [0065]
      其中,步驟s1包括包括:
      [0066]
      s11:獲取若干張基于民族特色風(fēng)格的風(fēng)格圖片并且確定每張風(fēng)格圖片的風(fēng)格,以及根據(jù)民族特色風(fēng)格將若干張風(fēng)格圖片進(jìn)行分類,得到基于民族特色風(fēng)格的風(fēng)格分類圖片。
      [0067]
      具體地,傳統(tǒng)的服裝圖片中包含了服裝圖片的風(fēng)格和服裝圖片的內(nèi)容。服裝圖片的風(fēng)格可以理解為服裝圖片的筆觸和顏色等信息,服裝圖片的內(nèi)容指的是服裝圖片的語義
      信息,可以理解為圖中包含的是什么物體。如圖2所示,圖2為本技術(shù)實(shí)施例中風(fēng)格遷移的示例圖,水墨畫中的駿馬和肉眼看到的駿馬,內(nèi)容同樣都是馬本身,但顯示效果大不相同,水墨畫中的水墨紋理即為服裝圖片的風(fēng)格,這便能淺顯易懂的明白風(fēng)格與內(nèi)容的區(qū)別。并且從統(tǒng)計(jì)學(xué)角度或者數(shù)學(xué)角度來說,服裝圖片的內(nèi)容和風(fēng)格是可以分離開的。從這一角度出發(fā),試圖將服裝圖片的內(nèi)容和風(fēng)格進(jìn)行分離,提取出包含圖像風(fēng)格的模型并將其應(yīng)用到目標(biāo)圖像上內(nèi)容上,使其顯示出原圖像風(fēng)格,這便是本項(xiàng)目的風(fēng)格遷移的設(shè)計(jì)思路。
      [0068]
      首先依據(jù)需求將風(fēng)格圖片進(jìn)行分類,分類的程度根據(jù)需求確定。在分類后,可得基于民族特色風(fēng)格的風(fēng)格分類圖片。
      [0069]
      s12:基于民族特色風(fēng)格對(duì)風(fēng)格分類圖片進(jìn)行訓(xùn)練,得到相應(yīng)于民族特色風(fēng)格的處理模型。
      [0070]
      可配合民族特色風(fēng)格的內(nèi)容圖片為基于服裝設(shè)計(jì)圖片的獲取目的,基于民族特色風(fēng)格所選擇的內(nèi)容圖片。
      [0071]
      s2:確定可配合民族特色風(fēng)格的內(nèi)容圖片,以及通過相應(yīng)于民族特色風(fēng)格的處理模型對(duì)可配合民族特色風(fēng)格的內(nèi)容圖片進(jìn)行風(fēng)格遷移,得到相應(yīng)于民族特色風(fēng)格的圖案素材圖片。
      [0072]
      具體地,卷積神經(jīng)網(wǎng)絡(luò)具有強(qiáng)大的圖像處理能力,被廣泛應(yīng)用于圖像處理領(lǐng)域。卷積神經(jīng)網(wǎng)絡(luò)可通過許多局部的、輕量的卷積核層級(jí)地提取、組合圖像特征。在卷積神經(jīng)網(wǎng)絡(luò)中,每一卷積層的一系列卷積核都可以視作該網(wǎng)絡(luò)的一組圖像濾波器,這一組濾波器會(huì)對(duì)特定特征進(jìn)行提取,濾波器得到的響應(yīng)可以看做是該圖像的一組特征表達(dá)。只需要將卷積層的激活值通過線性分類器進(jìn)行類別劃分,最后的輸出即為包含著圖像的內(nèi)容或風(fēng)格的特征參數(shù)。
      [0073]
      同時(shí),采用卷積神經(jīng)網(wǎng)絡(luò)來對(duì)特征參數(shù)進(jìn)行提取可以很大程度上減少計(jì)算的困難程度。在人工的全連接神經(jīng)網(wǎng)絡(luò)中,每相鄰兩層之間的每個(gè)神經(jīng)元之間都是有邊相連的。
      [0074]
      當(dāng)輸入層的特征維度變得很高時(shí),這時(shí)全連接網(wǎng)絡(luò)需要訓(xùn)練的參數(shù)就會(huì)增大很多,計(jì)算速度就會(huì)變得很慢,例如一張黑白的28
      ×
      28的手寫數(shù)字圖片,輸入層的神經(jīng)元就有784(28
      ×
      28)個(gè)。若在中間只使用一層隱藏層,參數(shù)就有784
      ×
      15=11760多個(gè);若輸入的是28
      ×
      28帶有顏色的rgb格式的手寫數(shù)字圖片,輸入神經(jīng)元就有28
      ×
      28
      ×
      3=2352(rgb有3個(gè)顏色通道)個(gè)。這很容易發(fā)現(xiàn)使用全連接神經(jīng)網(wǎng)絡(luò)處理圖像中所產(chǎn)生的需要訓(xùn)練參數(shù)過多問題。而在卷積神經(jīng)網(wǎng)絡(luò)中,卷積層的神經(jīng)元只與前一層的部分神經(jīng)元節(jié)點(diǎn)相連,即它的神經(jīng)元間的連接是非全連接的,且同一層中某些神經(jīng)元之間的連接的權(quán)重和偏移是共享的,這樣大量地減少了需要訓(xùn)練參數(shù)的數(shù)量。
      [0075]
      其中,步驟s2包括:
      [0076]
      s21:建立基于內(nèi)容損失和風(fēng)格損失的損失函數(shù),損失函數(shù)如下所示:
      [0077][0078]
      式中,loss
      total
      表示總損失值;loss
      style
      表示內(nèi)容損失;表示相應(yīng)于內(nèi)容損失的網(wǎng)絡(luò)權(quán)值;loss
      content
      表示風(fēng)格損失;表示相應(yīng)于內(nèi)容損失的網(wǎng)絡(luò)權(quán)值。
      [0079]
      s22:確定基于快速風(fēng)格遷移的網(wǎng)絡(luò)結(jié)構(gòu),網(wǎng)絡(luò)結(jié)構(gòu)包括:圖片轉(zhuǎn)換網(wǎng)絡(luò)階段結(jié)構(gòu)和損失網(wǎng)絡(luò)階段結(jié)構(gòu)。
      [0080]
      確定可配合民族特色風(fēng)格的內(nèi)容圖片,以及通過相應(yīng)于民族特色風(fēng)格的處理模型
      對(duì)可配合民族特色風(fēng)格的內(nèi)容圖片進(jìn)行風(fēng)格遷移,得到相應(yīng)于民族特色風(fēng)格的圖案素材初始圖片。
      [0081]
      具體地,如圖3所示,圖3為本技術(shù)實(shí)施例中的基于快速風(fēng)格遷移的網(wǎng)絡(luò)結(jié)構(gòu)的結(jié)構(gòu)示意圖。
      [0082]
      s23:根據(jù)快速風(fēng)格遷移(fastneuralstyletransfer)的圖片轉(zhuǎn)換網(wǎng)絡(luò)階段結(jié)構(gòu),轉(zhuǎn)換圖案素材初始圖片為圖案素材轉(zhuǎn)換圖片。
      [0083]
      具體地,如圖3所示,x(inputimage)表示圖案素材轉(zhuǎn)換圖片。
      [0084]yt
      表示圖案素材轉(zhuǎn)換圖片。
      [0085]
      imagetransformnet為將圖案素材初始圖片轉(zhuǎn)換為圖案素材轉(zhuǎn)換圖片的工具。
      [0086]
      s24:通過vgg19構(gòu)建損失網(wǎng)絡(luò),以及輸入可配合民族特色風(fēng)格的內(nèi)容圖片、基于民族特色風(fēng)格的風(fēng)格圖片和相應(yīng)于民族特色風(fēng)格的圖案素材初始圖片至損失網(wǎng)絡(luò),得到損失特征圖分布。
      [0087]
      具體地,損失特征圖分布如圖3的右側(cè)所示。
      [0088]
      損失特征圖分布中特征圖的數(shù)量為10層,包括:relu1_1、relu1_2、relu2_1、relu2_2、relu3_1、relu3_2、relu3_3、relu4_1、relu4_2和relu4_3。
      [0089]
      s25:根據(jù)損失網(wǎng)絡(luò)階段結(jié)構(gòu),通過損失特征圖分布,計(jì)算圖案素材初始圖片的內(nèi)容損失和風(fēng)格損失。以及,根據(jù)損失函數(shù)、內(nèi)容損失和風(fēng)格損失,計(jì)算相應(yīng)于圖案素材圖片的總損失值。
      [0090]
      具體地,通過使用卷積神經(jīng)網(wǎng)絡(luò)中的vgg19預(yù)訓(xùn)練模型進(jìn)行圖像內(nèi)容損失(contentloss)計(jì)算,網(wǎng)絡(luò)中的每一層都定義了一個(gè)非線性濾波器組(這一組濾波器會(huì)對(duì)特定特征進(jìn)行提取,濾波器得到的響應(yīng)可以看做是該圖像的一組特征表達(dá)。),其復(fù)雜性隨著該層在網(wǎng)絡(luò)中的位置而增加,將圖像輸入至網(wǎng)絡(luò)中,每一層都會(huì)對(duì)其進(jìn)行編碼。
      [0091]
      內(nèi)容損失計(jì)算:當(dāng)網(wǎng)絡(luò)的處理層次逐漸加深時(shí),網(wǎng)絡(luò)中的較高層根據(jù)輸入圖像的排列來捕捉高級(jí)內(nèi)容,但并不太注重精確像素值。相比之下,較低層的重建只是簡單地再現(xiàn)原始圖像的精確像素值,對(duì)于內(nèi)容并不敏感。計(jì)算內(nèi)容損失時(shí)如果選太淺的層,就會(huì)保留較多的紋理顏色信息,而在風(fēng)格遷移時(shí)其實(shí)只需要保留語義信息,因此,將網(wǎng)絡(luò)較高層中的特征響應(yīng)作為內(nèi)容特征進(jìn)行損失計(jì)算。
      [0092]
      因此,在圖3中通過計(jì)算relu4_3中可配合民族特色風(fēng)格的內(nèi)容圖片和相應(yīng)于民族特色風(fēng)格的圖案素材初始圖片的像素的歐氏距離的差異,得到內(nèi)容損失。
      [0093]
      風(fēng)格損失計(jì)算:對(duì)于風(fēng)格損失(styleloss)的計(jì)算,提到將圖像輸入至卷積神經(jīng)網(wǎng)絡(luò)中后,經(jīng)過卷積層后得到的特征圖的協(xié)方差矩陣。協(xié)方差矩陣可為grammatrix矩陣。
      [0094]
      grammatrix矩陣可以看作是feature之間的偏心協(xié)方差矩陣,featuremap中每個(gè)數(shù)字都來自一個(gè)特定濾波器在特定位置的卷積,因此每個(gè)數(shù)字就代表一個(gè)特征的強(qiáng)度。
      [0095]
      grammatrix是特征圖矩陣與自身逆矩陣相乘得到的矩陣,內(nèi)積之后得到的矩陣的對(duì)角線元素體現(xiàn)了每個(gè)特征在圖像中出現(xiàn)的量,而其他元素則包含了不同特征之間的相關(guān)信息。因此grammatrix矩陣可以反應(yīng)整個(gè)圖像的風(fēng)格。要度量兩個(gè)圖像風(fēng)格之間的差異,只需比較兩個(gè)圖像風(fēng)格的grammatrix矩陣即可實(shí)現(xiàn)。
      [0096]
      因此,在圖3中分別計(jì)算relu1_2、relu2_2、relu3_3和relu4_3中基于民族特色風(fēng)格的風(fēng)格圖片和相應(yīng)于民族特色風(fēng)格的素材初始圖片的grammatrix矩陣,基于grammatrix
      矩陣,分別計(jì)算relu1_2、relu2_2、relu3_3和relu4_3中像素的歐氏距離的差異,得到風(fēng)格損失。
      [0097]
      最后,根據(jù)損失函數(shù)、內(nèi)容損失和風(fēng)格損失,計(jì)算相應(yīng)于圖案素材圖片的總損失值。
      [0098]
      s26:基于總損失值最小化原則,調(diào)節(jié)和的占比,獲取和的最佳比例;
      [0099]
      s27:基于和的最佳比例,得到相應(yīng)于民族特色風(fēng)格的圖案素材圖片。
      [0100]
      s3:確定服裝底板,以及基于服裝底板對(duì)圖案素材圖片進(jìn)行對(duì)抗網(wǎng)絡(luò)訓(xùn)練,得到服裝設(shè)計(jì)圖片。
      [0101]
      其中,步驟s3包括:
      [0102]
      s31:確立用于生成服裝設(shè)計(jì)圖片的基于條件變量的cgan模型,條件變量為可控制服裝設(shè)計(jì)圖片在服裝底板上生成部位的部位標(biāo)簽。
      [0103]
      具體地,雖然已經(jīng)生成出風(fēng)格遷移完成后的服裝圖案素材,但直接采用風(fēng)格遷移后的圖片進(jìn)行貼圖到服裝上,會(huì)導(dǎo)致服裝樣式單一,美觀度并沒有到達(dá)之前所設(shè)想的高度,所以這里選擇了cgan對(duì)服裝的各部位的圖案進(jìn)行設(shè)計(jì)。
      [0104]
      其中,cgan模型包括:均引入條件變量的生成模型g和判別模型d。
      [0105]
      生成式對(duì)抗網(wǎng)絡(luò)因其相互對(duì)抗精妙的設(shè)計(jì),在各種場(chǎng)景中的應(yīng)用,成為了近幾年學(xué)界的研宄熱點(diǎn),也產(chǎn)生了非常多的變體,如控制生成先驗(yàn)條件的條件生成對(duì)抗網(wǎng)絡(luò),從信息論角度優(yōu)化的infogan、對(duì)生成式對(duì)抗網(wǎng)絡(luò)優(yōu)化目標(biāo)進(jìn)行改進(jìn)的w-gan。生成式對(duì)抗網(wǎng)絡(luò)帶來的令人驚喜的效果,因此開始研宄如何將gan作為圖像翻譯任務(wù)的通用框架。
      [0106]
      gan模型框架包括兩個(gè)模塊:生成模型(generativemodel)和判別模型(discriminativemodel)的互相博弈學(xué)習(xí)產(chǎn)生折中的輸出,gan的對(duì)抗網(wǎng)絡(luò)公式如下所示:
      [0107][0108]
      此處以生成圖片為例對(duì)該公式進(jìn)行說明。假設(shè)有兩個(gè)網(wǎng)絡(luò),g(generator)和d(discriminator),功能分別是:
      [0109]
      g是一個(gè)生成圖片的網(wǎng)絡(luò),它接收一個(gè)隨機(jī)的噪聲z,通過這個(gè)噪聲生成圖片,記做g(z)。
      [0110]
      d是一個(gè)判別網(wǎng)絡(luò),判別一張圖片是不是“真實(shí)的”。它的輸入?yún)?shù)是x,x代表一張圖片,輸出d(x)代表x為真實(shí)圖片的概率,如果為1,就代表100%是真實(shí)的圖片,而輸出為0,就代表不可能是真實(shí)的圖片。
      [0111]
      如圖4所示,圖4為本技術(shù)實(shí)施例中對(duì)抗網(wǎng)絡(luò)算法的原理示意圖,在訓(xùn)練過程中,生成網(wǎng)絡(luò)g的目標(biāo)就是盡可能生成真實(shí)的圖片去欺騙判別網(wǎng)絡(luò)d,而d的目標(biāo)就是盡量把g生成的圖片和真實(shí)的圖片分別開來。g和d構(gòu)成了一個(gè)動(dòng)態(tài)的“博弈過程”。
      [0112]
      最后博弈的結(jié)果,在最理想的狀態(tài)下,g可以生成足以“以假亂真”的圖片g(z)。對(duì)于d來說,它難以判定g生成的圖片究竟是不是真實(shí)的,即達(dá)到了一個(gè)納什均衡,因此d(g(z))=0.5。此時(shí),模型的收斂目標(biāo)是生成器能夠從隨機(jī)噪聲生成真實(shí)數(shù)據(jù)。
      [0113]
      gan目的是使得生成器能夠從隨機(jī)噪聲中生成真實(shí)數(shù)據(jù),然而,這種不需要預(yù)先建模的方法缺點(diǎn)是太過自由了,對(duì)于較大的圖片,較多的pixel(像素)的情形,基于簡單gan的
      方式就不太可控了。并且gan在訓(xùn)練的過程中如有一點(diǎn)差錯(cuò)會(huì)導(dǎo)致程序崩潰,訓(xùn)練困難加大。想要解決這個(gè)問題,便需要在博弈的過程中加以約束,于是需要應(yīng)用cgan,即條件生成式對(duì)抗網(wǎng)絡(luò)。
      [0114]
      如圖5所示,圖5為本技術(shù)實(shí)施例中帶條件約束的對(duì)抗網(wǎng)絡(luò)算法的原理示意圖,cgan為一種帶條件約束的gan,在生成模型(d)和判別模型(g)的建模中均引入條件變量y(conditionalvariabley),使用條件變量y對(duì)模型增加條件,可以指導(dǎo)數(shù)據(jù)生成過程。
      [0115]
      條件變量y可以基于多種信息,例如類別標(biāo)簽,用于圖像修復(fù)的部分?jǐn)?shù)據(jù),來自不同模態(tài)(modality)的數(shù)據(jù)。
      [0116]
      如果條件變量y是類別標(biāo)簽,可以看做cgan是把純無監(jiān)督的gan變成有監(jiān)督的模型的一種改進(jìn)。這個(gè)簡單直接的改進(jìn)被證明非常有效,并廣泛用于后續(xù)的相關(guān)工作中。
      [0117]
      cgan的條件對(duì)抗網(wǎng)絡(luò)公式如下所示:
      [0118][0119]
      步驟s31包括:
      [0120]
      s311:根據(jù)預(yù)設(shè)分類將若干張圖案素材圖片進(jìn)行分類,得到基于預(yù)設(shè)分類的圖案素材分類圖片并且對(duì)圖案素材分類圖片進(jìn)行相應(yīng)于預(yù)設(shè)分類的類別標(biāo)簽的標(biāo)注,得到分類數(shù)據(jù)集。
      [0121]
      具體地,類別指的是服裝類別,即連衣裙或者t恤等。
      [0122]
      s312:輸入分類數(shù)據(jù)集至卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到相應(yīng)于預(yù)設(shè)分類的生成模型g。
      [0123]
      具體地,此時(shí),運(yùn)用到在前文提到的cgan的公式,對(duì)于生成模型g,將風(fēng)格遷移完成后的圖像進(jìn)行類別劃分,將不同的類型風(fēng)格圖像標(biāo)注類別標(biāo)簽,建立數(shù)據(jù)集,將數(shù)據(jù)集輸入至卷積神經(jīng)網(wǎng)絡(luò)生成器中以此來作為生成模型g。
      [0124]
      s313:獲取真實(shí)圖案素材集并且輸入真實(shí)圖案素材集至卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到(可判別服飾類別)判別模型d。
      [0125]
      具體地,對(duì)于判別模型d,首先自建服裝數(shù)據(jù)集,然后將服裝數(shù)據(jù)集輸入至卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行模型訓(xùn)練,生成可判斷服飾類別的判別模型來作為判別模型d。
      [0126]
      條件變量y由設(shè)計(jì)人員進(jìn)行人工輸入部位標(biāo)簽,用來控制圖像生成在服裝上的部位,從而進(jìn)一步約束對(duì)抗的過程。在完成一系列工作后,網(wǎng)絡(luò)會(huì)輸出符合我們大眾審美的服裝風(fēng)格。
      [0127]
      s32:確定服裝底板,以及通過條件變量為部位標(biāo)簽的cgan模型并且基于服裝底板對(duì)圖案素材圖片進(jìn)行對(duì)抗網(wǎng)絡(luò)訓(xùn)練,得到可實(shí)用于服裝制造的服裝設(shè)計(jì)圖片。
      [0128]
      其中,步驟s32包括:
      [0129]
      s321:確定服裝底板,以及通過生成模型g并且基于服裝底板,得到生成模型g的輸出。
      [0130]
      s322:輸入部位標(biāo)簽和生成模型g的輸出至判別模型d,判別模型d用于判斷均參照于部位標(biāo)簽的生成模型g的輸出和真實(shí)圖案素材集之間的差距,分別得到生成模型g和判別模型d的輸出損失值。
      [0131]
      s323:基于最小化生成模型g的輸出損失值和最大化判別模型的輸出損失值的優(yōu)
      化原則,分別對(duì)生成模型g和判別模型d的輸出損失值進(jìn)行優(yōu)化,以及重復(fù)步驟s321~s322,得到可實(shí)用于服裝生產(chǎn)的服裝設(shè)計(jì)圖片。
      [0132]
      實(shí)施例一
      [0133]
      (一)模型訓(xùn)練:
      [0134]
      選取微軟coco數(shù)據(jù)集中的2014訓(xùn)練數(shù)據(jù)作為數(shù)據(jù)集,mscoco2014訓(xùn)練集共有82783張圖片。采用vgg19作為訓(xùn)練模型,vgg19相比alexne的一個(gè)改進(jìn)是采用連續(xù)的幾個(gè)3x3的卷積核代替alexnet中的較大卷積核(11x11,7x7,5x5)。對(duì)于給定的感受野(與輸出有關(guān)的輸入圖片的局部大小),采用堆積的小卷積核是優(yōu)于采用大的卷積核,因?yàn)槎鄬臃蔷€性層可以增加網(wǎng)絡(luò)深度來保證學(xué)習(xí)更復(fù)雜的模式,而且代價(jià)還比較小(參數(shù)更少)。
      [0135]
      將所收集到的基于民族特色風(fēng)格的風(fēng)格圖片進(jìn)行訓(xùn)練,分別生成相應(yīng)的模型,為后續(xù)的工作做準(zhǔn)備。
      [0136]
      運(yùn)用所生成的處理模型,對(duì)目標(biāo)圖片進(jìn)行遷移,目標(biāo)圖片選擇的是在內(nèi)容與風(fēng)格中,內(nèi)容更加突出的圖片來進(jìn)行測(cè)驗(yàn),例如只包含物體的圖片,例如動(dòng)物馬,樂器吉它,寵物狗等等。這樣生成的圖片更具有區(qū)分度,更加鮮明。至此,已經(jīng)生成出風(fēng)格遷移完成后的服裝圖案素材。
      [0137]
      (二)風(fēng)格遷移:
      [0138]
      具有民族特色的紋理圖案多種多樣,如圖6所示,圖6為本技術(shù)實(shí)施例中具有民族特色的紋理示意圖。
      [0139]
      1)選用侗族的太清濁二氣紋刺繡背帶蓋片作為原風(fēng)格圖片,選用孔雀作為目標(biāo)圖片,進(jìn)行訓(xùn)練,共訓(xùn)練20個(gè)epoch(一個(gè)epoch等于遍歷該數(shù)據(jù)集所有圖片一遍),這里共截取出三個(gè)epoch所遷移的效果。
      [0140]
      如圖7所示,圖7為本技術(shù)實(shí)施例中風(fēng)格遷移的遷移示意圖一,圖7中左側(cè)中contentimage表示內(nèi)容圖片,圖7中左側(cè)中styleimage表示風(fēng)格圖片,圖7中右側(cè)為三個(gè)generatedimage表示迭代后的圖片。
      [0141]
      2)選用侗族的太陽榕樹花刺繡蓋片紋樣作為原風(fēng)格圖片,進(jìn)行第二次遷移實(shí)驗(yàn)。效果如圖所示。
      [0142]
      如圖8所示,圖8為本技術(shù)實(shí)施例中風(fēng)格遷移的遷移示意圖二,圖8中左側(cè)中contentimage表示內(nèi)容圖片,圖8中左側(cè)中styleimage表示風(fēng)格圖片,圖8中右側(cè)為三個(gè)generatedimage表示迭代后的圖片。
      [0143]
      從圖8(實(shí)際的顏色版)中可明顯得出以下結(jié)論:第一次和第二次迭代圖片效果顏色較深,整體效果更偏向于原風(fēng)格圖片,第三次迭代后,顏色更加艷麗,更近似于內(nèi)容圖片和風(fēng)格圖片占比各占50%,實(shí)現(xiàn)了圖像風(fēng)格遷移,得到圖案素材圖片。
      [0144]
      如圖9所示,圖9為本技術(shù)實(shí)施例中多民族特色風(fēng)格在遷移完成后的成果示意圖。
      [0145]
      (三)服飾設(shè)計(jì):
      [0146]
      在遷移實(shí)現(xiàn)之后,需要將圖片應(yīng)用到服裝上。服裝有類型、原料、樣式、規(guī)格、顏色、圖案六種基本屬性,本技術(shù)實(shí)施例的服裝類型只選取標(biāo)準(zhǔn)男性純白短袖和女士長款裙子,以及選取圖案(即內(nèi)容)作為研究重點(diǎn),其他四種基本屬性并未涉及。
      [0147]
      實(shí)驗(yàn)初步,需要將生成好的圖案素材圖片渲染到選取的空白的服裝底板上,如圖10和圖11所示,圖10為本技術(shù)實(shí)施例中服裝底板的示意圖,圖11為本技術(shù)實(shí)施例中渲染完
      成后的成果示意圖。
      [0148]
      (四)約束對(duì)抗:
      [0149]
      在完成遷移訓(xùn)練之后,開始進(jìn)行對(duì)生成的圖案素材圖片進(jìn)行對(duì)抗網(wǎng)絡(luò)訓(xùn)練,從而進(jìn)一步的生成符合大眾審美的服裝。
      [0150]
      首先經(jīng)過生成模型g生成輸出,在專業(yè)的設(shè)計(jì)人員的參與下,將控制圖案生成部位的部位標(biāo)簽與生成模型g的輸出一并輸入至判別模型d中,進(jìn)行判別輸出與真實(shí)數(shù)據(jù)之間的差距,計(jì)算生成器g與判別器d各自的輸出損失值。最后,通過算法來優(yōu)化訓(xùn)練出的權(quán)重參數(shù),然后進(jìn)行多次循環(huán),每經(jīng)過10個(gè)epoch輸出生成的圖像,如圖12所示,圖12為本技術(shù)實(shí)施例中約束對(duì)抗完成后的成果示意圖。
      [0151]
      綜上所述,本技術(shù)實(shí)施例利用tensorflow等開源技術(shù),將人工智能中的風(fēng)格遷移與生成對(duì)抗網(wǎng)絡(luò)與服裝設(shè)計(jì)結(jié)合。提取民族傳統(tǒng)服飾的廓型、色彩和細(xì)節(jié)元素,與現(xiàn)代服裝設(shè)計(jì)進(jìn)行整合、再創(chuàng)造,既傳承與弘揚(yáng)了民族傳統(tǒng),又滿足了人們對(duì)服裝高品質(zhì)的需求。傳統(tǒng)藝術(shù)形式與新科技、新技術(shù)的交融正是服裝發(fā)展的未來趨勢(shì),有著廣闊的應(yīng)用前景。
      [0152]
      以上對(duì)本技術(shù)的實(shí)施例進(jìn)行了詳細(xì)說明,但內(nèi)容僅為本技術(shù)的較佳實(shí)施例,不能被認(rèn)為用于限定本技術(shù)的實(shí)施范圍。凡依本技術(shù)范圍所作的均等變化與改進(jìn)等,均應(yīng)仍屬于本技術(shù)的專利涵蓋范圍之內(nèi)。
      當(dāng)前第1頁1 2 
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
      1