閱讀809 返回首頁    go 人物


CVPR論文解讀 | 剁手有了新方法,明星同款邊看邊買

注:CVPR是由全球最大的非營利專業技術學會IEEE電氣和電子工程師協)舉辦的計算機視覺領域的國際頂會,2017 CVPR收到超過2500篇論文投遞,最終收錄不到800篇,阿裏巴巴集團iDSTAI LAB 有多篇論文被收錄。

阿裏巴巴iDST 視頻分析團隊被CVPR 2017收錄的論文《從視頻到電商:視頻衣物精確檢索》圍繞視頻電商業務場景,提出了一個在線視頻衣物精確檢索係統。該係統能夠滿足用戶在觀看影視劇時想要同時購買明星同款的需求。整個係統采用了目前最先進的衣物檢測和跟蹤技術。針對明星同款檢索中存在的多角度、多場景、遮擋等問題。提出可變化的深度樹形結構(Reconfigurable Deep Tree structure)利用多幀之間的相似匹配解決單一幀檢索存在的遮擋、模煳等問題。該結構可以認為是對現有attention模型的一種擴展,可以用來解決多模型融合問題。

62cb6303525159c7122c022cfc7ddf779233ebfd

論文技術在天貓魔盒視頻中應用

 

業務場景及研究問題:視頻電商中的衣物精確匹配

早在 2014 年,阿裏與優酷土豆發布視頻電商戰略,稱未來可以實現邊看邊買,使得視頻電商的概念,繼微博電商,朋友圈電商之後浮出水麵。電商平台擁有少量商品,而視頻網站具有巨大的流量,二者結合是發展的必然結果。電商平台可以借助視頻網站的流量來實現導流和平台下沉,而視頻網站則需要通過廣告點擊和商品成交來實現流量變現,因此二者的結合可謂一拍即合。視頻電商的商業主旨是打造以視頻為入口的購物服務,視頻中出現所有物體都可能是商品,提供包括邊看邊買、明星同款、廣告投放等服務,它集娛樂、休閑、購物於一體,給用戶構造出一種身臨其境情境營銷,或者是明星同款的衝動式消費。視頻電商目前已經不是停留在概念層次了,視頻網站向電商的導流轉化也一直在不斷的嚐試中。

 

影視劇中的服飾存在較大的差異性和異構性, 同一個目標往往展現出較大的差異。服飾購物圖像通常具有雜亂、多樣的背景, 而且常在戶外拍攝。多樣化的背景可能是建築物,街道、風景、汽車等多種情況。由於自然場景下受到光線、角度、大小、分 辨率、幾何學和光度學的變化等影響,使得服飾呈現出現的外形極為複雜,即使是同一件服飾也會出現變化較大的效果。同時在線網站為更好地展示服飾的效果,通常聘請時尚模特穿著所售商品,模特/人物姿勢變化也是導致服飾變化的一個重要因素。 由於以上這些因素,使得視頻明星同款搜索成為了一個極具挑戰性的技術問題。

 

網絡結構及技術細節:

AsymNet網絡結構:整個Asymnet深度神經網絡結構如圖1所示。當用戶通過機頂盒(天貓魔盒)觀看視頻時,該網絡將從電商網站(淘寶、天貓)檢索到與之匹配的衣服,並推薦給用戶。為忽略複雜背景對檢索結果的影響,更準確的進行服裝定位,我們首先應用服飾檢測技術,提取得到服飾區域一組候選框。然後對這些候選框進行跟蹤,得到明星同款在視頻中的的運動軌跡。對於衣物候選區域和運動軌跡我們分別利用用圖像特征網絡(IFN)和視頻特征網絡(VFN)進行特征學習。考慮到服裝的運動軌跡,衣物精確檢索問題被定義為不對稱(多對單)匹配問題,我們提出可變化的深度樹形結(Reconfigurable Deep Tree Structure),利用多幀之間的相似匹配解決單一幀檢索存在的遮擋、模煳等問題。後續本文將詳細介紹模型的各個部分。

ba0c922bbf0a2890dcd4419d912e339d68438028

1 Asymnet深度神經網絡結構

 

圖像特征網絡(IFN):傳統CNN網絡要求輸入圖像為固定的227x227(因為CNN網絡中的卷積層需要有一個確定的預定義的維度)。在視頻電商業務場景中,因為衣物檢測候選框為任意大小,尺度變化很大,傳統CNN網絡無法進行有效的特征學習。針對這一問題,我們利用空間金字塔池化結構(SPP)體係結構,如圖2所示。它通過空間池聚合最後一個卷積層的特征,從而使池區域的大小與輸入的大小無關。

dcd5300f11b1adffa1198d6b2945fe64739b1e2a

2 Asymnet圖像特征網絡(IFN

 

視頻特征網絡 (VFN)為了更好的考慮視頻的空間序列模式,進一步提高衣物檢索的性能。基於 LSTM,我們提出了視頻特征網絡 (VFN),如圖3所示。其中實驗驗證明兩層堆疊式 LSTM 結構能夠在視頻特征學習中得到最佳性能。

9db420ee251c76cd78cffd315e31c636c32bb629

3 Asymnet視頻特征網絡 (VFN)

 

相似性網絡:明星同款匹配不同於近似衣物檢索,精確匹配要求完全一致。在完全一致的 要求下,傳統的通過相似性計算來進行檢索的方法,不能滿足明星同款精確匹配要求。已有的方法通常將精確匹配問題轉換為一個二分類問題,但這種方式適應性差,隻能利用單一時刻的視頻幀。為了能夠利用整個衣物運動軌跡,我們提出了如下的可變化的深度樹形結構(Reconfigurable Deep Tree structure)將匹配問題轉換為邏輯回歸問題。匹配網絡擬采用基於混合專家係統的邏輯回歸網絡。該結構可以認為是對現有attention模型的一種擴展,可以用來解決多模型融合問題。

db789ce66536014c4a9fff8f0e003d2ed45c35dd

4 Asymnet相似性網絡

整個模型的目標函數是綜合考慮每一幀的匹配結果,得到基於整個衣物運動序列和電商衣物的相似性,整個係統可以建模為對如下目標公式進行求解:

dd9a577c1badfcded863b8c9866659f09d07bfba

類似於attention機製,我們提出如下後驗概率模型,來對上式進行求解:

c08d2e9036d4a95e57fecc016e557aa910849862

得到如下梯度並采用端到端方式進行網絡學習。

2e1a458a7e23a74d9e6ab227b1eabfc34d7e69be

試驗結果:我們利用業務數據和最新的衣物檢索方法進行了對比,試驗結果如下表所示。相對於alexnetAsymnet在前20的檢索精確率指標上,其性能幾乎提高了進一倍。相對於其他2種網絡CS RC 我們發現RC的性能略優於CS,因為RC具有較強的識別能力差異較小(采用多任務學習)。甚至在對於某些類別(無明顯差別)RC在精確率上甚至略好於AsymNet,但是總的來說AsymNet比目前現有的方法擁有更好的性能。因為Asymnet可以處理現有的視頻的時空動態變化,並結合自動視頻幀的自動調節爐排判別信息的融合策略。

71320f4a8d0c9ab60cd4d9dbf9cf38691c3c2651

論文下載鏈接:https://openaccess.thecvf.com/content_cvpr_2017/papers/Cheng_Video2Shop_Exact_Matching_CVPR_2017_paper.pdf

最後更新:2017-07-26 09:33:02

  上一篇:go  曾鳴:未來五年,一個新的商業模式將誕生 | 幹貨
  下一篇:go  Webpack 愛與恨