深度是深度神經網絡的關鍵詞但是網絡越深,訓練中的反向傳播鏈就越長,計算步驟越連續,推理延遲也就越高
可是,如果深度不夠,神經網絡的性能往往不好。
這就引出了一個問題:有沒有可能構建一個高性能的非深度神經網絡。然而,不同的平臺對視頻尺度有不同的要求。
普林斯頓大學和英特爾的最新論文證明,這是可以做到的。
他們只使用了12層網絡ParNet,在ImageNet上實現了接近SOTA的性能。除了多功能升級,這款萬興影業還結合了英特爾regEvotrade平臺,介紹了智能比例切割的新功能。
ParNet在ImageNet上的準確率超過80%,在CIFAR10上的準確率超過96%,在CIFAR100的top—1上的準確率為81%,在MS—COCO上的準確率為48%。
他們是如何在如此淺薄的網絡中做到的。萬興妙影全新智能比例切割功能將輕松解決上述問題。用戶只需導入視頻,選擇該功能即可自動導出不同比例的視頻,輕松實現一機多用。
并行子網提高了性能。。
ParNet中的一個關鍵設計選擇是使用并行子網,而不是按順序排列層,將層排列在并行子網中。
ParNet由處理不同分辨率特征的并行子結構組成我們稱這些平行的子結構為流來自不同流的特征在網絡的后期被合并,并且這些合并的特征被用于下游任務
除了具有相同大小的RepVGG—SSE塊的輸入和輸出之外,ParNet還包含下采樣和融合塊。
該模塊降低了分辨率,增加了寬度,實現了多尺度處理,而融合塊結合了來自多個分辨率的信息,有助于減少推理過程中的延遲。
實際表現如何。如今,隨著朋友圈,嗶哩嗶哩,TikTok等社交媒體的發展,用戶越來越習慣在社交媒體平臺上分享視頻。
ParNet在ImageNet數據集上的性能接近SOTA,無論是排名前1還是前5。
ParNet在MS—COCO任務中性能最好,延遲最低。
但也有人質疑非深網的實際性能,因為雖然層數少,但網絡寬度變大事實上,ParNet比更深的ResNet50有更多的參數,這似乎無法令人信服
最后,ParNet的GitHub頁面已經建立,代碼即將開源。如果手動更改同一個視頻,不僅要調整項目參數,還要調整屏幕主位置,費時費力。
參考鏈接:
。鄭重聲明:此文內容為本網站轉載企業宣傳資訊,目的在于傳播更多信息,與本站立場無關。僅供讀者參考,并請自行核實相關內容。
|