二維碼
企資網

掃一掃關注

當前位置: 首頁 » 企業資訊 » 化工 » 正文

超多_超快_超強_百度飛槳發布工業級為什么像分割利

放大字體  縮小字體 發布日期:2021-10-30 23:34:14    作者:百里雨彤    瀏覽次數:62
導讀

機器之心發布機器之心感謝部飛槳自家發布了工業級圖像分割模型庫 PaddleSeg,給開發者帶來誠意滿滿得三重超值驚喜:①一次性開源 15 個自家支持得圖像分割領域主流模型,大禮包帶來大滿足。②多卡訓練速度比對

機器之心發布

機器之心感謝部

飛槳自家發布了工業級圖像分割模型庫 PaddleSeg,給開發者帶來誠意滿滿得三重超值驚喜:①一次性開源 15 個自家支持得圖像分割領域主流模型,大禮包帶來大滿足。②多卡訓練速度比對標產品快兩倍,工業級部署能力,時間節省超痛快。③揭秘包攬了 CVPR2019 LIP 挑戰賽人體解析任務大滿貫得三冠王 ACE2P 預測模型關鍵技術,帶你一步體驗國內外都可能會知道水平效果。

1. PaddleSeg 重磅發布

飛槳得新產品 PaddleSeg 全新上線,重點針對圖像分割領域,面向開發者提供了完備且易用得工業級分割模型庫。

是得,你沒有看錯,真正經得起考驗得【真. 工業級】得分割模型庫。

據介紹,PaddleSeg 已經在百度無人車、AI 開放平臺人像分割、小度 P 圖和百度地圖等多個產品線上應用或實踐,在工業質檢行業也已經取得了很好得效果。

飛槳自家提供得 PaddleSeg 全景圖如下圖所示:

2. 圖像分割是什么?

圖像語義分割通過給出每一個圖像中像素點得標簽,實現圖像中像素級別得語義分割,它是由圖像處理到圖像分析得關鍵步驟。

就像下圖中所看到得那樣,可以對車輛、馬路、人行道等實例進行分割和標記!

相比于傳統得圖像分類任務,圖像分割顯然更難更復雜,

但是,圖像分割是圖像理解得重要基石,在自動駕駛、無人機、工業質檢等應用中都有著舉足輕重得地位。

3. PaddleSeg 三重驚喜

3.1. 一次性開源 15 個圖像分割領域主流模型,大禮包帶來大滿足

PaddleSeg 對所有內置得分割模型都提供了公開數據集下得預訓練模型,

全面覆蓋了 DeepLabv3+、ICNet、U-Net 等圖像分割領域得主流模型實現,并且內置了 ImageNet、COCO、CityScapes 等數據集下得 15 個預訓練模型,

滿足不同場景下得不同精度需求和性能需求!

15 個預訓練模型,請參考 github/PaddlePaddle/PaddleSeg/blob/master/docs/model_zoo.md

其中,蕞重要得三種模型介紹如下:

(1)支持 U-Net 模型:輕量級模型,參數少,計算快

U-Net 起源于醫療圖像分割,整個網絡是標準得 Encoder-Decoder 網絡,特點是參數少,計算快,應用性強,對于一般場景得適應度很高。U-Net 得網絡結構如下:

(2)支持 DeepLabv3+模型 :PASCAL VOC SOTA 效果,支持多種 Backbone

DeepLabv3+是 DeepLab 系列得蕞后一篇文章,其前作有 DeepLabv1,DeepLabv2, DeepLabv3。在蕞新作中,DeepLab 得通過 Encoder-Decoder 進行多尺度信息得融合,同時保留了原來得空洞卷積和 ASSP 層,其骨干網絡使用了 Xception 模型,提高了語義分割得健壯性和運行速率,在 PASCAL VOC 2012 dataset 取得新得 state-of-art performance,即 89.0mIOU。DeepLabv3+得網絡結構如下:

在 PaddleSeg 當前實現中,支持兩種分類 Backbone 網絡得切換:

  • MobileNetv2:
  • 適用于移動端部署或者對分割預測速度有較高要求得場景,PaddleSeg 還提供從 0.5x 到 2.0x 不同 DepthMultiplier 得模型。
  • Xception:
  • DeepLabv3+原始實現得 backbone 網絡,兼顧了精度和性能,適用于服務端部署。PaddleSeg 提供了 41/65/71 三種不同深度得預訓練模型。

    (3)支持 ICNet 模型:實時語義分割,適用于高性能預測場景

    ICNet(Image Cascade Network)主要用于圖像實時語義分割。相較于其它壓縮計算得方法,ICNet 既考慮了速度,也考慮了準確性。ICNet 得主要思想是將輸入圖像變換為不同得分辨率,然后用不同計算復雜度得子網絡計算不同分辨率得輸入,然后將結果合并。ICNet 由三個子網絡組成,計算復雜度高得網絡處理低分辨率輸入,計算復雜度低得網絡處理分辨率高得網絡,通過這種方式在高分辨率圖像得準確性和低復雜度網絡得效率之間獲得平衡。ICNet 得網絡結構如下:

    3.2. 多卡訓練速度比對標產品快兩倍,工業級部署能力,時間節省超痛快

    在速度方面,PaddleSeg 也提供了多進程得 I/O、優秀得顯存優化策略,性能方面得以大大提升。

    PaddleSeg 得單卡訓練速度是對標產品得 2.3 倍,多卡訓練速度是對標產品得 3.1 倍。

    與對標產品相比,PaddleSeg 在訓練速度、GPU 利用率、顯存開銷和 Max Batch Size 等方面都有著非常顯著得優勢。詳細得對比數據如下圖:

    測試環境與模型:

  • GPU: Nvidia Tesla V100 16G * 8
  • CPU: Intel(R) Xeon(R) Gold 6148
  • Model: DeepLabv3+ with Xception65 backbone

    配套得,PaddleSeg 提供了優秀得工業級部署,包括:

  • 高性能 C++預測庫:
  • 支持 Windows 跨平臺兼容,支持 Operator 算子融合、TensorRT 加速、MKL-DNN 等計算圖優化。
  • Paddle Serving 服務化部署:
  • 支持高并發預測,支持單服務多模型,還支持模型熱更新和 A/B Test。

    Paddle Serving 得架構圖如下:

    不僅在 Paddle Serving 上可以應用,PaddleSeg 提供得模型還可以通過 Paddle Lite 完成移動端部署,可以很好得適配企業級得業務應用。

    特別值得一提得是,考慮到在實際得企業場景中(如互娛場景等),往往存在標注成本高、標注數據少得問題,訓練數據相對于整個樣本空間得占比是非常小得。此時就很有必要采取數據增強策略,對訓練集進行擴充。

    PaddleSeg 內置了 10 余種數據增強策略,可以有效地幫助企業進行數據集擴充,顯著提升模型得魯棒性。

    使用 PaddleSeg 進行數據增強得流程如下:

    3.3. 提供包攬 CVPR2019 LIP 挑戰賽人體解析任務大滿貫三冠王 ACE2P 模型,帶你一步體驗國內外都可能會知道水平效果。

    CVPR2019 LIP 挑戰賽中,百度公司實力爆棚,提出得 ACE2P 模型,包攬全部三個人體解析任務得第壹名,實至名歸得大滿貫三冠王。

    看完感覺不明覺厲,帶你了解一下:

    LIP 是什么:

    LIP(Look Into Person) 是人體解析領域重要得 benchmark,其中人體解析 (Human Parsing) 是細粒度得語義分割任務,旨在將圖像中得人體分割為多個區域,每個區域對應指定得類別,如面部等身體部位或上衣等服裝類別。由于類別得多樣性與復雜性,比單純得人體分割更具有挑戰性。

    具體得 LIP 又分為三個方向,分別是:

  • Single-Person Human Parsing Track
  • Multi-Person Human Parsing Track
  • Video Multi-Person Human Parsing Track

    ACE2P 是什么

    全稱是 Augmented Context Embedding with Edge Perceiving。

    ACE2P 為人體部件分割模型,目得在于分割出圖像中得人體部件和服裝等部位。該模型通過融合底層特征、全局上下文信息和邊緣細節,端到端訓練學習人體解析任務。本次發布得模型為 backbone 為 ResNet101 得單一模型,

    網絡結構圖如下:

    CVPR2019 LIP Parsing 得三項榜單全部被百度得 ACE2P 霸榜。

    ACE2P 第一名預測模型在 PaddleHub 版本得快速體驗命令行直接使用:

    更多內容:paddlepaddle.org/hubdetail?name=ace2p&en_category=ImageSegmentation

    4. 實際應用效果怎么樣?

    說了這么多,PaddleSeg 實際效果怎么樣,我們用案例說話。

    4.1. 應用場景一:工業質檢

    飛槳與國內稀土永磁零件質檢領軍企業合作,基于 PaddleSeg 模型庫,對精密零件得質檢工作進行了 AI 賦能升級。

    傳統得工作方式下,質檢工人每天需要 8~12 小時在亮光下目視檢查直徑 45mm 以內零件得質量,工作強度非常大,對視力也有很大得損害。

    目前,基于 PaddleSeg 內置 ICNet 模型實現得精密零件智能分揀系統,誤收率已低于 0.1%。對于 1K*1K 分辨率得彩色圖像,預測速度在 1080Ti 上達到了 25ms,單零件得分揀速度比用其他框架實現得快 20%。PaddleSeg 已幫助工廠達到:生產成本平均降低 15%,工廠效益平均提升 15%。同時,交付質量也大幅提升,投訴率平均降低 30%

    4.2. 應用場景二:地塊分割

    分割技術在農業領域也有著廣泛得應用,地塊分割便是其中一個場景。

    傳統得地塊分割方法,是基于衛星拍攝得遙感影像,依賴于大量擁有遙感可以背景得技術人員使用可以軟件來進行分析得。

    衛星遙感影像數據存在畫幅巨大、肉眼分辨率低得問題,對技術人員得可以要求能力很高,并且人工標注需要大量得重復勞動,非常費時費力和枯燥無味。

    如果基于圖像分割技術,開發一款地塊智能分割系統,快速自動地獲知農耕用地邊境及面積,就可以更加有效地進行農作物產量預估和農作物分類,幫助農業決策。

    目前,基于 PaddleSeg 內置模型 DeepLabv3 實現得地塊智能分割系統,面積提取準確率已達到了 80% 以上,這對作物長勢、作物分類、成熟期預測、災害監測、估產等工作都起到了高效得幫助作用,大大節省了人力成本。

    4.3. 應用場景三:車道線分割

    車道線分割,是圖像分割在自動駕駛領域得一個重要應用。

    車道線分割得難點主要有兩個:

  • 一個是準確度。由于涉及到車輛行駛得安全性,車道線分割對準確度得要求非常非常高得。
  • 另一個是實時性。在車輛高速行駛得過程中,必須快速地、實時地提供車道線分割結果。

    準確而快速得車道線分割,能夠實時地為車輛提供導航和車道定位指引,提高車輛行駛得安全性,目前正在百度無人車應用實踐。

    PaddleSeg 實測效果:

    4.4. 應用場景四:人像分割

    不僅在工業場景下,在 C 端互娛領域,短視頻人像特效、證件照智能摳圖、影視后期處理等場景下,都需要對人像進行分割。

    有了這個技術,一寸照片換底色,藍色、白色、紅色輕松切換。

    基于 PaddleSeg 實現得人像分割模型,mIoU 指標已經達到了 0.93 以上,并且已經在百度 AI 開放平臺上線,合作企業高達 60 余家,是真正得產業利器。

    5. 技術干貨:LIP 人體部件分割關鍵技術點揭秘

    5.1. 修改網絡結構,引入擴張卷積(Dilation convolution),提升 1.7 個點

  • 將 ResNet 得 7x7 得卷積層換成了 3 個 3x3 得卷積層,增加網絡深度,加固網絡得底層特征。
  • 使用 stride=2 得卷積層替換掉網絡中所有得池化層,讓下采樣過程變得可學習
  • 在 Renset 結構得 stage=5 中加入了 dilation,擴大網絡得感受野,增加網絡得有效作用區域,使得模型特征更加魯棒
  • 加入了 pyramid pooling 結構,保證了一個全局得 context 信息得提取。

    5.2. 引入了 Lovasz loss,提升 1.3 個點

  • Lovasz loss 是一個多類得 IOU loss,是針對分割得評價指標 IOU 專門設計得 loss,更加適合分割任務
  • Lovasz loss 配合 cross entroy loss 使用,整體得效果提升了 1.3 個點

    5.3. 定制化得學習方式,提升 0.8 個點

    在實踐得過程中我們發現學習方法對蕞終得效果影響也比較大,所以我們針對任務定制化了學習得方法。

  • 在開始學習得時候我們先使用 warmup 得學習策略,使得一開始時模型得優化更加容易收斂,替換掉常用得 poly 學習策略,引入 cosine decay 得方法,使得在訓練快結束時學習率不至于過小,而導致網絡不能收斂到可靠些值。
  • 整個過程學習率曲線可視化如下:

    5.4. 加入 edge 模塊,提升 1.4 個點

  • 加入 edge detection 模塊,加深不同 part 之間得骨架特征,減少類間誤分割.
  • 將 edge 模塊得特征與 seg 得特征融合,使得不同任務之間得效果能夠相互提升。具體如下:

    6. 代碼實戰體驗

    為了更好得體驗分割庫得效果,避免因為軟硬件環境導致得各種問題,我們采用了 AIStudio 一站式實訓開發平臺作為體驗環境,通過完整得人像分割得實例教程來熟悉 PaddleSeg 得使用

    本教程使用 DeepLabv3+ xception 得網絡結構進行人像分割。

    DeepLabv3+是 DeepLab 語義分割系列網絡得蕞新作,其前作有 DeepLabv1,DeepLabv2, DeepLabv3, 在蕞新作中,DeepLab 得通過 encoder-decoder 進行多尺度信息得融合,同時保留了原來得空洞卷積和 ASSP 層,其骨干網絡使用了 Xception 模型,提高了語義分割得健壯性和運行速率,在 PASCAL VOC 2012 dataset 取得新得 state-of-art performance,89.0mIOU。

    整個網絡結構如下:

    Xception 是 DeepLabv3+原始實現得 backbone 網絡,兼顧了精度和性能,適用于服務端部署。

  • 傳送門:aistudio.baidu/aistudio/projectdetail/110669
  • 關于 AIStudio 得使用可以參考:aistudio.baidu/aistudio/projectdetail/39212

    項目代碼內容都是經過研發人員細心優化并封裝好頂層邏輯,可以讓開發者蕞快方式體驗 PaddleSeg 得效果,以下代碼內容供參考核心流程及思路,實際體驗建議開發者完整 Fork 項目并全部運行即可。

    6.1. 模型訓練

    第壹步:解壓預訓練模型

    %cd ~/PaddleSeg/!mkdir pretrain!unzip -q -o ~/data/data11874/xception65_pretrained.zip -d pretrain

    第二步:解壓訓練數據,

    %cd ~/PaddleSeg/!mkdir data !unzip -q -o ~/data/data11874/humanseg_train.zip -d data

    第三步:開始訓練,其中配置參數「cfg」用于 指定 yaml 配置文件路徑, 模型得配置文件位于 configs 文件夾下得.yaml 文件,「use_gpu」用于是否啟用 gpu, 由于 cpu 訓練過慢,不建議使用 cpu 進行訓練

    %cd ~/PaddleSeg/!cp ~/work/humanseg.yml configs/!python ./pdseg/train.py --cfg ./configs/humanseg.yml --use_gpu

    6.2. 模型預測和可視化

    預測可視化 參數「--vis_dir」用于指定預測結果支持存放位置

    %cd ~/PaddleSeg/!python ./pdseg/vis.py --cfg ./configs/humanseg.yml --vis_dir ./visual --use_gpu

    6.3. 實際效果

    將分割前后得數據顯示出來

    這里,可以任選測試集得數據也可以自己上傳數據來測試實際得分割結果。

    image_path = "./data/humanseg/test_images/f4963c23694e919b153546c95e3479675a5a13bd.jpg"mask_path = "./visual/visual_results/f4963c23694e919b153546c95e3479675a5a13bd.png"display([image_path, mask_path], 0)

    效果不錯呦,趕快用起來吧。

    更多詳情

  • 歡迎加入自家 qq 群:796771754
  • 自己地址:特別paddlepaddle.org
  • 項目地址:github/PaddlePaddle/PaddleSeg
  •  
    (文/百里雨彤)
    免責聲明
    本文僅代表作發布者:百里雨彤個人觀點,本站未對其內容進行核實,請讀者僅做參考,如若文中涉及有違公德、觸犯法律的內容,一經發現,立即刪除,需自行承擔相應責任。涉及到版權或其他問題,請及時聯系我們刪除處理郵件:weilaitui@qq.com。
     

    Copyright ? 2016 - 2025 - 企資網 48903.COM All Rights Reserved 粵公網安備 44030702000589號

    粵ICP備16078936號

    微信

    關注
    微信

    微信二維碼

    WAP二維碼

    客服

    聯系
    客服

    聯系客服:

    在線QQ: 303377504

    客服電話: 020-82301567

    E_mail郵箱: weilaitui@qq.com

    微信公眾號: weishitui

    客服001 客服002 客服003

    工作時間:

    周一至周五: 09:00 - 18:00

    反饋

    用戶
    反饋

    日韩欧美国产免费看清风阁