提供完善AI建模工具 陽明交大讓自駕車辨識更精準
訊息來源
https://www.digitimes.com.tw/iot/article.asp?cat=130&cat1=40&id=0000607775_SPR8I9Y662CLUO66K07LI
陽明交通大學電機學院副院長暨嵌入式人工智慧研究中心主任郭峻因。
嵌入式AI技術的應用漸廣,其中深度學習是目前最常用的演算法之一,此演算法需建立完整精確的訓練模型,推論(Inference)端才能順利發揮效益,在此次論壇中,陽明交通大學電機學院副院長暨嵌入式人工智慧研究中心主任郭峻因就以「嵌入式AI深度學習運算模型之建構與應用」為題,發表精采演說。
陽明交大的智慧視覺系統設計實驗室(NYCU iVS Lab),聚焦於各種智慧視覺研究,自駕車也是其中一環。郭峻因表示,自駕車已成全球汽車與科技兩大產業的共同趨勢,NYCU iVS Lab在此領域的研究包括各種ADAS所需的功能與相關技術,在感測器部分,除了視覺感測器外,其研究內容也包括光達(LiDAR)。他指出,影像辨識目前是AI的主流發展方向,在車用領域,AI也可應用於LiDAR,進行物件偵測與分析。
對於AI的導入建議,他表示開發者必須先行掌握圖資與軟硬體核心技術,再進行AI建模,在此環節郭峻因特別強調,建模時必須採用定點而非浮點運算,方能符合自駕車系統需求。針對目前AI設計趨勢與挑戰,郭峻因則以近期的某電動車事故為例點出問題癥結。日前台灣高速公路發生一起車禍,駕駛人放手讓電動車行駛,電動車卻直接撞擊前方道路上一輛倒臥的貨櫃車,在一般正常狀態下,該品牌電動車可偵測前方車輛,過近就會自動剎車,但在這次事件中,AI無法辨識靜止且呈倒臥姿態的貨櫃車是否為車輛,再加上白色車身影響了其視覺判斷,最終釀成車禍。
從這次事件可以看出目前AI在自駕車上的幾個問題,像是攝影機無法偵測車道車輛、霧與強光會干擾系統識別白色汽車、雷達有可能忽略靜態車輛、相機與雷達兩大感測器整合方式有待改進等,現在NYCU iVS Lab就致力於解決上述問題。
郭峻因緊接著談到嵌入式AI感應核心技術與應用。他指出標準的嵌入式深度學習開發,必須先設定與標示資料、再建構訓練模型。NYCU iVS Lab已針對上述環節推出不同平台,讓AI開發者在不同環節均有快速簡易的工具,協助業者縮短開發時程。
郭峻因表示,NYCU iVS Lab所推出的工具都經過測試,具有高度實用性,以資料的設定與標示為例,NYCU iVS Lab在此部分提供的ezLabel工具,只需要前後兩幀畫面,即可標記整段影像中的物件,大幅減少人工標記工時;ezLabel是網路開放平台,可讓全球各地深度學習專家與一般民眾使用,目前ezLabel 2.3版已累積有超過610位使用者。
模型建構部分,NYCU iVS Lab建構SSD輕量化模型與MTSAN(Multi-Task Semantic Attention Network;多任務語義注意網路)。SSD輕量化模型解決了過去此類模型因錨點(Anchor)密度不足,難以偵測瘦長物品的痛點,NYCU iVS Lab在加入CSPNet後,不僅強化運算速度與準確度,同時運算量與參數量也減少了一半。至於MTSAN則是結合物件偵測技術,利用畫素分割場域,並藉此強化物件特徵,郭峻因指出,光是此動作就可提升4.5%的準確度(mAP)。
自駕車導入可分割場域的MTSAN後,可與前車防碰撞(FCWS)或車道偏移系統(LDWS)整合,精準判斷車道,在山路上行駛時,可以識別彎曲車道線,另外也可加入2D與3D的卷積(Convolution)行為分析技術,用來預測後端車輛的超車方向與可能性。
演講最後郭峻因引述美國未來20年發展AI的藍圖做總結。他表示未來的AI必須與情境整合,同時打造開放性知識場域,集結眾人之力,讓AI可了解人類的智能與反應,以進行有意義的互動,此外AI也必須能自我學習,整合周邊環境的各種資訊,培養應對困難挑戰的能力。
至於自駕車的AI應用,他則指出需強化研發各種感知技術,讓車輛可以精準識別路上各類型物件與其移動的意向,將是未來產學研的重點,透過這些研發,車禍事故發生機率將可大幅降低,進而建構安全可靠的交通場域。
「map 物件 偵 測」的推薦目錄:
- 關於map 物件 偵 測 在 國立陽明交通大學電子工程學系及電子研究所 Facebook 的精選貼文
- 關於map 物件 偵 測 在 陳良基的創新筆記 Facebook 的最讚貼文
- 關於map 物件 偵 測 在 [問題] Object Detection中的mAP指標多少算高? - 批踢踢實業坊 的評價
- 關於map 物件 偵 測 在 圖解兩階段物件偵測算法_Part02 - mAP - YouTube 的評價
- 關於map 物件 偵 測 在 物件偵測模型評估 - YouTube 的評價
- 關於map 物件 偵 測 在 正確理解YOLO 的辨識準確率 - Laplace's Lab 的評價
- 關於map 物件 偵 測 在 【人工智慧】深度學習影像辨識| YOLO物件偵測全解析 的評價
- 關於map 物件 偵 測 在 Mobile01: 首頁 的評價
map 物件 偵 測 在 陳良基的創新筆記 Facebook 的最讚貼文
比單一技術,台灣是超強的!
台灣團隊也許是過往所受訓練的關係,在單一技術的研發一向超強,昨天做研發成果記者會的是國內培養多年的堅強團隊,非常厲害。
但台灣團隊如果能夠在系統整合價值創造上面多點努力,或者與世界頂尖的系統整合,我們在台灣強項的部分,絕對是世界領先者!
#研究成果
【自駕車智慧之眼👁 深耕八年有成 嵌入式AI物件辨識系統技術領先國際】
AI人工智慧與自駕車是目前全世界兩大熱門研究領域,自駕車結合AI技術,就如同將大腦裝進汽車,臺灣在這關鍵技術中,佔有一席之地💪
在科技部的支持之下,國立交通大學電子研究所郭峻因教授團隊研發出「自駕車智慧之眼👁 -嵌入式AI物件辨識系統」技術深耕長達八年,開發出全世界第一套快速視訊資料自動化標記工具(ezLabel 2.0),以及嵌入式AI深度學習演算法。
🎯自動標記好快速 幫助AI長智慧
AI要能聰明分辨影像內的各式物件,得學習靠"工人"智慧幫忙在影像資料標記,配合複雜的軟體演算法和強大硬體計算能力。
郭教授團隊目標藉由分析影像實現自駕車/進階駕駛輔助系統(ADAS),成功開發嵌入式電腦視覺深度學習技術,透過快速自動化標記工具,產生大量供AI人工智慧學習的資料庫,其標記效率超過目前現有手動資料標記工具達10-15倍以上,搭配團隊開發的即時軟體演算法,降低了AI電腦視覺所需之運算平台成本,無需昂貴的GPU運算平台。
此外,郭教授團隊已經建置超過1,500萬筆適合臺灣地區之自駕車影像資料庫,今年預計增加3000萬筆,這些資料有助於開發適合臺灣地區之AI自駕車物件辨識技術。
👁望遠好視力! 200公尺外的車一樣看得清
郭教授團隊開發出最遠可偵測超過200公尺外車輛的嵌入式深度學習演算法,超越現階段文獻標竿演算法(YOLO v2) 4倍,且在運算複雜度相當下,準確度高於YOLO v2約10% mAP(平均準確度),可於 nVidia自駕車平台 (DRIVE-PX2)上即時運算,適用於各式天候,非常適合自駕車/ADAS應用。
👁後腦杓長眼? 預測後方車輛3秒是否超車
郭教授團隊將深度學習技術延伸應用於物件行為預測甚至駕駛控制,開發出全球首見可預測後方車輛(汽車或機車)是否超車之深度學習行為預測技術,於行車時可準確預測後方車輛於未來3秒鐘是否超車,可作為車輛駕駛人第三隻眼睛,守護行車安全。
嵌入式AI自駕車快速資料標記工具、自駕車圖資、物件偵測與行為預測深度學習技術之產業應用潛力相當大,目前合作廠商已達28家,未來潛在的合作廠商包含AI晶片公司、車電系統公司與自駕車圖資公司等。
📍科技部新聞稿:https://reurl.cc/zGr1p
map 物件 偵 測 在 圖解兩階段物件偵測算法_Part02 - mAP - YouTube 的推薦與評價
圖解兩階段 物件偵測 算法 物件偵測 以 mAP 來估評模型的好壞 mAP 全名為mean Average Precision 為何有mean又有Average呢? Precision有什問題呢? ... <看更多>
map 物件 偵 測 在 物件偵測模型評估 - YouTube 的推薦與評價
物件偵測 (object detection)是指在影像中,利用長方形的框標出 物件 的位置,並針對該 物件 進行分類,也同時輸出該分類的機率值。 在這段影片中, ... ... <看更多>
map 物件 偵 測 在 [問題] Object Detection中的mAP指標多少算高? - 批踢踢實業坊 的推薦與評價
版上各位好
小弟最近在使用Faster RCNN做一些物件辨識的任物
訓練完模型後想評估模型好壞,因此以原code中的mAP進行評估
我在testing data上的結果看起來預測的都還行
但在IoU>0.5的閥值下的mAP都大約0.7左右
想問一下版上大大mAP多少以上算高呢?
因為我看原本Faster RCNN的paper在mAP的評估上似乎也都0.5~0.8左右而已
有點不清楚這個指標應該多少算高
網路上似乎也找不到相關的討論,都只有計算方法而以
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.160.36.56 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1604590433.A.DF3.html
... <看更多>