【可解釋性人工智慧,改善大眾對AI陌生印象】
近年來AI臉部辨識技術進步顯著,不僅可以在低解析度或刻意喬裝的情況下辨識,甚至超越人類辨識能力。但許多人還是對AI感到陌生,因為不了解 AI 做決策的過程及原因,讓人駐足不前。因此,台大 AI 中心在科技部支持下,打造出「可解釋性人工智慧」(Explainable AI,XAI),並強調 AI 的「透明性與可追溯性」及「可解釋性」,期盼讓大眾對 AI 感到信賴與安心。
#Nutanix #nutanixTW #XAI #ExplainableAI
➡️立即加入Nutanix LINE@:https://line.me/R/ti/p/%40sqz5036h
同時也有1部Youtube影片,追蹤數超過5,870的網紅珊蒂微AI,也在其Youtube影片中提到,「人工智慧」並非遙不可及,但如果你現在還離它有點遠,那就先從「已經在接觸AI的人」的生活日常認識起吧! 專訪「台灣人工智慧學校」 (簡稱AIA) 第一期技術班的班代表 陳宇春!(下集) 1:48 DARPA XAI Program:https://www.darpa.mil/program/ex...
解釋性人工智慧 在 國立臺灣大學 National Taiwan University Facebook 的最佳解答
【口罩阻礙人臉辨識 臺大AI新技術有解】
開學以來,你我外表最大的不同就是當起「蒙面客」,戴口罩的好處是力行防疫,還可趁機偷懶不用刮鬍子、化妝也只需畫眼妝就好…不過,麻煩之處就是使用手機時,人臉辨識解鎖無法運作,得重複摘下戴上口罩…
還好,這樣的窘境未來可能有解了。臺大資訊工程學系教授徐宏民( Winston Hsu ),率領其在臺大AI中心(轄下的團隊,發表「可解釋性人工智慧( Explainable AI ,XAI)模組xCos」,除了具備高辨識率的人臉辨識能力外,還可有條理的解釋AI產出結果的原因。這項技術不僅可協助業者開發AI辨識技術,更可協助開發人員探究及檢視系統的運作機制,進而理解AI決策建議背後的理由,提升人類對於AI的信任度。
徐教授解釋,例如AI僅告知發電廠未來1小時是否要增加發電量,但XAI可以補充說明是因為預測氣候的改變或今日有特殊節慶等;AI可以說出X光片是否有肺炎徵兆,但XAI可更進一步解釋判斷的依據以及指出病徵的位置,這些XAI的應用,都可強化人民對AI的信任,更可協助系統開發人員進一步檢視AI判斷是否合理,便以改善與強化AI模型,進而促進國內外AI技術與相關產業進展。
徐教授團隊自2011年便開發出第一套行動裝置上的人臉搜尋系統,之後不斷自我挑戰包括跨年紀的臉部辨識能力、偽裝人臉辨識等。2018年在全球三大電腦視覺頂尖會議之一的CVPR偽裝人臉辨識競賽( Disguised Faces in the Wild )奪下全球冠軍,為辨識率唯一超過9成的團隊。
徐教授表示,產學合作的過程中,除了貢獻研究者對未來技術的洞察力之外,研究者也時常從合作過程中去挖掘出未來的需要。他希望將其理念拓展至其他AI深度學習相關應用中,同時也正將XAI技術擴展到其他領域關鍵性的AI決策系統,像是醫療與能源方面。
團隊已將此技術以Open Source方式供產學研單位使用:https://github.com/ntubiolin/xcos
延伸閱讀
iThome「AI為何這樣辨識人臉?臺大徐宏民團隊首創可解釋AI新技術,正嘗試擴大應用到金融和醫療AI」:
https://www.ithome.com.tw/news/137541?fbclid=IwAR24ljMhAu5tn4-4Drl1Q6-gFXLl-I7gqzlgZe_1KIQdymiHqL_mxY68ZeQ
自由時報「不解人工智慧決策理由 台大團隊AI研究取得新進展」:
https://news.ltn.com.tw/news/life/breakingnews/3161898
科技部新聞資料「打破AI黑盒子-可解釋性的人臉辨識模組」:
https://www.most.gov.tw/folksonomy/detail/906337b9-1d19-4e06-ad71-322b12531971
#解決問題
#大學社會責任
#USR
#臺大資訊工程學系
#徐宏民
#終於不用再一直穿脫口罩用手機
解釋性人工智慧 在 科技產業資訊室 Facebook 的精選貼文
科技部長陳良基指出,台大AI中心開發出「可解釋性人工智慧」(XAI),除了有更高辨識率的人臉辨識能力,也可以更有條理解釋AI產出結果,增進使用者對AI的信任度。
https://www.chinatimes.com/newspapers/20200512000240-260204…
解釋性人工智慧 在 珊蒂微AI Youtube 的精選貼文
「人工智慧」並非遙不可及,但如果你現在還離它有點遠,那就先從「已經在接觸AI的人」的生活日常認識起吧!
專訪「台灣人工智慧學校」 (簡稱AIA) 第一期技術班的班代表 陳宇春!(下集)
1:48 DARPA XAI Program:https://www.darpa.mil/program/explainable-artificial-intelligence
2:29 「為什麼AI需要被解釋」的四個理由:https://medium.com/trustableai/%E5%AE%83%E6%98%AF%E6%80%8E%E9%BA%BC%E7%9F%A5%E9%81%93%E7%9A%84-%E8%A7%A3%E9%87%8B%E6%B7%B1%E5%BA%A6%E5%AD%B8%E7%BF%92%E6%A8%A1%E5%9E%8B-f18f57d18d4f
3:02 「L.I.M.E.」:https://medium.com/@kstseng/lime-local-interpretable-model-agnostic-explanation-%E6%8A%80%E8%A1%93%E4%BB%8B%E7%B4%B9-a67b6c34c3f8
3:21 「Neuron Deletion」:https://www.leiphone.com/news/201803/PJH0q2tj8d3jvVIk.html
#AI
#XAI
#解釋性AI
#解釋性人工智慧
#AI黑盒子
#人工智慧
#ArtificialIntelligence
#LIME
#DARPAXAIProgram
#為什麼AI需要被解釋
#NeuronDeletion
#隱藏層
#透明層
#神經網路
#hiddenlayer
#neuralnetwork
#ExplainableAI
解釋性人工智慧 在 讓AI 不再黑箱,科技部與台大發表XAI 可解釋性人工智慧模組 ... 的推薦與評價
讓AI 不再黑箱,科技部與台大發表XAI 可解釋性人工智慧模組xCos https://www.inside.com.tw/article/19755-Taiwan-Explainable-AI-xCos. ... <看更多>