【就開發及使用AI之道德標準 私隱專員公署發布指引】
個人資料私隱專員公署表示,鑑於人工智能日漸普及,同時存在私隱及道德風險,署方今日(8月18日)發出《開發及使用人工智能道德標準指引》,旨在協助機構在開發及使用人工智能時,能明白及遵從《個人資料(私隱)條例》的相關規定。
私隱專員鍾麗玲表示,指引建議機構開發及使用人工智能時,奉行尊重、互惠及公平三項基本數據管理價值去對待持份者。
指引根據國際標準,列出七項人工智能的道德原則,包括機構應確保在人工智能運作時,有適當的人為監督;同時, 機構應披露它們正使用人工智能及相關的政策,且致力改善自動化和人工智能輔助作出的決定的可解釋性(interpretability)。
全文︰http://passiontimes.hk/article/08-18-2021/75555
#道德 #個人資料私隱專員公署
請支持PassionPrime:
http://passiontimes.hk/prime/
請支持熱血時報印刷版︰
http://passiontimes.hk/4.0/regform.php
請支持熱血文青課金計劃:
http://www.passiontimes.hk/?view=raise2
請支持熱血主持育成計劃:
http://www.passiontimes.hk/?view=raise
《熱血時報》 iOS,Android App 歡迎下載:
iPhone
https://apple.co/2IfgPoP
Android
https://bit.ly/2HqB4Q4
--------------------
成功之前,我們絕對不要放棄夢想!
Till our dreams come true, we'll fight on.
同時也有1部Youtube影片,追蹤數超過5,870的網紅珊蒂微AI,也在其Youtube影片中提到,「人工智慧」並非遙不可及,但如果你現在還離它有點遠,那就先從「已經在接觸AI的人」的生活日常認識起吧! 專訪「台灣人工智慧學校」 (簡稱AIA) 第一期技術班的班代表 陳宇春!(下集) 1:48 DARPA XAI Program:https://www.darpa.mil/program/ex...
可解釋性ai 在 台灣物聯網實驗室 IOT Labs Facebook 的精選貼文
產業追蹤/AI產業化 三關鍵搶先機
2021-07-18 00:36 經濟日報 / 陳右怡
人工智慧(AI)進展神速,除帶來的生活、工作與社交等變革,更融合大數據、物聯網、雲端等不斷進化,形成從晶片、關鍵零組件、系統、軟體、終端、應用等技術價值鏈或生態系,AI更已成為企業及國家競爭力指標。根據PwC預估,2030年AI將創造全球市場營收達15.7兆美元,促使全球GDP成長達14%。而從2021年到2030年的10年間, AI也正進入市場應用擴增期,將成為全球智慧化的主流,快速達到AI普及化。
近五年各行各業導入AI來進行創新轉型,促使「產業AI化」。意即針對企業個別痛點與需求,並發展出各種不同的AI解決方案,遍及交通運輸、傳統金屬加工業、零售業、製造業、餐飲服務業、電商平台等,各自有不同AI化需求,陸續累積愈來愈多的「產業AI化」經驗。再加上AI應用需求多元,也加速AI技術進化,落實軟硬體多元創新應用,並促使各種新創應運而生,開拓出具備市場規模化潛力的AI科技服務模式。
例如運用科技平台、研發測試、科技顧問、系統整合或軟體開發等,解決產業共通性問題,發展「AI即服務(AI-as-a-Service , AIaaS)」,這就是AI創造出來的新興科技服務產業。可以預見的是,未來十年AI將逐漸從一個新興產業發展成為成熟產業,換句話說,人類正在進入一個「AI產業化」時代。AI正整合各種不同技術持續進化並創造新的商業模式,成為全球最熱門的跨技術創新應用技術解決方式,活絡AI落地應用與新創商機。
AI應用愈多元化,就會讓AI變更聰明,AI技術發展終極目標就是仿人,也就是AI能做到像人類一樣的思考與動作。一方面是AI能學習人類知識與經驗,並模仿人類動作,進而能取代或協助人類的重複性作業、具高危險或長期危害身心健康等工作或任務,讓人類能轉做更有價值的工作,以追求更好的生活品質;另一方面,AI也能夠遵守人類社會中的道德倫理規範,發展出「以人為本」的AI,以追求人類福祉為目標。
目前全球產學研界都在思考如何發展「以人為本」的AI。在開發或應用AI技術之初,就需要先有「以人為本」的精神設計AI模型、進行AI訓練與學習。另外,若要發展具有決策能力的AI,以完成各種自動化任務,也需要在AI系統與商業模式的設計中放入人本因素,讓人類可隨時調整AI關鍵決定與行動。各種AI資訊爆炸下,AI知識也將快速成為普及化的常識,民眾必須了解並快速掌握AI趨勢脈動,更需要同步注入人文社會關懷與同理心,藉此創造AI時代新思維與新型態工作方式,並孕育出AI新人才。
在AI浪潮中,台灣要穩占先機,必須有AI三大發展關鍵因素:數據、演算法、演算力。國際普遍看好台灣AI硬體優勢與人才CP值高,因此可從AI跨軟硬體的多元創新概念,來進行超前部署,可朝幾個方向發展,包括:發展「自動化AI」,將AI結合IoT應用於智慧製造、自駕車或無人機等,達到全面自動化,這也是台灣產業最擅長的一塊。還有「分散式AI」,達成即時、可靠、穩定又安全的AI運算處理與分析技術,能在邊緣端就完成所有任務,滿足企業需求如提高效率、分散風險等,特別應用於醫療生技、VR/XR、穿戴裝置等領域。接著是「可解釋AI/可信任AI」,即優化AI數據,使AI演算法、系統與商業模式皆具可解釋性、可追溯性及安全性。
另外,透過AI協助企業轉型、強化產業韌性為切入點,以分散式、超自動化及具安全隱私的產品與服務搶攻AI市場,如提供優質、具洞見及能共享的「數據服務」,或是低成本、高通用性及能自動感測的「邊緣終端」;也可規劃超自動化、可解釋性及邊緣學習的「算法服務」,或發展低功耗、高效能及高擴展性的「演算力」,都是臺灣在AI產業發展中可發揮的強項。
不過,台灣發展AI也有三缺:缺數據、缺跨國共創平台、缺人才;台灣應培養更多AI跨域人才、孕育AI科技服務業,並在台灣建立可串聯全球數據資源與AI研究人才之運作機制或跨國共創平台,吸引國內外企業商機或專業人士,讓AI跨技術創新能一邊促進中小企業韌性,一邊與國際AI需求與資源接軌,將AI變成台灣產業技術創新之活水泉源。
資料來源:https://udn.com/news/story/7241/5608761?fbclid=IwAR1D07BcWejpvWqmOIVm7MHhMZdbqhgd64mS4uBK5Eh_BmI962sag7upTnU
可解釋性ai 在 iThome Facebook 的最讚貼文
本期AI趨勢周報重點:
✦臉書融合自監督學習和Transformer優點,設計一套DINO演算法,用這個方法訓練出的模型,能準確辨識圖片和影片中的物件,還能揪出複製圖
✦甲骨文推出分析雲服務,強化ML模型可解釋性,也能用自然語言進行搜尋
✦MIT新材料分析AI工具,靠一張外觀照片就能估算出材料壓力
#看更多 https://www.ithome.com.tw/news/144208
---------------------------------------
【獨步全球.臺灣唯一 𝗖𝗬𝗕𝗘𝗥𝗦𝗘𝗖 𝟮𝟬𝟮𝟭 臺灣資安大會】
👉👉 5/4 ~ 5/6 臺北南港展覽二館 免費參加 馬上出發!
✦ 全方位 200+ 主題論壇議程
https://r.itho.me/2021-agenda
✦ 突破 200 + 品牌資安大展
https://r.itho.me/2021-expo
✦ 佳評如潮 Cyber LAB 獨家企劃
https://r.itho.me/2021-lab
✦ Cyber Talent 新鮮人職場專區
https://r.itho.me/2021-talent
✦ 看見臺灣資安館 自主研發實力
https://r.itho.me/2021-twpavilion
✦ 擴增升級 六大實境遊戲區
https://r.itho.me/2021-playground
✦ 票選 Tech Demo Award 抽大獎
https://r.itho.me/2021-techdemo
✦ 逛展與會限定 多重實用好禮
https://r.itho.me/2021-specialevents
🏆 超規格 3 天展會、撐住 2021 全球唯一實體資安盛事
獨家內容 全程免費、馬上前往南港展覽二館現場體驗 🔰
________________________________
𝗖𝗬𝗕𝗘𝗥𝗦𝗘𝗖 𝟮𝟬𝟮𝟭 臺灣資安大會
時間: 5 月 4 - 6 日
地點: 臺北南港展覽二館
官網: https://r.itho.me/CYBERSEC_2021
#TRUST_redefined #信任重構
#CYBERSEC2021 #2021臺灣資安大會✦
可解釋性ai 在 珊蒂微AI Youtube 的精選貼文
「人工智慧」並非遙不可及,但如果你現在還離它有點遠,那就先從「已經在接觸AI的人」的生活日常認識起吧!
專訪「台灣人工智慧學校」 (簡稱AIA) 第一期技術班的班代表 陳宇春!(下集)
1:48 DARPA XAI Program:https://www.darpa.mil/program/explainable-artificial-intelligence
2:29 「為什麼AI需要被解釋」的四個理由:https://medium.com/trustableai/%E5%AE%83%E6%98%AF%E6%80%8E%E9%BA%BC%E7%9F%A5%E9%81%93%E7%9A%84-%E8%A7%A3%E9%87%8B%E6%B7%B1%E5%BA%A6%E5%AD%B8%E7%BF%92%E6%A8%A1%E5%9E%8B-f18f57d18d4f
3:02 「L.I.M.E.」:https://medium.com/@kstseng/lime-local-interpretable-model-agnostic-explanation-%E6%8A%80%E8%A1%93%E4%BB%8B%E7%B4%B9-a67b6c34c3f8
3:21 「Neuron Deletion」:https://www.leiphone.com/news/201803/PJH0q2tj8d3jvVIk.html
#AI
#XAI
#解釋性AI
#解釋性人工智慧
#AI黑盒子
#人工智慧
#ArtificialIntelligence
#LIME
#DARPAXAIProgram
#為什麼AI需要被解釋
#NeuronDeletion
#隱藏層
#透明層
#神經網路
#hiddenlayer
#neuralnetwork
#ExplainableAI