我個人認為這篇文章是講得最透徹的。疫苗相關的醫藥審核制度,核准藥證/緊急授權,本身其實真的沒有一個硬標準,歸根究柢還是視時空環境、利害權衡之下,做出來的道德抉擇。
🔹 🔹 🔹
原作者:iamlam2005(山風)
這些問題從EUA還沒通過到現在,已經很多人講過了,我也懶得再複述一次。但你會吵這些,代表你根本沒想通醫藥審查的本質。
你就先想一個問題:如果三期這麼香,AZ幹嘛不做傳統三期?BNT幹嘛不做傳統三期?莫德納幹嘛不做傳統三期?如果做了傳統三期,監測個三年五年,我們就會知道原來目前的疫苗根本沒辦法防止感染,防止傳播,也不能打疫苗之後就脫口罩、停止NPI,這些檯面上的疫苗(可能包括高端)通通應該退回去重做,我們就不用浪費這麼多錢來買一堆半成品!
你一邊想,我們一邊來看看2009年的國光H1N1疫苗:
1. 只做了相當於傳統一、二期合併的人體實驗,受試者480人。是高端的1/10。
2. 從選病毒株之後只過了半年就拿到藥證,還不是EUA。
3. 沒有保護力數據。當時是跟諾華疫苗比抗體,沒錯就是免疫橋接。同時血清陽轉率的要求是是70%,今年聯亞89%都被刷掉了。
當年的新聞稿:https://reurl.cc/r18OaN
所以你說什麼「全世界首例,免疫橋接EUA」,這太小兒科了,當年是免疫橋接直接給藥證欸!這支疫苗,大家還不是打得很香,每年打。而從2016年開始,國光公司改成用重組蛋白技術來做Flublok Quadrivalant疫苗,不再需要搶購雞蛋了。核准依據就是「與其他四
價流感疫苗的比對性臨床試驗」,也沒有做傳統三期。
然後2015年,藥事法修法,才多了一個緊急使用許可的條款,也就是現在我們看到的藥事法48-2第二款。否則在那之前只有「拿到藥證」跟「失敗重做」兩種選擇。
三期並不是什麼科學標準,它跟「手放開蘋果會往下掉」「水在攝氏零度會結冰」不一樣,不是什麼顛撲不破的物理定律。到底要不要許可一個新藥、新疫苗,它本質上就是一種道德選擇:
「在怎樣的情況下,我們允許自己的同胞接受一個新藥的使用風險」
這很明顯是一個道德抉擇,科學資料只是幫助我們進行判斷而已。
你拿癌症用藥的審查來看就會很清楚。為什麼癌症化療用藥的副作用都那麼強?生物學上的原因當然是:因為癌細胞是人體自己的細胞,你要攻擊癌細胞就會攻擊到有同樣特徵(複製旺盛)的正常細胞。
可是從制度的角度來看,之所以癌症用藥副作用這麼強也會通過審查,就是因為我們認為它過比不過要好。比起掉頭髮、嘔吐這些副作用,讓病人無藥可用最後走向死亡,更讓人難以忍受。反過來,如果今天審查的是感冒用藥,我們大概就不能接受比頭痛更強的副作用。
甚至很多藥不是因為它「更有效」而被許可的。比如說乳癌的化療用藥,第二代小紅莓,它的療效並沒有比第一代要好。它之所以被許可是因為它的副作用少的多,可以顯著提升患者的QoL(生命品質)。有效性從來就不是通過與否的唯一指標。
當年翁啟惠的新藥在浩鼎解盲失敗。也有人說它可能是選錯了指標。因為它用腫瘤尺寸當做指標,但是免疫藥物會引起免疫反應攻擊腫瘤,反而會讓它發炎腫大。因此就算它有效,在實驗期間腫瘤尺寸並沒有下降太多。有人在猜測,如果用的是最終生存率(overall
survival)或是其他指標,搞不好解盲就過了。
這就是為什麼免疫橋接會被稱作「替代性指標」,因為原本的「有效性試驗」(也就是所謂的保護力數據,efficiency)也只不過是另外一個比較常用的指標。你到另一個時空背景底下重做一次,不會得到相同的數字。他們都是指標。這些所有的科學資料,不管是有
效性試驗、副作用、抗體濃度....他們都只是一個指標而已,是拿來讓審查委員參考用的。
神靈你就是眼睛裡面都看不到人,只看到理想的社會模型。不符合這個模型的你就認為是德性有所欠缺,或是執政黨的問題。而且不管哪個議題都一樣。但實際上並沒有一個神奇的機器,你把數字輸入進去,它就會自己跑出一個核准與否的答案出來。國家是人組成的,不是神,也不是AI。答案要自己去找。
你如果有去看高端或聯亞的審查會議紀錄,你會發現在會議一開始,主席都會宣布「目前(根據若干理由)認定有緊急公衛需求,請各位專家在這個前提下進行審查」。這個宣布就完美解釋了我上面講到的,一種新藥要不要核准,它是一個道德選擇。你必然是在一個特定的時空背景底下做選擇。你不可能開上帝視角知道說這個藥半年、一年、十年之後會不會有更好的替代品。如果你現在只有一個療效50%的藥,你也只能用,你不可能說十年後會出一個療效90%的藥,所以我們就先等十年。不管是EUA還是藥證都是這樣,而EUA「道德選擇」的性格又更強烈許多。
回到一開始的問題,如果你真的要問為什麼沒有三期就要人打,那我也可以反問,為什麼沒有傳統三期就要人打?為什麼不追蹤打疫苗之後半年、一年、兩年的保護力跟副作用?只追蹤兩個月就解盲做期中報告?腸病毒疫苗做了17年,為什麼不能跟他一樣嚴謹?為什麼要核准一個施打半年之後抗體濃度會下降的疫苗?如果我們使用的是正確的疫苗,搞不好真的可以達成群體免疫!
而你也知道答案是什麼,就是時間不夠。你要在時間不夠的前提下做選擇。痛苦的選擇。以色列核准BNT的時候也不知道會有變種病毒,也不知道它的效力會下降的那麼快。但它不可能等到三期先做一年看看疫苗效力會不會下降再來決定要不要核准。否則這一年之內可能會多死很多人。
就跟2009年一樣,當年沒有緊急使用許可的條款,如果當時的審查委員宣布H1N1失敗不給發藥證,那台灣就要面臨外購一劑難求(當時是真的一劑難求,比現在還誇張),國內又自己生不出疫苗的窘境。審查委員唯一需要擔心的問題就是「核准是不是比不核准還要好?」,而不是在那邊糾結為什麼沒做完三期,為什麼沒有有效性試驗。因為就是沒有,而你現在就要做決定。
而對武漢肺炎疫苗來說,台灣當然是時間不夠加上外購不穩的雙重困境(而有些人還在幻想多下單就會多到貨),我們是在這個前提下認定它有緊急使用需求。
EUA的重點就是緊急使用需求,而不是要做出一支完美的疫苗。你沒有緊急使用需求,後面有再多資料都不用談。所以AZ在美國也拿不到EUA,因為美國已經不缺疫苗了,並不是因為AZ資料不夠。
🔹 🔹 🔹
做為題外話,今天這些疫苗要走什麼流程通過,不會是蔡英文可以決定的。就是專家提議,她點頭,就這樣而已。她唯一可以選擇的就是做不做國產疫苗。就好像當年H1N1疫苗那如今看起來很陽春的流程,也不會是馬英九決定的。
重點是,不管是什麼流程,審這些疫苗的都是同一群人。當年叫衛生署食品藥物管理局,如今叫衛福部食藥署。他們就是陳時中後面的人,也是全台灣最懂疫苗的一群人。現在你看到的張上淳、李秉穎、陳建仁、黃立民這些人,當時也都參與其中。數十年如一日。當年幫馬英九扛砲火,如今幫蔡英文扛砲火。當年還有多一個李慶雲,今年六月過世了。所以現在李秉穎會被叫小李P,不是要裝可愛,是他上面還有一個大李P。
如果你要做政治判斷,就不該把這個疫苗流程當成是蔡英文的問題(或是政績)。你唯一可以問的就是,我到底相不相信這群專家。因為AZ進來的EUA,也是他們審的。Moderna進來的EUA,也是他們審的。BNT進來的EUA,也是他們審的。一但疫苗有任何狀況,不會是天邊的「國際認證」來幫你負責。連正式藥證的藥害救濟都很困難了,怎麼還有人會幻想自己在EUA的情況下打「國際疫苗」就會有「國際保證」?不管你是打國際疫苗還是國產疫苗,通通都是你看到的這群食藥署的專家來處理,也只有他們可以處理。
李慶雲當年把自己的女兒找去試驗麻疹鼻噴劑疫苗;把自己的兒子找去試驗日本腦炎疫苗。如今連加恩把自己的三個小孩送去做臨床實驗。陳建仁自己也參與高端疫苗的人體實驗。發現自己打了兩劑之後,都是安慰劑,沒有要求補打,而是自告奮勇繼續參與第三劑--也是安慰劑組的試驗。換言之,陳建仁到現在還沒打(真的)疫苗。
你可以自己決定要不要相信這群燃燒自己生命的人。還是說你寧願相信他們是為了炒股、為了試驗疫苗故意放毒進來強迫台灣人去打疫苗、給蔡英文打假針、給一般民眾打食鹽水。雖然我對你的判斷力沒什麼信心就是了。
同時也有1部Youtube影片,追蹤數超過5,870的網紅珊蒂微AI,也在其Youtube影片中提到,「人工智慧」並非遙不可及,但如果你現在還離它有點遠,那就先從「已經在接觸AI的人」的生活日常認識起吧! 專訪「台灣人工智慧學校」 (簡稱AIA) 第一期技術班的班代表 陳宇春!(下集) 1:48 DARPA XAI Program:https://www.darpa.mil/program/ex...
為什麼ai需要被解釋 在 Facebook 的最讚貼文
創新工場和BCG諮詢合作的“+AI改造者”系列:看看F5未來商店,如何用AI技術擴大品類優勢,重塑無人零售及餐飲行業。
改造者系列:全自動烹飪+清潔,現在的便利店有多未來?-- 本文来自BCG微信公眾號,經授權轉載。
近期,創新工場聯合BCG波士頓咨詢旗下亨德森智庫,推出「AI融合產業:『改造者』如何促進AI普惠」系列研究。人工智慧在中國大陸有著明確的落地應用場景,大量的AI企業活躍於這些垂直場景中,我們定義這些企業為「改造者」。「改造者」通過傳授其AI技術和垂直行業理解,極大地打破了傳統企業應用AI的瓶頸。
作為擅於趨勢前瞻的TechVC,創新工場長期看好AI領域,深入佈局,至今已經投出了7只AI獨角獸。在系列研究中,我們采訪了數家創新系AI企業,通過這些「改造者」的視角,探究傳統企業擁抱AI的範式與路徑。
在廣東,F5未來商店已經在AI的幫助下重構便利店的商業模式。區別其他無人便利店,F5未來商店抓住了便利店引流獲客的核心品類:鮮食,由後廚機器現場烹飪;不僅如此,顧客用餐後,攝像頭會自動檢查面是否有未處理垃圾,觸發自動回收垃圾和清潔桌面指令。
在采訪中,F5未來商店聯合創始人林小龍認為,許多零售行業的傳統問題是當前AI應用無法跨越的,例如門店擴張導致的供應鏈壓力,想要實現自動化賦能,還需潛心研究和打磨技術。以下:
■系列導讀
本系列由BCG亨德森智庫與創新工場董事長兼首席執行官李開復博士帶領的創新工場團隊共同推出,圍繞「AI融合產業:『改造者』如何促進AI普惠」的課題,我們致力於探究傳統企業在應用AI過程中的關鍵要素與合作夥伴,以及傳統企業擁抱AI的範式與路徑。
在零售行業,F5未來商店以重構便利店的模式向傳統零售企業展示了AI和機器自動化的巨大潛力,重新定義了「無人零售」。正如「F5」其名,F5未來商店嘗試以AI和機器自動化「刷新」零售服務與體驗。
■本期受訪嘉賓:林小龍
F5未來商店是利用機器自動化結合演算法替代人工的24小時機器人便利店。無需服務員,所有烹飪、冲調飲品、取貨、結算、庫存盤點、清潔工作均由機器自動完成。F5未來商店探索未來零售與餐飲的商業空間,重構人與商品的連接場景。
林小龍是F5未來商店的聯合創始人,福布斯中國「30 under 30」。在此之前,他曾任職於騰訊。
■對談實錄
Q1:F5未來商店為什麼選擇切入零售?又為什麼選擇獨立運營,而非和傳統零售商店合作?
林小龍:2014年,F5的創始人徐海成機緣巧合在工廠裡開了一家便利店,營收雖然高,但因為重人力,利潤其實很一般。60平方米大的小店卻雇了13個人來運作,攤去了很多成本。當時我們就在思考,可不可以讓運營工作自動化?可不可以讓機器替代人工?同時,我們也看到市場的整個大趨勢是勞動力供給走下坡,工廠招工越來越難,自動化確實有著巨大的價值。於是當年開始立項做自動化的無人零售。
選擇自己做無人零售的探索主要是因為無人零售仍需要時間證明自己,對已經成型的零售商而言,試驗的風險和成本太高。而且零售的鏈條很長,完全讓零售商各環節改造機器和AI應用影響太大。
我早年在騰訊工作,有一個說法是「小步快跑、快速反覆運算」,無人零售也是一樣。無人零售在早期會遇到各種各樣的問題,需要不斷打磨單店模型,單店模型成熟之後才適合做擴張。這對於已經成型的零售商而言,會面臨業績不升反降的壓力,在試錯的過程中往往信心和意願容易動搖。
另外,F5未來商店的無人化涉及到零售的方方面面,從中央廚房、門店運營到物流供應鏈,對於傳統零售的顛覆是巨大的。F5未來商店將圖像識別、機器自動化、千人千面推薦演算法、機器預測等技術都靈活地運用到了便利店業務當中:包括顧客進店時有攝像頭做人流分析,顧客在電子螢幕上購買時,演算法會根據顧客的歷史購買資料、類似偏好顧客的購買行為來做推薦,出貨之後由攝像頭檢查商品是否被顧客正常取走、攝像頭檢查桌面是否有未處理垃圾而觸發自動回收垃圾並清潔桌面指令等等。在後臺備貨和生產過程中也有AI賦能。比如,我們銷售的品類中有很多是鮮食,都是由後廚的機器蒸煮生產的,我們可以通過資料分析預測需求量,輔助門店精準備貨。這些顛覆對傳統零售商店而言都需要時間來適應。
Q2:我們理解F5未來商店對於傳統便利店的顛覆確實是巨大的,但對於F5未來商店的上下游包括供應鏈、門店運營的員工而言,亦是如此,發展過程中有什麼挑戰嗎?
林小龍:F5未來商店相當於用AI重構了便利店的商業模式,這對於很多有著豐富零售經驗的人來說會有衝擊,甚至存在人與系統的對抗。比如在發貨上,當演算法的推薦和人的經驗認知有所違背時,你是選擇相信演算法還是相信經驗?人對AI的理解不夠(演算法的推薦很難對單點的結果做出解釋)、對AI的信任不夠時,應用AI就會出現挑戰,經營者需要做抉擇。
比如,一個令人驚訝的演算法發現是,在深圳的門店,人們對辣食的偏好要比廣州強得多,水煮牛肉熱銷得多。這是基於我們對商品口味類型的歸納,再將其作為發貨的參考指標,區域經理就能夠根據資料分析的結果來做發貨的決策。而在以前,人的經驗很難有這樣的發現。我們現在的AI店長大概能達到一個有八年經驗的店長水準,能夠理解每個單店的個性化需求。並且,AI對每個門店的需求理解是在隨著時間不斷調整和反覆運算的。
AI能夠加快學習和複製的速度,自動化之後門店所有的東西都可以模式化,10天就能拼裝出一家新店。但是這又涉及到了另一個挑戰——供應鏈問題,我們發現,許多零售行業的傳統問題是AI應用無法跨越的。儘管可複製性提高了,但門店的擴張也會導致供應鏈的壓力急劇增大,一旦上了規模,供應鏈的複雜程度和壓力都會上升。我們最近兩年都在研究供應鏈,在研究供應鏈的自動化輔助,研究技術如何能夠賦能供應鏈。
Q3:F5未來商店相比其它無人零售商店的差異化優勢是什麼?
林小龍:目前市場上大多數無人便利店主要是通過機器視覺、感應器或者RFID來實現無人零售,對於消費者而言,整個對話模式和傳統零售並不會有太大的差異。F5未來商店的變革要大得多,以千人千面的貨架為例,F5未來商店用一塊塊電子螢幕取代了實體貨架,千人千面的產品推薦才變得可能。要知道實體零售中傳統貨架很難移動,也不會因為顧客而有差異。
F5未來商店的另一大優勢在於品類差異,F5銷售很多鮮食,而非包裝商品,相當於是「零售的餐飲化」。因此消費頻次更高、消費品質更高、利潤也更高,其即時性、強線下、集約化的特點也使我們受電商的衝擊不會像百貨商店那麼大。未來,我們在考慮將餐飲模塊獨立出來,用AI和機器自動化賦能餐飲企業。
■要點回顧
1、信任AI並非易事,既往的優勢也可能成為應用AI和創新的阻礙,決策者需要增加對新興技術的理解,在創新浪潮中把握主動權。
2、「改造者」在試圖規模化AI時,往往也會面臨來自傳統企業業務上的挑戰(比如供應鏈的專業程度),因此AI要規模化,還是需要磨煉好垂直領域的內功。
3、在尊重行業規律的前提下,「改造者」要敢於運用AI重構傳統行業,突破傳統方式的束縛,這將有助於「改造者」打造差異化的優勢。
為什麼ai需要被解釋 在 台灣物聯網實驗室 IOT Labs Facebook 的最讚貼文
AI 助陣醫學、防疫,個人隱私難兩全?
2021/06/09 研之有物
規範不完備是臺灣個資保護的一大隱憂,《個資法》問世遠早於 AI 時代、去識別化定義不清、缺乏獨立專責監管機構,都是當前課題。
評論
本篇來自合作媒體研之有物,作者周玉文、黃曉君,INSIDE 經授權轉載。
AI 醫療、科技防疫的人權爭議
健康大數據、人工智慧(AI)已經成為醫療研發的新聖杯,新冠肺炎(COVID-19)更將 AI 技術推上防疫舞臺,各國紛紛串聯大數據監控足跡或採用電子圍籬。但當科技防疫介入公衛醫療,我們是否在不知不覺中讓渡了個人隱私?
中研院歐美研究所副研究員何之行認為,規範不完備是臺灣個資保護的一大隱憂,《個資法》問世遠早於 AI 時代、去識別化定義不清、缺乏獨立專責監管機構,都是當前課題。
「天網」恢恢,公衛醫療的新利器
自 2020 年新冠疫情大爆發,全世界為了因應危機展開大規模協作,從即時統計看板、預測病毒蛋白質結構、電子監控等,大數據與 AI 技術不約而同派上用場。但當數位科技介入公共衛生與醫療健康體系,也引發人權隱私的兩難爭議。
2020 年的最後一夜,臺灣再次出現本土案例。中央流行疫情指揮中心警告,居家隔離、居家檢疫、自主健康管理的民眾,都不應參加大型跨年活動。而且,千萬別心存僥倖,因為「天網」恢恢,「我們能找得到您」!有天網之稱的電子圍籬 2.0 出手,許多人拍手叫好,但也挑起國家進行隱私監控的敏感神經。
隱私爭議不只在防疫戰場,另一個例子是近年正夯的精準醫療。2021 年 1 月,《經濟學人》(The Economist)發布亞太區「個人化精準醫療發展指標」(Personalised-health-index)。臺灣勇奪亞軍,主要歸功於健全的健保、癌症資料庫及尖端資訊科技。
國際按讚,國內反應卻很兩極。早前曾有人質疑「個人生物資料」的隱私保障,擔憂是否會成為藥廠大數據;但另一方面,部分醫療研究者卻埋怨《個人資料保護法》(簡稱《個資法》)很嚴、很卡,大大阻擋了醫學研發。為何國內反應如此分歧?
中研院歐美所副研究員何之行認為,原因之一是,
《個資法》早在 2012 年就實施,跑在 AI 時代之前,若僅僅仰賴現行規範,對於新興科技的因應恐怕不合時宜。
健保資料庫爭議:誰能再利用我們的病歷資料?
來看看曾喧騰一時的「健保資料庫訴訟案」。
2012 年,臺灣人權促進會與民間團體提出行政訴訟,質疑政府沒有取得人民同意、缺少法律授權,逕自將健保資料提供給醫療研究單位。這意味,一般人完全不知道自己的病例被加值運用,侵害了資訊自主權。案件雖在 2017 年敗訴,但已進入大法官釋憲。
民間團體批評,根據《個資法》,如果是原始蒐集目的之外的再利用,應該取得當事人同意。而健保資料原初蒐集是為了稽核保費,並非是提供醫學研究。
但支持者則認為,健保資料庫是珍貴的健康大數據,若能串接提供學術與醫療研究,更符合公共利益。此外,如果過往的數據資料都必須重新尋求全國人民再同意,相關研發恐怕得被迫踩剎車。
種種爭議,讓醫學研究和資訊隱私之間的紅線,顯得模糊而舉棋不定。何之行指出,「個人權利」與「公共利益」之間的權衡拉鋸,不僅是長久以來政治哲學家所關心的課題,也反映了現代公共衛生倫理思辨的核心。
我們有權拒絕提供資料給醫療研究嗎?當精準醫療的腳步飛也似向前奔去,我們要如何推進醫學科技,又不棄守個人的隱私權利呢?
「精準醫療」與「精準健康」是近年醫學發展的重要趨勢,透過健康大數據來評估個人健康狀況,對症下藥。但健康資料涉及個人隱私,如何兼顧隱私與自主權,成為另一重要議題。
去識別化爭點:個資應該「馬賽克」到什麼程度?
何之行認為,「健保資料庫爭議」短期可以從幾項原則著手,確立資料使用標準,包括:允許退出權(opt-out)、定義去識別化(de-identification)。
「去識別化」是一道安全防護措施。簡單來說:讓資料不會連結、辨識出背後真正的那個人。何之行特別分享 Google 旗下人工智慧研發公司 DeepMind 的慘痛教訓。
2017 年,DeepMind 與英國皇家醫院(Royal Free)的協定曝光,DeepMind 從後者取得 160 萬筆病歷資料,用來研發診斷急性腎衰竭的健康 APP。聽來立意良善的計畫,卻引發軒然大波。原因是,資料分享不僅未取得病患同意,也完全沒有將資料去識別化,每個人的病史、用藥、就醫隱私全被看光光!這起爭議無疑是一大教訓,重創英國社會對於開放資料的信任。
回到臺灣脈絡。去識別化指的是以代碼、匿名、隱藏部分個資或其他方式,無從辨識特定個人。但要達到什麼樣的隱匿保護程度,才算是無從識別特定個人?
何之行指出,個資法中的定義不甚清楚,混用匿名化(anonymous)、假名化(pseudonymised)、去連結(delink)等規範程度不一的概念。臺灣也沒有明確定義去識別化標準,成為爭點。
現行法令留下了模糊空間,那麼他山之石是否能提供參考?
以美國《健康照護可攜法案》(HIPAA)為例,法案訂出了去除 18 項個人識別碼,作為去識別化的基準;歐盟《一般資料保護規則》則直接說明,假名化的個資仍然是個人資料。
退出權:保留人民 say NO 的權利
另一個消解爭議的方向是:允許退出權,讓個人保有退出資料庫的權利。即使健保資料並沒有取得民眾事前(opt-in)的同意,但仍可以提供事後的退出選項,民眾便有機會決定,是否提供健康資料做學術研究或商業運用。
何之行再舉英國國民健保署 NHS 做法為例:英國民眾有兩階段選擇退出中央資料庫 (NHS Digital)的機會,一是在一開始就拒絕家庭醫師將自己的醫病資料上傳到 NHS Digital,二是資料上傳後,仍然可以在資料分享給第三方使用時說不。畢竟有人願意為公益、學術目的提供個人健康數據,對商業用途敬謝不敏;也有人覺得只要無法辨識個人即可。
近年,英國政府很努力和大眾溝通,希望民眾認知到資料分享的共善,也說明退出所帶來的社會成本,鼓勵人們留在資料庫內,享受精準醫療帶給個人的好處。可以看到英國政府藉由公眾溝通,努力建立社會信任。
參照英國經驗,目前選擇退出的比率約為 2.6%。保留民眾某種程度的退出權,但善盡公眾溝通,應是平衡集體利益與個人隱私的一種做法。
歐盟 GDPR 個資保護的四大原則
健保資料庫只是案例之一,當 AI 成為大數據浪潮下的加速器,最周全之策仍然是針對 AI 時代的資料運用另立規範。 歐盟 2018 年實施的《一般資料保護規則》(General Data Protection Regulation,以下簡稱 GDPR),便是大數據 AI 時代個資保護的重要指標。
因應 AI、大數據時代的變化,歐盟在 2016 年通過 GDPR,2018 年正式上路,被稱為「史上最嚴格的個資保護法」。包括行動裝置 ID、宗教、生物特徵、性傾向都列入被保護的個人資料範疇。
歐盟在法令制定階段已將 AI 運用納入考量,設定出個資保護四大原則:目的特定原則、資料最小化、透明性與課責性原則。
其中,「目的特定」與「資料最小化」都是要求資料的蒐集、處理、利用,應在特定目的的必要範圍內,也就是只提供「絕對必要」的資料。
然而,這與大數據運用需仰賴大量資料的特質,明顯衝突!
大數據分析的過程,往往會大幅、甚至沒有「特定目的」的廣蒐資料;資料分析後的應用範圍,也可能超出原本設定的目標。因此,如何具體界定「特定目的」以及後續利用的「兼容性判斷」,便相當重要。這也突顯出「透明性」原則強調的自我揭露(self-disclosure)義務。當蒐集方成為主要的資料控制者,就有義務更進一步解釋那些仰賴純粹自動化的決策,究竟是如何形成的。
「透明性原則的用意是為了建立信任感。」何之行補充。她舉例,中國阿里巴巴集團旗下的芝麻信用,將演算法自動化決策的應用發揮得淋漓盡致,就連歐盟發放申根簽證都會參考。然而,所有被納入評分系統的人民,卻無從得知這個龐大的演算法系統如何運作,也無法知道為何自己的信用評等如此。
芝麻信用表示,系統會依照身分特質、信用歷史、人脈關係、行為偏好、履約能力等五類資料,進行每個人的信用評分,分數介於 350-950。看似為電商系統的信用評等,實則影響個人信貸、租車、訂房、簽證,甚至是求職。
這同時涉及「課責性」(accountability)原則 ── 出了問題,可以找誰負責。以醫療場域來講,無論診斷過程中動用了多少 AI 工具作為輔助,最終仍須仰賴真人醫師做最後的專業判斷,這不僅是尊重醫病關係,也是避免病患求助無門的問責體現。
科技防疫:無所遁形的日常與數位足跡
當新冠疫情爆發,全球人心惶惶、對未知病毒充滿恐懼不安,科技防疫一躍成為國家利器。但公共衛生與人權隱私的論辯,也再次浮上檯面。
2020 年 4 月,挪威的國家公共衛生機構推出一款接觸追蹤軟體,能監控足跡、提出曾接觸確診者的示警。但兩個月後,這款挪威版的「社交距離 APP」卻遭到挪威個資主管機關(NDPA)宣告禁用!
挪威開發了「Smittestopp」,可透過 GPS 與藍牙定位來追蹤用戶足跡,提出與感染者曾接觸過的示警,定位資訊也會上傳到中央伺服器儲存。然而,挪威資料保護主管機關(NDPA)宣告,程式對個人隱私造成不必要的侵害,政府應停止使用並刪除資料。
為何挪威資料保護機關會做出這個決定?大體來說,仍與歐盟 GDPR 四大原則有關。
首先,NDPA 認為挪威政府沒有善盡公眾溝通責任,目的不清。人民不知道這款 APP 是為了疫調?或者為研究分析而持續蒐集資料?而且,上傳的資料包含非確診者個案,違反了特定目的與資料最小蒐集原則。
此外,即便為了防疫,政府也應該採用更小侵害的手段(如:僅從藍牙確認距離資訊),而不是直接由 GPS 掌控個人定位軌跡,這可能造成國家全面監控個人行蹤的風險。
最後 NDPA 認為,蒐集足跡資料原初是為了即時防疫,但當資料被轉作後續的研究分析,政府應主動說明為什麼資料可以被二次利用?又將如何去識別化,以確保個資安全?
換言之,面對疫情的高度挑戰,挪威個資保護機關仍然認為若沒有足夠的必要性,不應輕易打開潘朵拉的盒子,國家採用「Smittestopp」這款接觸追蹤軟體,有違反比例原則之虞。
「有效的疫情控制,並不代表必然需要在隱私和個資保護上讓步。反而當決策者以防疫之名進行科技監控,一個數位監控國家的誕生,所妥協的將會是成熟公民社會所賴以維繫的公眾信任與共善。」何之行進一步分析:
數位監控所帶來的威脅,並不僅只於表象上對於個人隱私的侵害,更深層的危機在於,掌握「數位足跡」(digital footprint) 後對於特定當事人的描繪與剖析。
當監控者透過長時間、多方面的資訊蒐集,對於個人的「深描與剖繪」(profiling)遠遠超過想像──任何人的移動軌跡、生活習慣、興趣偏好、人脈網絡、政治傾向,都可能全面被掌握!
AI 時代需要新法規與管理者
不論是醫藥研發或疫情防控,數位監控已成為當代社會的新挑戰。參照各國科技防疫的爭論、歐盟 GDPR 規範,何之行認為,除了一套 AI 時代的個資保護規範,實踐層面上歐盟也有值得學習之處。
例如,對隱私風險的脈絡化評估、將隱私預先納入產品或服務的設計理念(privacy by design),「未來照護機器人可能走入家家戶戶,我們卻常忽略機器人 24 小時都在蒐集個資,隱私保護在產品設計的最初階段就要納入考量。」
另外最關鍵的是:設置獨立的個資監管機構,也就是所謂的資料保護官(data protection officer,DPO),專責監控公、私營部門是否遵循法規。直白地說,就是「個資警察局」。何之行比喻,
如果家中遭竊,我們會向警察局報案,但現況是「個資的侵害不知道可以找誰」。財稅資料歸財政部管,健康資料歸衛福部管,界定不清楚的就變成三不管地帶。
綜觀臺灣現狀,她一語點出問題:「我們不是沒有法規,只是現有的法令不完備,也已不合時宜。」
過往許多人擔心,「個資保護」與「科技創新」是兩難悖論,但何之行強調法令規範不是絆腳石。路開好、交通號誌與指引完善,車才可能跑得快。「GDPR 非常嚴格,但它並沒有阻礙科學研究,仍然允許了科學例外條款的空間。」
「資料是新石油」(data is the new oil),臺灣擁有世界數一數二最完整的健康資料,唯有完善明確的法規範才能減少疑慮,找出資料二次利用與科技創新的平衡點,也建立對於資料二次利用的社會信任。
資料來源:https://www.inside.com.tw/article/23814-ai-privacy-medical?fbclid=IwAR0ATcNjDPwTsZ4lkQpYjvys3NcXpDaqsmE_gELBl_UNu4FcAjBlscxMwss
為什麼ai需要被解釋 在 珊蒂微AI Youtube 的精選貼文
「人工智慧」並非遙不可及,但如果你現在還離它有點遠,那就先從「已經在接觸AI的人」的生活日常認識起吧!
專訪「台灣人工智慧學校」 (簡稱AIA) 第一期技術班的班代表 陳宇春!(下集)
1:48 DARPA XAI Program:https://www.darpa.mil/program/explainable-artificial-intelligence
2:29 「為什麼AI需要被解釋」的四個理由:https://medium.com/trustableai/%E5%AE%83%E6%98%AF%E6%80%8E%E9%BA%BC%E7%9F%A5%E9%81%93%E7%9A%84-%E8%A7%A3%E9%87%8B%E6%B7%B1%E5%BA%A6%E5%AD%B8%E7%BF%92%E6%A8%A1%E5%9E%8B-f18f57d18d4f
3:02 「L.I.M.E.」:https://medium.com/@kstseng/lime-local-interpretable-model-agnostic-explanation-%E6%8A%80%E8%A1%93%E4%BB%8B%E7%B4%B9-a67b6c34c3f8
3:21 「Neuron Deletion」:https://www.leiphone.com/news/201803/PJH0q2tj8d3jvVIk.html
#AI
#XAI
#解釋性AI
#解釋性人工智慧
#AI黑盒子
#人工智慧
#ArtificialIntelligence
#LIME
#DARPAXAIProgram
#為什麼AI需要被解釋
#NeuronDeletion
#隱藏層
#透明層
#神經網路
#hiddenlayer
#neuralnetwork
#ExplainableAI
為什麼ai需要被解釋 在 KYLE - 凱爾知識語言工程- 研究人類行為以及心智的心理學 的推薦與評價
心理學的學生們從大學部就一直被灌輸理論的目的是要描述、解釋、預測、控制經驗現象,但現在居然要研究實踐者相信理論其實不需要描述和解釋現象,因為AI可以直接學習如何 ... ... <看更多>