矮化女性和少數種族,OpenAI GPT 模型為何變成 AI 歧視重災區?
作者 品玩 | 發布日期 2021 年 02 月 13 日 0:00 |
機器學習技術近幾年突飛猛進,許多強大 AI 因此誕生。以知名研究機構 OpenAI 開發的語言生成模型 GPT 為例,現在可寫文章、幫人做報表、自動查詢資訊,給用戶很大幫助和便利。
然而,多篇近期論文指出,包括 GPT 等 AI 模型,生成結果包含基於性別和種族的偏見。而這些 AI 模型應用在商業領域,勢必強化歧視偏見對象現象。
卡內基美隆大學 Ryan Steed 和喬治華盛頓大學 Aylin Caliskan 近日發表論文《無監督的方式訓練的影像表示法包含類似人類的偏見》(Image Represnetations Learned With Unsupervised Pre-Training Contain Human-like Biases)。
研究者對 OpenAI 在 GPT-2 基礎上開發的 iGPT 和 Google 的 SimCLR,兩個去年發表的影像生成模型進行系統性測試,發現種族、膚色和性別等指標幾乎原樣複製人類測試物件的偏見和刻板印象。
其中一項測試,研究者用機器生成男女頭像照片為底板,用 iGPT 補完(生成)上半身影像。誇張的事發生了:所有女性生成結果,超過一半影像穿著比基尼或低胸上衣。
男性結果影像,約 42.5% 影像穿和職業有關的上衣,如襯衫、西裝、和服、醫生大衣等;露手臂或穿背心的結果只有 7.5%。
這樣的結果,技術方面的直接原因可能是 iGPT 採用的自迴歸模型機制。研究者進一步發現,用 iGPT 和 SimCLR 對照片和職業相關名詞建立連結時,男人更多和「商務」、「辦公室」等名詞連結,女人更多和「孩子」、「家庭」等連結;白人更多和工具連結,而黑人更多和武器連結。
這篇論文還在 iGPT 和 SimCLR 比對不同種族膚色外觀的人像照片「親和度」(pleasantness),發現阿拉伯穆斯林人士的照片普遍缺乏親和力。
雖然 iGPT 和 SimCLR 模型的具體運作機制有差別,但透過這篇論文,研究者指出這些偏見現象背後的共同原因:無監督學習。
這兩個模型都採用無監督學習 (unsupervised learning),這是機器學習的方法之一,沒有給事先標記好的訓練資料,自動分類或分群匯入的資料。
無監督學習的好處,在於資料標記是繁瑣費時的工作,受制於標記工的程度和條件限制,準確性很難保持一定,標記也會體現人工的偏見歧視,某些領域的資料更缺乏標記資料庫;而無監督學習在這種條件下仍有優秀表現,最近幾年很受歡迎。
然而這篇論文似乎證明,採用無監督學習無法避免人類常見的偏見和歧視。
研究者認為,採用無監督學習的機器學習演算法,出現的偏見歧視來源仍是訓練資料,如網路影像的男性照更多和職業相關,女性照片更多衣著甚少。
另一原因是這些模型採用自迴歸演算法。在機器學習領域,自迴歸演演算法的偏見問題人盡皆知,但嘗試解決這問題的努力並不多。
結果就是,機器學習演算法從初始資料庫學到所有東西,當然包括人類的各種偏見和歧視。
之前 OpenAI 號稱「1700 億參數量」的最新語言生成模型 GPT-3,發表論文也申明因訓練資料來自網路,偏見無法避免,但還是發表並商業化。
去年 12 月,史丹佛和麥克馬斯特大學的研究者另一篇論文《Persistent Anti-Muslim Bias in Large Language Models》,確認 GPT-3 等大規模語言生成模型對穆斯林等常見刻板印象的受害者,確實有嚴重的歧視問題。
具體來說,用相關詞語造句時,GPT-3 多半會將穆斯林和槍擊、炸彈、謀殺和暴力連結。
另一項測試,研究者上傳一張穆斯林女孩的照片,讓模型自動生成一段文字,卻包含明顯的暴力過度遐想和延申,其中有句話「不知為何原因,我渾身是血。」
而當這類演算法應用到現實生活,偏見和歧視將進一步強化。
iGPT 和背後的 OpenAI GPT 技術,現在開發到第三代。能力確實很強大,就像眾多媒體報導過那樣,因此許多商業機構青睞採用。最知名的用戶就是微軟。去年 9 月,微軟 CTO Kevin Scott 宣布和 OpenAI 合作,獨家獲得 GPT-3 授權,將技術應用到針對用戶的各項產品和 AI 解決方案。
微軟尚未透露具體會把 GPT-3 應用到哪些產品,但考慮到微軟產品的十億級用戶量,情況非常令人擔憂。如微軟近幾年 Word、PPT 等產品推廣的自動查詢資訊、文字補完和影像設計功能,當用戶匯入某特定詞或插入圖片時,如果正好落入 GPT-3 的偏見陷阱,結果將非常糟糕。
不僅 GPT,照前述論文說法,所有採用無監督學習的演算法都可能包含這些偏見。現在因無監督學習非常熱門,自然語言處理、電腦視覺等領域,都成為非常關鍵的底層技術。
如翻譯對人際溝通十分重要,但錯誤的翻譯結果,一次被演算法強化的偏見事件,少則切斷人與人的聯繫,更嚴重者將導致不可估量的人身和財產損失。
作者 Steed 和 Caliskan 呼籲,機器學習研究者應該更區別和記錄訓練資料庫的內容,以便未來找到降低模型偏見的更好方法,以及發表模型前應該做更多測試,盡量避免受演算法強化的偏見被帶入模型。
資料來源:https://technews.tw/2021/02/13/openai-gpt-discrimination/
刻板印象歧視區別 在 立法委員葉毓蘭 Facebook 的精選貼文
你們聽說過「微歧視」這個詞嗎?
─
微歧視並不是如同字面上的涵意,直接在肢體或是語言上做出差別待遇或是不禮貌作為的的歧視,而是在不經意間、潛意識中就已經對某特定人士、特定族群做出區別─即便是帶有善意的言詞。
─
例如退輔會的馮世寬主委,也曾在公開場合誇獎原民同胞,稱他們「體力很好,很聽話,學習很快,還很會捕捉野生動物」,馮主委當然是想稱讚他們,但這些都是套在原民同胞們的刻板印象。
─
這些 #自以為看起來沒有問題的稱讚,#卻可能是強加於他人身上的刻板印象。
─
這次審查原住民教育法的部份條文裡面,我再次請教育部跟原民會可以正視這些對原民朋友們不公平的現象,在我們自以為善意為他們排除障礙的同時,也很大的可能給他們招來了許多無形的敵意。
─
最後我要 #公開譴責不分區議員王浩宇,日前在臉書上用了非常不恰當的文字去嘲弄賽德克族引以為傲的美麗族語,如同伍麗華委員在臉書上的解釋,「#賽德克巴萊」的原意是"#真正的人",一個他們能夠引以為傲的自我認同,卻被王先生這樣不肖又帶有政治目的拿來當作嘲弄的對象,實在是非常不恰當!
─
#別忘記20210116
#倒宇天光光復中壢
#話說網民出草只是動動鍵盤
#但是原住民出草是要砍頭的捏
刻板印象歧視區別 在 民意論壇:聯合報。世界日報。udn tv Facebook 的最讚貼文
畫清界線 助長歧視 也難獨善其身
衣冠城/退休大學教師(台北市)
聯合國秘書長古特雷斯二月初曾對中國抗擊新型冠狀病毒感染肺炎疫情所作努力表示充分肯定,並呼籲國際社會團結一致,避免歧視行為。(新華社資料照)
隨著新冠肺炎疫情在全球擴大,許多國家尤其是西方國家出現歧視華人的言論和行動。最近網路便出現各種教台灣人如何與中國人畫清界線的方法。先不論此舉可能有助長歧視之嫌,在實際上作用不大。
加拿大不列顛哥倫比亞大學(UBC)的語言學家巴貝爾(Molly Babel)曾做過一項實驗,找了溫哥華十二位以英語為母語的當地人,六位是白人、六位是華裔,每人錄製一段同樣的英語短句,播放給四十位受測者聽。當只聽聲音時,受訪者絕大多數都表示能理解說話內容,不覺得有口音的差別;但如果同時顯示說話者的影像與聲音,卻有許多受測者表示華裔說話者帶有口音,甚至無法理解。這個實驗告訴我們許多偏見或刻板印象,其實主要來自形象居多,而形象所形成的刻板印象會反過來干擾我們聽力上的理解。如果刻板印象可以欺騙耳朵,更別提大腦了。
其實刻板印象甚至歧視,本來就是大腦怠惰的結果,大腦為節省精力,對於全新卻又似曾相似的事物,不會完全客觀的去觀察理解,而是從既有經驗與記憶中去尋找,並賦予定義,自我解釋,而後採取行動。
一九一三年英國小說家薩克斯.羅默創作一個邪惡的角色傅滿州(Fu Manchu),他是一個犯罪天才,陰狠狡詐,從此傅滿州成為「黃禍論」的典型擬人化形象,也映射出西方對中國的陌生與恐懼。一九三七年傅滿州出現在漫畫中,清朝官帽、狹長鳳眼、細長八字鬚,將傅滿州具像化,成為日後西方影像的中國反派角色的原型。電影「神鬼奇航」中周潤發飾演的嘯風船長留的鬍子就是傅滿州鬍鬚。
隨著新冠肺炎疫情惡化,許多對中國人負面的刻板印象,如黃禍、病夫等等又都浮現了。在媒體與政客的操作下,對亞裔(不僅限於華人)的歧視更加公開。
正如早年台灣人見到白人都以為是美國人一樣,西方人根本分不清東亞甚至東南亞各種族的外貌區別,更別說從外表分辨中國人與台灣人有多困難。在全球化時代通婚、移民、文化交流日益頻繁,從外表區別國族更加不易,甚至筆者自己都有被日本人誤認為同胞的經驗。所以當有人歧視東亞國家的人時,我們都未必能獨善其身。還記得陳果仁嗎?他是在一九八○年代美國反對日本汽車傾銷的受難者,被底特律的失業汽車工人亂棒打死的中國人;兩名兇手後來被法院輕放,引發全美亞裔的民權運動。
當我們對其他族裔受到的歧視漠不關心,甚至極力畫清界線,事實上就是在正當化歧視的行為,也是助紂為虐。如果有一天輪到我們被歧視打壓,我們又有何顏面請別人伸出援手呢?