User:YarinLin/沙盒
性別化創新(Gendered Innovations, GI)是「性別化的科技創新」[1]的縮寫,意指考量性別因素並利用分析所達成的創新行為。其核心宗旨為,發現並指認科學、科技、數學、工程等領域中被忽視的性別差異,據以進行下一步的性別分析,再將分析結融入研發或實驗的考量。
簡介
背景
將性別平等的概念帶入研究場域的倡議在歐美大國中已行之有年,這些倡議往往著重於如何協助女性進入科學、科技、工程、數學(Science, Technology, Engineering, Mathematics)等非典型勞動領域。然而,這樣的計畫大多只著眼於人數上的性別比例,未能深入理解各領域細微的性別差異,對於促進女性參與的成效並不顯著,更遑論讓女性進入這些 領域的管理階層。在科技發展快速的今日,若引領世代發展的科技缺未能納入各性別、種族、或文化之觀點,其製造的產品必不成比例地對非主流群體造成負面的影響。「性別化創新」的概念便源自於此,期能創造具性別敏感度的創新研發行為,藉此轉化結構中隱藏的不平等。
「性別化創新」為史丹佛大學於2009年發起的研究計畫,歐盟執行委員會(European Commission)於2011年為此成立「透過性別達致創新」(Innovation through Gender)專業工作小組,希冀為歐盟的研究與創新帶入新的面向。美國國家科學基金會(The U.S. National Science Foundation)亦於隔年加入計畫,為研究帶來更多元的觀點。為搭配全球自然與科技的研究脈絡,本研究之案例及性(別)分析皆出自跨國的交流與合作,超過70位來自歐、亞、美等三大洲的學者對此進行一系列的交互檢視及跨領域工作坊。
應用方法
在性別化創新的指認與解決方法研究中,生理性別及社會性別將是思考與模型建立的重要理論依據。在研究初期將生理及社會性別納入考量,將能
應用領域
科學中的性別化創新
科學中的性別分析檢核
案例
醫療中的性別化創新
醫療中的性別分析檢核
案例
工程中的性別化創新
工程中性別化創新範圍包含公私領域中的產品、科技服務、工業設計概念或城市基礎建設。融入生理及社會性別工程創新可能有助於,產品、服務、工藝流程的誕生或改善,促進性別友善或抑止不平等現象,反之,亦有因科技而使偏見擴大的案例。在提升人類福祉同時,性別化創新對於現有或新興科技的刺激,有發現新市場和商機,強化原本被忽略的族群(性別)市場所需的科技競爭力及持續性的功用。
工程中的性別分析檢核
工程應用中的關係者具有不同特質(性別認同、生理性別、年齡、民族、職業、教育程度、收入、家庭等),生理性別與社會性別在此開發中的技術裡扮演何種角色,將成為工程中的性別分析檢核的依據?(請參見:分析研究優先次序和結果;分析與生理/社會性別交織的因子) 生理性別的相關性 社會性別的相關性 所需工具 創新的可能性
案例
[案例一] Google 搜尋引擎-科技而擴大的人類偏見案例 在Google的搜尋引擎當中,有使用詞嵌入(Word embedding)之技術捕捉詞彙之間的關聯性,提升搜尋關鍵字推薦時的準確度。然而,此種備受歡迎的機器語言學系方式,將可能因爲期詞彙向量的訓練方式,非人為式的不斷加深一些包含族群、性別、膚色的刻板印象,如:女人-護理師、被保護的、可愛的。男人-國王、尊敬的、雄偉的。黑人:逮捕、犯罪。如此淚推關係若放任其不對循環,將放大性別刻板印象與歧視性標籤的風險。 [解決方式]
描繪出解決之道
a.有幾個研究團隊正積極設計包含詮釋資料和「營養標籤」的機器學習數據集「規格單」(Gebru et al., 2018; MIT Media Lab, 2018)。雖然詮釋數據的特定格式會依領域而異,但每個訓練組應附上數據是如何蒐集及註釋的相關資訊。包含人類資訊的數據應該統整參與者的組合樣貌數據,其社會性別與族裔等等。透過群眾外包而來的數據標籤例如MS Turk,應包含群眾參與者的資訊,以及標籤時給予的指示。
b.機器學習或神經資訊處理系統的同儕評閱期刊以及國際研討會應該對投件要求標準化的詮釋數據。人工智慧競賽平台例如Kaggle,以及數據資料庫例如OpenML,也應該這麼做。
c.要蒐集更多樣的數據,突破便利分類也很重要—女人/男人、黑人/白人等,這就無法捕捉(跨)性別與族裔身份認同的複雜性(Bivens, 2017)。 發展以演算法偵測及移除偏見的方式
當演算法可能存在偏見時,能夠偵測是很重要的。有幾個團隊正在為此研發工具。
打造訓練數據集以避免偏見
a.在一案例中,研究人員小心地規劃了一個社會性別與膚色表現型平衡的影像基準點數據集,並以膚色類型標示影像。接著他們使用此數據集評估商用性別分類器的準確性,得出結果的差異性如前述(Buolamwini & Gebru, 2018)。
b.為了辨識前文所述的詞向量中的性別偏見,研究人員發展了幾何式技術,接著他們研發了一個用於去除此類向量中的偏見之演算法,例如「保母」與「祖父」和「祖母」間的距離一致(Bolukbasi, T. et al., 2016)。還有些研究人員將內隱連結測試應用在詞向量中,藉此示範其中包含了許多與人類相似的偏見(Caliskan et al., 2017)。另外還有些人則研發了GloVe的性別中立變形版(Zhao, 2018)。以影像而言,研究人員首先展示了訓練演算法可能會強化訓練數據中出現的偏見,接著則研發了一項能降低此強化的技術(Zhao et al., 2017)。
c.類似的技術也能用來研究整體社會中長久的刻板印象與偏見。研究人員在詞向量中運用幾何式公制,並以100年以上的文字數據加以訓練,藉此辨識歷史中性別與族裔偏見的演變(Garg et al., 2018)。類似的方法亦能用於比較當今文件中的偏見。
這種偵測及減少偏見的技術在其他領域中也很需要,如刑事司法(例如被告的風險評估及假釋與否的決定,或做出判決時)、貸款與其他金融事務,以及聘僱之時。然而在這些領域中,必須仔細留心不正當的偏見之確切定義,以及各種減低技巧帶來的後果。這類的應用便是需要跨領域合作的研究範圍中的一部分,且此範圍正逐漸成長中。
打造訓練數據集以避免偏見
要製作出能同時帶來高品質的技能與社會公平的人工智慧,需要幾個重要步驟,我們強調以下四點:
1. 關切基礎建設議題。意圖創造公平是很複雜的,必須理解偏見是如何鑲嵌在機構性的基礎建設以及社會權力關係當中(Noble, 2018)。除非細心研讀,否則結構性的偏見對社會行動者而言常是隱形的—無論是人類或是演算法。舉例而言,維基百科看起來是個很好的數據來源。其資料豐富,亦是全世界最常使用的網站第五位。但其中有些結構性問題:傳記類中女性的項目佔比不到30%,相關連結亦較常連至男性相關文章,且其中關於親密伴侶與家庭的內容也不成比例地高(Wagner et al., 2015; Ford & Wajcman, 2017)。這些不對等可能來自於全球維基百科編輯者中,女性的佔比僅不到20%(Wikimedia, 2018)。
2. 嚴謹的社會效益檢視。2017年阿西洛馬會議制定了23項人工智慧原則[2]。我們現在需要為了達成這些原則,發展出檢視機制。Fairness, Accountability, and Transparency in Machine Learning(公平、可靠且透明化的機器學習https://www.fatml.org)便是以此為目標的機構。亦有幾項政府報告提及此議題((Executive Office of the President, 2016; CNIL, 2017)。
3. 打造跨領域且社會性多元團隊。新的倡議(機構)如史丹佛人類中心人工智慧機構、公平、可靠且透明化的機器學習組織,以及其他單位正集合了電腦科學家、律師、社會學家、人文學家、醫藥、環境與性別的專家組織跨領域團隊,希望優化人工智慧中的公平性。這種認知與社會的多元性也帶來了創意、發掘以及創新(Nielsen et al., 2017)。
4. 將社會議題融入電腦科學核心課程。電腦科學的學生畢業時應具備分析性別與族裔及其工作更廣泛的社會影響之基本概念工具。我們建議將社會議題融入電腦科學核心課程—大學與研究所層級皆然—搭配演算法的介紹。