越來越多的人已經意識到:技術對于創(chuàng)造一個沒有偏見的世界,是非常有潛力的。
試想一個性別平等的社會:女人不是生孩子、養(yǎng)孩子的工具,男人不是傳統(tǒng)思想上的統(tǒng)治者。人們在這個平等的社會中,扮演的角色是和他們的智慧和興趣一致的,而不是由性別、根深蒂固的狹隘觀點驅使的。
這樣的社會目前還不存在。幾年前,Malala Yousafzai這位巴基斯坦的、以爭取女性教育而聞名的女子,還因為想要爭取自己的教育而幾乎失去了生命!她的故事并不特殊,女性為了進入主流的聲音,已經奮斗了數(shù)百年了。
是的,對待性別平等這個問題,部分國家已經比較先進和發(fā)達了。但是,即使在最先進的環(huán)境中,深刻的偏差還是存在的。那么,有沒有什么方法能重新設計一些由結果驅動的社會規(guī)范,而不是由固有的人類偏見驅使的社會規(guī)范呢?
人工智能也許就能打破數(shù)千年來的、根深蒂固的社會偏見,F(xiàn)在的技術,可以創(chuàng)造一種使用深度學習和數(shù)據驅動的技術,來糾正刻板印象的機制嗎?
深度學習的軟件,試圖模仿人腦的大腦活動,在大腦皮層發(fā)生思考。這個軟件學習識別聲音、圖像和其他數(shù)據。Ray Kurzweil通過軟件技術,寫了一本名為《如何創(chuàng)造心靈》的書。深度學習的目的是在機器層面重建人類智慧,然而,這種學習的結果取決于軟件的訓練程度,有偏見的訓練會導致偏倚的結果。
繼續(xù)說我們的這個實驗,讓我們來看看一個簡單的工作場所中的例子:在會議室,出現(xiàn)了一些性別歧視的言論。
我們想要的結果是:有人舉起手來,并阻止這樣的言論。在這個簡單的例子中,期望的結果在很大程度上取決于兩個主要的假設:
會議室中至少有一位女性 ;
公司的文化氛圍是能讓她自由地表達她的觀點。
如果這種情況是由人工智能技術的機器人處理,那么機器人必須對基本假設進行訓練。不良的訓練會導致不佳的結果。當機器人接收到性別歧視的輸入時,它需要了解上下文,運用透視圖,然后進行相應的操作。如果機器人沒有被編入女性的觀點,那么它就沒法達到我們預期的結果。
技術公司的環(huán)境中,人工智能算法經過培訓和測試,因為女性任職人數(shù)不足,缺乏對這種偏見的認識。計算機專業(yè)畢業(yè)的女性只有大約16%,再加上那些根深蒂固的文化和工作態(tài)度,對偏見的認識就更加不足了。
幸運的是,與人類的偏見不同,人工智能的偏差,能通過重新編程機器人的軟件來更正。為了排除偏見,這些行為應該根據“平等、公平”的原則來分類。就看我們如何訓練和測試我們的數(shù)據算法、增加實現(xiàn)這種愿景的可能性了。未來,我們的算法,能在性別和文化的框架中,處理數(shù)據、糾正機器人的行為、模仿理想的人類語言和觀念!
也許在不久的將來,人工智能會成為我們生活中無處不在的東西,深入保健、行為經濟學、政治等多種多樣的領域。為了達到這樣的未來,我們也需要各界人士的幫助,不止是程序員,還有從事醫(yī)療保健、人類學、經濟學、金融等方面的專業(yè)人士。
越來越多的人已經意識到:技術對于創(chuàng)造一個沒有偏見的世界,是非常有潛力的。正如Malala倡導“女孩應該接受平等的教育”一樣,將會有更多的倡導者會為之奮斗,建造一個性別平等的社會。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
近日,德國柏林國際電子消費品展覽會(IFA2024)隆重舉辦。憑借在核心技術、產品設計及應用方面的創(chuàng)新變革,全球領先的智能終端企業(yè)TCL實業(yè)成功斬獲兩項“IFA全球產品設計創(chuàng)新大獎”金獎,有力證明了其在全球市場的強大影響力。
近日,中國家電及消費電子博覽會(AWE 2024)隆重開幕。全球領先的智能終端企業(yè)TCL實業(yè)攜多款創(chuàng)新技術和新品亮相,以敢為精神勇闖技術無人區(qū),斬獲四項AWE 2024艾普蘭大獎。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
由世界人工智能大會組委會、上海市經信委、徐匯區(qū)政府、臨港新片區(qū)管委會共同指導,由上海市人工智能行業(yè)協(xié)會聯(lián)合上海人工智能實驗室、上海臨港經濟發(fā)展(集團)有限公司、開放原子開源基金會主辦的“2024全球開發(fā)者先鋒大會”,將于2024年3月23日至24日舉辦。