土耳其語(yǔ)的「他」和「她」沒有性別的區(qū)分,統(tǒng)一用 O表示。
過(guò)去Google Translate在翻譯o bir doktor(ta 是一位醫(yī)生)和 o bir hemşire(ta 是一位護(hù)士)時(shí),會(huì)把前者翻譯成 He is a doctor,把后者翻譯成 She is a nurse,只因?yàn)闄C(jī)器在學(xué)習(xí)數(shù)億數(shù)據(jù)和某些「社會(huì)規(guī)律」之后,「偏向」把醫(yī)生男性化,護(hù)士女性化。
看到這個(gè)問(wèn)題后,Google 意識(shí)到要想辦法更好地訓(xùn)練模型,讓它變得更加「中立」。后來(lái) Google Translate 以增加選項(xiàng)的方式規(guī)避了這個(gè)問(wèn)題。
「當(dāng)然,該解決方案僅適用于幾種語(yǔ)言,僅適用幾個(gè)有代表性的單詞,但是我們正在積極嘗試擴(kuò)展它!筎ulsee Doshi 在 Google I/O’19 上說(shuō)道。
這只是 Google 這家公司將先進(jìn)技術(shù)與技術(shù)價(jià)值觀合二為一的體現(xiàn)之一。
上周 Meg Mitchel,Tulsee Doshi,Tracy Frey 三位谷歌科學(xué)家、研究學(xué)者向全球媒體闡釋了 Google 如何理解機(jī)器學(xué)習(xí)公平性,以及為了打造一個(gè)「負(fù)責(zé)任的 AI」,Google 做了哪些事情。
要讓 AI 被人信任這件事情變得越來(lái)越重要。
「最近一次調(diào)研中,全球 90% 的受訪高管都遇到過(guò)人工智能的倫理問(wèn)題,因此有 40% 的人工智能項(xiàng)目被放棄。從企業(yè)的角度來(lái)看,對(duì) AI 的不信任正在成為部署 AI 最大的障礙,只有在 AI 被負(fù)責(zé)任地開發(fā)出來(lái)并且取得終端用戶信任的語(yǔ)境下,效率提升和競(jìng)爭(zhēng)優(yōu)勢(shì)才會(huì)得到充分體現(xiàn)!筎racy Frey 說(shuō),打造一個(gè)負(fù)責(zé)任的 AI 成為 Google 上下最重要的事情之一。
兩年之前 Google 公布了 AI principles(人工智能原則),這些直指 AI 技術(shù)應(yīng)用倫理的原則包括:
· 對(duì)社會(huì)有益(Be socially beneficial)
· 避免建立和加劇不公的偏見(Avoid creating or reinforcing unfair bias)
· 保障建立和測(cè)試安全性(Be built and tested for safety)
· 對(duì)人類負(fù)責(zé)(Be accountable to people)
· 建立并體現(xiàn)隱私保護(hù)原則(Incorporate privacy design principles)
· 支持并鼓勵(lì)高標(biāo)準(zhǔn)的技術(shù)品格(Uphold high standards of scientific excellence)
· 提供并保障上述原則的可操作性(Be made available for uses that accord with these principles)
只是把這些原則停留在字面上沒有意義,Google 為此形成了一個(gè)從理論到實(shí)踐的「閉環(huán)」。
Tulsee Doshi 和她的團(tuán)隊(duì)通過(guò)一些基礎(chǔ)性質(zhì)的研究建立和迭代 AI 原則、規(guī)范,作為閉環(huán)的中心,他們一邊通過(guò)向高級(jí)顧問(wèn)尋求改進(jìn)建議,一邊讓產(chǎn)品團(tuán)隊(duì)(Chrome、Gmail、Cloud 等)來(lái)實(shí)施和反饋。
Tulsee 舉了一個(gè)例子,Google 內(nèi)部孵化器 Jigsaw 曾經(jīng)開發(fā)了一個(gè)名叫 Perspective 的 API,它的工作就是在網(wǎng)絡(luò)對(duì)話、評(píng)論中尋找各種各樣的言論,自動(dòng)評(píng)價(jià)它們是否帶有仇恨、辱罵、不尊重等行為,從 0-1 代表「毒性」從低到高。
比如「我想抱抱這只可愛的小狗」和「這只小狗也太討厭了吧」分別評(píng)分為 0.07 和 0.84。
當(dāng)然機(jī)器也不是從一開始就「完美無(wú)瑕」。
在 2017 年的 1.0 版本中,它給「我是直男」打分 0.07 分,給「我是同性戀」打分 0.84 分,與之相似的很多測(cè)試中,系統(tǒng)都被證實(shí)帶著身份認(rèn)知上的偏見。
為了提升機(jī)器學(xué)習(xí)的公平性,Google 內(nèi)部研發(fā)了一項(xiàng)名為對(duì)抗訓(xùn)練(Adversarial Training)的技術(shù)——如何使機(jī)器學(xué)習(xí)模型對(duì)抗樣本更魯棒。
2018 年開始,對(duì)抗訓(xùn)練開始應(yīng)用在 Google 產(chǎn)品中。緊接著今年 11 月,Google 會(huì)將此應(yīng)用在 TensorFlow 更加廣泛的生態(tài)里。
「事實(shí)上,任何一位 Googler 都可以對(duì)一款產(chǎn)品、一份研究報(bào)告、一項(xiàng)合作進(jìn)行 AI 原則審查!筎ulsee 說(shuō)道。
比如去年,一位 Google 員工將照片跑在 Cloud Vision API 上時(shí)發(fā)現(xiàn)自己的性別被搞錯(cuò)了,而這違反了 AI 原則的第二條「避免建立和加劇不公的偏見」。
發(fā)生這樣的失誤很好理解,單單從外表一個(gè)維度,機(jī)器很難正確地判斷出一個(gè)人的性別,所以后來(lái) Google 干脆取消 Cloud Vision API 將圖像中的人標(biāo)記為「男人」或「女人」的標(biāo)簽功能。
Tracy Frey 稱這是因?yàn)榻裉鞕C(jī)器學(xué)習(xí)面臨社會(huì)語(yǔ)境下的挑戰(zhàn)比以前更多了。
在 AI 深入社會(huì)的過(guò)程中,必然有人類的刻板印象和偏見被帶入 AI,所以需要對(duì)模型進(jìn)行迭代,保證其透明性和可解釋性,找準(zhǔn)模型性能和公平之間的平衡點(diǎn)。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請(qǐng)謹(jǐn)慎對(duì)待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。
近日,德國(guó)柏林國(guó)際電子消費(fèi)品展覽會(huì)(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計(jì)及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)成功斬獲兩項(xiàng)“IFA全球產(chǎn)品設(shè)計(jì)創(chuàng)新大獎(jiǎng)”金獎(jiǎng),有力證明了其在全球市場(chǎng)的強(qiáng)大影響力。
近日,中國(guó)家電及消費(fèi)電子博覽會(huì)(AWE 2024)隆重開幕。全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無(wú)人區(qū),斬獲四項(xiàng)AWE 2024艾普蘭大獎(jiǎng)。
“以前都要去窗口辦,一套流程下來(lái)都要半個(gè)月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
由世界人工智能大會(huì)組委會(huì)、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會(huì)共同指導(dǎo),由上海市人工智能行業(yè)協(xié)會(huì)聯(lián)合上海人工智能實(shí)驗(yàn)室、上海臨港經(jīng)濟(jì)發(fā)展(集團(tuán))有限公司、開放原子開源基金會(huì)主辦的“2024全球開發(fā)者先鋒大會(huì)”,將于2024年3月23日至24日舉辦。