您好,登錄后才能下訂單哦!
AI自從以應用角度走進大眾視野,就一直逃不出“人文主義”的苛責。作為一種依靠于海量數據運轉的技術,AI之所以能夠作為提升效率的工具,主要還是因為對人類經驗的高度集中。
而“人類經驗”這件事,本身就是不夠完美的。普遍能夠累積成海量數據的經驗,有時反而更加充滿偏見。就像如果把AI帶入哥倫布時代,AI也會成為一位堅定的地心論支持者。
而李飛飛離開谷歌回歸斯坦福后,主導的第一個項目HAI——以人為本人AI研究院(Stanford Human-Centered AI Institute),就在著重解決AI與人文主義之間的溝壑。
AI擬人化,竟是一位“富裕的白人男性”?
首先要知道的,究竟是什么讓AI無法“以人為本”?
目前從人文、從公平的角度來看,AI公認的兩個問題是“白人至上(White Guy Problem)”和“男性之海(Sea of Dudes)”。
所謂白人至上,是指在算法驅動下AI所做出的一些種族歧視行為。例如谷歌的圖片自動分類曾經將黑人照片分類成大猩猩,以及惠普的攝像頭算法無法識別深膚色的人。在犯罪預測軟件中,甚至會將黑人的犯罪率識別成普通白人的兩倍以上。
而男性之海,則指的是AI從業者中有極大的性別傾斜,在2015年的NIPS上,女性與會者的人數竟然只占到了13.7%,李飛飛提到,在論文引用量,男性作者的被引用次數要比女性作者高100倍。
用《紐約時報》的話講,兩者結合,讓AI被塑造出了一個“富裕白人男性”的價值觀——剛好和那些掌握著科技霸權的企業主們一模一樣。
如此以來,對于AI的應用很可能反而會讓人們一直以來對于推動種族、性別間平等所做的努力白費。
就像平權主義者一直在推動男女收入平等,而去年卡內基梅隆大學的計算機科學家卻發現,在谷歌的廣告推送機制中,更傾向于將高收入工作的招聘廣告推送給男性用戶。
而當美國各地警察部門在執行預測性警務工作時,數據驅動的風險評估工具會讓他們更多的前往有色人種聚集區,無形中加重了對某一人群的偏見和標簽化。
可怕的是,當女性在職場上遇到歧視時,她還可以對自己情況進行發聲。而當AI驅動一切在無聲中進行時,女性甚至不知道自己正在處在歧視鏈之中——如果從沒見過這項招聘啟事,女性自然不知道高收入工作更傾向于招聘男性。
而當AI行業中充斥著“富裕的白人男性”時,他們自然也很難注意到算法黑箱中產生了這樣的問題。最終萬事萬物都在人類歧視造就的規則下運行,被驅動的每一個群體卻又看不清規則的真正面目。
十億美金的遠大目標
李飛飛在斯坦福主導的HAI項目,大概有著以下三個目標:第一是推進和發展下一代AI科學(重點在于腦科學和認知科學),第二是研究和預測AI對人類社會和生活的影響,第三是設計和實踐以人為本的AI技術和應用。
這么一看,所謂“以人為本”的說法其實挺虛的。但綜合斯坦福的一些公開資料,以及李飛飛的一些講話,我們可以大概總結出HAI究竟想做些什么。
首先是在AI研究中引入更多樣化的視角和交叉思維。
最主要的,就是支持女性和有色人種進入AI研究。例如斯坦福所支持的“Black in AI”項目,就在號召有色人種關注目前的AI研究,關注AI無形中所帶來的歧視問題。
同時還有持續追蹤各個領域應用AI后所帶來的影響。
初次之外,HAI還邀請了社會各界人士共同參與,如教育、工業、藝術等等領域,試圖讓他們一起發表意見,尤其是對技術研發者給出反饋,告訴他們AI究竟對這一領域產生了哪些影響,以權衡技術的未來走向。
至于推動下一代AI科學就很好理解了,主要是幫助研究者圈定研究方向,推動AI的可解釋性等等,這里就不再進行贅述。
但有趣的是,HAI作為一個非常政治正確并偉光正的項目,并沒有在輿論獲得一致性的支持。尤其有媒體指出,該機構有121位教職工,其中有100位以上都是白人,并只有30%的女性。
于是事情就變成了,HAI邀請了一群富裕的白人男性,試圖募集10億美金去從人文角度矯正人工智能的“富裕白人男性”價值觀。
齒輪之下:如何看待商業效率以外的AI?
雖然HAI獲得的評價不一,但AI所帶來的公平性問題,確實已經開始影響人們的正常生活。
就像上文提到的算法錯誤估計有色人種犯罪率將其提升了兩倍,同樣意味著算法將白人的犯罪率錯誤的低估了兩倍。如果執法者依賴這種錯誤的算法,則意味著不僅可能冤枉好人,也可能錯放壞人。
又比如前兩年亞馬遜曾經鬧出的丑聞,用戶發現算法在分配貨物能否當日送達時,一旦輸入了黑人聚集區的郵政編碼,就無法使用當日送達服務。
(被評價為“高風險”的有色人種,和擁有數次犯罪記錄卻被評定為低風險的白人)
這種偏見現象正在越來越多地出現在種種服務中:貸款的AI風控、保險的AI審核機制。最后就導致了越是弱勢群體,越容易被算法邊緣化,進而難以獲得資源與幫助,最后進一步地向弱勢一方傾斜,甚至最終走向犯罪,加重了算法歧視。
如此看來HAI的很多策略,是非常值得我們仔細思考的。
例如,當我們在關注產業AI的效率問題時,我們是否也應該考慮在效率之外,AI對于產業的更多影響?當AI對于擁有強大IT基礎的零售集團發揮作用,他們更加理解用戶心智時,那些小而美的微型零售店是否在風潮中被遺忘和擠壓,最終退出舞臺?
又比如除了那些研發技術和為技術買單的人之外,我們是否有責任去傾聽更多人的聲音?AI的研發者與技術采買者或許清晰地知道AI是如何推動我們生活運轉的,但那些同樣被卷在齒輪之下的人,是否也有權力了解到這些齒輪的運轉規則?
更重要的,我們是否應該盡力去推動AI黑箱的透明化,在發現問題時能夠從內部技術機制上解決?
以往我們總覺得,技術永遠只是研發者和應用之間的故事。如今看來,或許AI已經成為了一個世界命題。
世界命題,就應該廣泛參與。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。