當前位置: 華文星空 > 知識

我們如何才能讓AI聽懂,並且聽話?

2021-07-13知識
對人工智慧如何塑造社會,這兩本書提供了互補性的見解。

人工智慧(AI)滲透到了我們的生活中。它決定了我們的閱讀和購物,決定了我們能否獲得工作、貸款、按揭、補貼或假釋。 它可以診斷疾病,並且構成民主行程的基礎——或反過來對其造成破壞。 兩本新書為人工智慧的開發者、使用者和管理者如何重塑社會提供了互補的願景。

相關圖書

【對齊問題:機器學習和人類價值觀】

(The Alignment Problem: Machine Learning and Human Values)

作者: Brian Christian

出版社: W. W. Norton (2020)

【人工智慧地圖集:權力、政治和人工智慧的地球成本】

(Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence)

作者: Kate Crawford

出版社: 耶魯大學出版社(2021)

在【對齊問題】中,作家Brian Christian對人工智慧的開發者進行了深入了解,描述了他們的目標、期望、希望、挑戰和惆悵。從20世紀初Walter Pitts關於神經元活動邏輯呈現的工作開始,作者講述了從認知科學到工程領域中研究者和踐行者們的想法、目標與成敗。著名學者Kate Crawford的【人工智慧地圖集】則談論了現實中人工智慧如何進入我們的生活,並在其中發揮作用,它表示人工智慧是一個采掘工業,挖掘的是材料、勞動力和資訊資源。

在印度尼西亞,一名男子從沙子中分揀錫礦石。半導體所需的許多金屬是以巨大的人力和環境代價而開采的。資料來源:Beawiharta/路透社

這兩本書都解析了數位世界之中(以及之上)的力量,如何改變了政治和社會關系。它們提到了解決這些失衡的其他方法,例如中國的國家層面控制,或歐盟的監管努力,但重點放在了北美。這兩本書也都呼籲未來進步。

從預言到普遍現實

Christian追蹤了人工智慧技術從預言發展到無處不在的行程。他展現出研究人員如何試圖讓人工智慧解釋人類的價值觀,如公平、透明、好奇心和不確定性,以及他們面臨的難處。本書大量基於與研究人員和從業人員的接觸,描繪了一個緩慢穩定而又錯綜復雜的行程,其間有低谷,也有難以置信的高峰。

我們會看到像Rich Caruana這樣的人物,他現在是微軟公司的高級首席研究員,在研究生時期就發現了自己願意為之奮鬥一生的方向:最佳化數據聚類和壓縮,使模型既準確又容易辨識。我們還與Marc Bellemare一起在海灘上散步,他在為雅達利遊戲公司工作時開創了強化學習,現在在谷歌研究院工作。

Christian展現出研究者越來越增進的認識——人工智慧的發展受到社會價值觀的影響,更重要的是,它也可能影響價值觀。這可能需要付出代價,也會對社群產生深遠的影響。【對齊問題】的核心是, 我們如何才能確保人工智慧系統能掌握我們的規範和價值觀,理解我們的意思,並做我們想要的事情。 對這種系統應該做什麽,我們都有不同的概念和要求。正如數學家Norbert Wiener在1960年所說:"我們最好非常確定,給機器設定的目的就是我們真正想要的目的。"

大數據經濟的幕後:紐澤西州的一個亞馬遜營運中心。資料來源:Bess Adler/Bloomberg/Getty

Crawford的作品,揭露了人工智慧成功的黑暗面,它探索了全球各地之間的關系及其對人工智慧基礎設施的影響。從內華達州和印度尼西亞——在這裏人們為了開采對於半導體至關重要的鋰和錫,付出了巨大的人力和環境代價——到紐澤西的亞馬遜倉庫, 這裏的工人們按照機器人和生產線的意願彎曲著自己的身體,而不是讓自動化適應人類的節奏。 在查理·卓別林(Charlie Chaplin)1936年的電影【摩登時代】的不安提醒下,我們目睹了 「人工自動化」(fauxtomation)的艱辛:所謂的自動化系統嚴重依賴人類勞動,例如那些拿著低於最低標準的薪資在數據標記農場中工作的工人們。

Crawford最後提醒大家, 人工智慧並不客觀、中立或通用。 相反,它深深植根於那些制造它的人的文化和經濟現實中:主要為加州矽谷的高收入白人男性。

這兩本書都有力地闡述了當前使用和發展人工智慧的挑戰和危險,以及它與"經典"計算的區別所在。比較閱讀這兩本書,我們會發現三個核心問題:過度依賴數據驅動且隨機化的預測;自動化的決策;以及權力的集中。

數據的主導地位

正如人工智慧研究員Joy Buolamwini在2020年的紀錄片【編碼偏見】( Coded Bias )中的評論所說,演算法決策正在破壞數十年來平等權利上的進步,深度固化了它展現出的偏見。為什麽會這樣?因為使用數據為自動化決策提供資訊往往忽略了人類選擇的核心:背景、情感和關系。

數據並非原材料。它們總是關於過去的,它們反映了創造和收集它們的人的信念、實踐和偏見。 然而,目前自動化決策的套用更多的是出於效率和經濟利益的考慮,而非聚焦於對人的影響。

更糟糕的是,大多數人工智慧方法都賦予了那些擁有數據和計算資源的人以權力,來對其進行處理和管理。 越來越多的情況下,這些「人」是大型科技公司 :在民主行程和參與式控制之外的私人實體。政府和個人是使用者,而非領導者。這種轉變後果極大,甚至有可能改變整個社會。

那麽,現在該怎麽辦呢?除了努力去除數據中偏見和解釋演算法做出的決定外,我們還需要解決偏見的來源,偏見無法透過技術解決,而需透過教育和社會變革來實作。同時,研究需要解決這個領域裏對數據相關性的過度依賴。 目前的人工智慧辨識的是模式,不是意義。

經過精心研究和出色的寫作,這兩本書皆為明鑒。它們表明,對人工智慧負責任的——合乎倫理、合法且有益的——研發與使用,無關乎於技術而在於我們自身: 我們希望世界是什麽樣子;人權和道德原則的考慮對我們有多重要;誰包括在這個「我們」裏。 這一討論迫在眉睫,而關鍵問題是:如何讓人人都能發聲?

原文以AI — the people and places that make, use and manage it為標題發表在2021年5月26日的【自然】的書評版塊上

© nature

doi: 10.1038/d41586-021-01397-x

版權聲明:

本文由施普林格·自然上海辦公室負責轉譯。中文內容僅供參考,一切內容以英文原版為準。歡迎轉發至朋友圈,如需轉載,請信件[email protected]。未經授權的轉譯是侵權行為,版權方將保留追究法律責任的權利。

© 2021 Springer Nature Limited. All Rights Reserved