人工智能的倫理挑戰不僅體現在「技術鴻溝」中,也體現在更為廣泛的領域。這些挑戰集中體現在四個維度
在人工智能技術與規則方面領先的國家,正處於技術優勢快速積累周期,這種優勢很可能成為諸如半導體領域存在的「卡脖子」工具,為人工智能後發國家的進步帶來阻礙
2023年成為全球人工智能倫理治理開局之年。各國政府及國際組織開始密集討論人工智能的倫理問題,釋出一系列聲明、願景及政策,試圖規範人工智能的發展路徑
相比於治理風險,美國更不願在確保自身技術絕對領先前就嚴格限制該技術的發展。因此,美國在人工智能治理上往往落後於各國進度,也滯後於技術發展
文 | 李崢 張嵐舒
2023年,伴隨著新一代生成式人工智能套用ChatGPT的橫空出世,國際社會對於人工智能倫理挑戰的討論也日益升溫。越來越多的觀察人士發現,人工智能的快速發展可能超出了人類社會的準備,並認為其帶來的風險不可忽視。倫理挑戰已經成為人工智能帶來的廣泛爭議中最為突出的話題,也將對未來人工智能與人類社會的互動過程帶來深遠影響。
上海科技創新成果展上的機器人展品(2023 年11月29日攝) 方喆攝/本刊
四個維度看人工智能倫理挑戰
與互聯網的誕生類似,人工智能也將給世界帶來重大變革。這種影響通常是一柄雙刃劍,新技術既改造了世界,又沖擊了世界,並不是每個人都能從中均等受益。人工智能的倫理挑戰不僅體現在「技術鴻溝」中,也體現在更為廣泛的領域。這些挑戰集中體現在四個維度。
第一個維度源於人工智能的「自主性」,這意味著該技術相比其他前沿技術更容易脫離人類控制。相關倫理挑戰主要體現在人工智能是否會欺騙人類和控制人類意識,是否會消減人類的發展機會。
相比互聯網及社交媒體,人工智能能夠更加全面地理解個體、「感知」和預測使用者的所想所需。這種能力與「深度偽造」技術相結合,將進一步加劇針對不同群體的「控制」和「欺騙」。透過定向資訊投餵,人工智能可能制造出更加嚴密的「資訊繭房」、更加深度的「意識操控」。2023年,英國法院判決了一起人工智能聊天機器人慫恿一名男子刺殺女王的案件,即體現出此類風險。
以ChatGPT為代表的生成式人工智能不斷叠代進步,也讓商業界看到了越來越廣闊的「人力替代」場景。根據麥肯錫咨詢公司的預測,到2030年,隨著人工智能等技術的進步,多達3.75億名勞動者可能面臨再就業問題。調研公司牛津經濟也得出類似結論,到2030年,全球大約2000萬個制造業工作崗位將消失,這些工作將轉向自動化系統,而被迫轉移的制造業勞動力即便轉向服務業崗位,也同樣面臨被機器替代的局面。在眾多的崗位中,被人工智能技術取代風險最高的工作類別包括程式設計師、軟件工程師、數據分析師等技術類工作,廣告、內容創作、技術寫作、新聞等媒體類工作,以及律師、市場分析師、教師、金融分析師、財務顧問、交易員、平面設計師、會計、客服等。這些崗位普遍具有較高學歷,人員失業意味著巨大的人力資本損失,將加劇一些國家的結構性失業難題。
第二個維度源於人工智能的「非透明性」,這意味著該技術隱藏的風險更難以被探知,問題無法及時披露並引起社會關註。
人工智能套用離不開算力、演算法兩項支撐,但這兩項重要資源均不透明。對於生成式人工智能大模型來說,每次內容生成均將呼叫數以億計的參數和數據,幾乎很難解釋其決策過程。過程及內容的不透明讓人工智能更容易存在隱患。大模型的設計缺失或冒進很可能造成私密資訊泄露、數據過度收集和濫用、演算法不可控等問題。生成式人工智能的輸出內容有可能帶有誤導性,包含不真實也不準確的資訊,誤導人類決策過程。一些犯罪者也可能采用「數據投毒」「演算法投毒」的方式誤導人工智能系統,引發更大範圍的系統性故障。
近年來,人工智能的軍事化部署最令人擔憂。人工智能系統正在被各國加速部署在帶有進攻型武器的系統之中,這使得「智能作戰」系統決策失誤從而「擦槍走火」甚至引爆、惡化戰爭的風險不斷上升。
第三個維度源於人工智能的「拓展性」,這意味著該技術可被各類人群和組織運用,其中可能包括一些別有用心的人群。
人工智能具有易移植、易被改造、易整合的特點,技術突破容易擴散,同樣的演算法可能服務於完全相悖的目的。一些犯罪分子可以繞過模型安全策略向人工智能套取「危險知識」,他們同樣可將人工智能改造為犯罪工具。美國【福布斯】網站稱,人工智能已經成為電信詐騙領域最強力的武器,任何一個國家都很難逃過這場波及全球的浩劫。被人工智能賦能後的電信詐騙行為有可能成為全球最具危害性的有組織犯罪。
第四個維度源於人工智能的「壟斷性」,這意味著該技術高度依賴資本投入,先進演算法的使用有很高門檻,包含設計者和數據形成的演算法偏好,容易擴大階層分化。
首先,人工智能可能加劇壟斷行為。人工智能已經成為行銷領域最具威力的「大規模殺傷性武器」,全方位改變了企業的行銷策略。但是,這種更為精確的行銷也可能助長「千人千價」等行為。
其次,人工智能可能加劇現實歧視。人工智能套用的演算法受數據驅動,這些數據涵蓋種族、性別、信仰、殘障、傳染病等特定標簽,反映人類社會龐雜的價值觀、意識形態特點。一旦偏見被引入相關套用模型訓練中,演算法輸出的內容就可能出現對個人或群體、國家的偏見或偏愛,引發公平性問題。
最後,人工智能可能帶來發展的不公平。人工智能的關鍵專業知識和前沿技術集中在少數企業和國家,這些企業和國家具有先發優勢,這必然導致全球人工智能產業發展的參差,將更大程度加深全球「數碼鴻溝」。同時,在人工智能技術與規則方面領先的國家,正處於技術優勢快速積累周期,這種優勢很可能成為諸如半導體領域存在的「卡脖子」工具,為人工智能後發國家的進步帶來阻礙。
在杭州亞運會田徑女子鐵餅決賽前,一名工作人員將鐵餅放在用來搬運鐵餅的機器狗上(2023年10月1日攝) 江漢攝/本刊
全球人工智能倫理治理開局之年
上述倫理挑戰正在引起國際社會的廣泛關註。2023年,各國政府及國際組織開始密集討論人工智能的倫理問題,釋出一系列聲明、願景及政策,試圖規範人工智能的發展路徑。
聯合國在人工智能倫理治理上扮演了更加重要的作用。2023年,聯合國在推動各國凝聚共識、探討安全風險和治理合作方面取得一定進展。3月,聯合國教科文組織號召各國立即執行該組織於2021年11月釋出的【人工智能倫理問題建議書】。7月,聯合國首次舉行由人形機器人與人類一同參加的新聞釋出會,9個人形機器人接受了參會專家和各路媒體的提問;舉辦「人工智能造福人類」全球峰會,討論未來人工智能的發展和治理框架;安理會就人工智能對國際和平與安全的潛在威脅舉行首場公開辯論。10月,聯合國秘書長古特雷斯宣布組建人工智能高級別咨詢機構,全球39名專家加入,共商人工智能技術風險與機遇,為加強國際社會治理提供支持。由此可見,聯合國已經將人工智能倫理納入全球治理議程,未來將推動形成更加正式、更有約束力的組織及治理規範。
歐盟為人工智能專門立法,對該技術實施全面監管。歐盟委員會2021年提出【人工智能法案】提案的談判授權草案,嚴格禁止「對人類安全造成不可接受風險的人工智能系統」,要求人工智能公司對演算法保持控制,提供技術檔,並建立風險管理系統。在歷經馬拉松式談判後,歐洲議會、歐盟成員國和歐盟委員會三方2023年12月8日就【人工智能法案】達成協定,該法案成為全球首部人工智能領域的全面監管法規。
美國出台監管政策,但立法行程較為緩慢。相較於歐盟,美國監管要求少,主要強調安全原則,鼓勵企業自律。2023年1月,美國國家標準與技術研究院(NIST)正式公布【人工智能風險管理框架】,旨在指導組織機構在開發和部署人工智能系統時降低安全風險,但該檔是一份非強制的指導檔。10月,拜登簽署美國迄今為止最全面的人工智能監管原則,即【關於安全、可靠、可信地開發和使用人工智能的行政令】,該行政令超越了OpenAI、谷歌和Meta等公司今年早些時候做出的自願承諾,但仍缺乏強制執行效能。拜登政府在行政令釋出後敦促國會盡快推出相關立法。美國國會參議院多數黨領袖舒默已分別在9月和10月主持召開兩次人工智能洞察論壇收集業界建議,並期望在數月內準備好人工智能立法,但未來此類法案能否順利透過尚未可知。
英國在人工智能治理外交上投入更多資源。2023年11月,首屆全球人工智能安全峰會在英國布萊奇利園召開。美國、英國、歐盟、中國、印度等多方代表參會。會議最終透過【布萊奇利宣言】,強調人工智能的許多風險本質上是國際性的,因此「最好透過國際合作來解決」。與會者同意協力打造一個「具有國際包容性」的前沿人工智能安全科學研究網絡,以對尚未完全了解的人工智能風險和能力加深理解。英國為舉辦此次峰會開展大量前期準備和外交斡旋,意在將本國樹立為全球人工智能治理的「召集人」。未來,越來越多的國家將在人工智能治理外交上投入更多資源,爭奪這一新興領域的話語權。
中國高度重視人工智能治理問題,治理理念側重於平衡發展和安全。2023年4月,國家互聯網資訊辦公室起草【生成式人工智能服務管理辦法(征求意見稿)】。【生成式人工智能服務管理暫行辦法】於7月正式公布,從技術發展與治理、服務規範、監督檢查和法律責任等方面對生成式人工智能做出具體規定,並於8月15日起施行,是全球首部針對生成式人工智能的專門立法。與此同時,中國在年內也推出一系列針對深度合成、演算法等專門領域的規定,例如1月生效的【互聯網資訊服務深度合成管理規定】、3月生效的【互聯網資訊服務演算法推薦管理規定】。10月,中國提出【全球人工智能治理倡議】,對個人私密與數據保護、數據獲取、演算法設計、技術開發以及風險等級測試評估和倫理準則等提出了具體的原則準則或建議。
美國為何行動遲緩
相比於美國在人工智能技術套用層面的發展速度,美國關於人工智能監管的政策和立法行動遲緩,這是諸多因素共同作用的結果。
首先,美國不願放棄人工智能有利地位。
美國政府和戰略界人士普遍認為,人工智能是決定美國能否在下一輪全球科技競爭中勝出的戰略性技術之一。從奧巴馬時期開始,美國政府即提出若幹相關國家規劃和願景。杜林普政府和拜登政府的人工智能行政令均強調維護「美國人工智能的領導地位」,將這一目標作為美國治理人工智能的基礎性目標。相比於治理風險,美國更不願在確保自身技術絕對領先前就嚴格限制該技術的發展。ChatGPT大熱後,美國相關監管政策陸續出台,其目標不僅僅是應對治理風險,更是為了防範該技術快速擴散從而削弱美國領先優勢。
其次,人工智能倫理問題在美國被政治化,兩黨難以協調分歧達成治理共識。
近年來,美國政治極化加劇,兩黨在幾乎所有社會問題上均意見對立,在涉及民眾生活方式的人工智能倫理上更是如此。在議題上,民主黨更關註個人私密、演算法歧視、演算法公正等與多元化相關的議題;共和黨則更關註國家安全、人工智能犯罪等安全性議題。在風險防範上,民主黨認為人工智能造假、傳謠領域的套用是最突出風險,要求強化社交媒體等中間傳播渠道責任;共和黨則認為此類治理措施存在政治動機,對共和黨參選人不利。受2024年大選影響,兩黨的矛盾和爭論更加尖銳,讓立法進度明顯滯後於形勢發展。從拜登政府在2023年底陸續推出一系列人工智能治理政策檔可以看出,民主黨有意率先打破僵局,將人工智能治理作為一個潛在的競選議題,加速該議題的立法行程。
最後,美國管控人工智能也面臨一些制度上的障礙。
美國政治傳統中的所謂「自由至上」「個人至上」不利於管控去中心化、風險分散、快速擴散的技術和套用。這種傳統容易在各州之間形成監管空白,也讓政府難以動用行政資源鏟除非法利益鏈條。槍支泛濫、毒品犯罪等美國社會頑疾均與此有關,危險的人工智能套用也可能成為美國下一個泛濫成災的社會風險。
這種遲疑可能會導致全球人工智能「軍備競賽」風險上升。美國作為全球人工智能技術研發最為領先的國家,有義務成為全球推動人工智能相關監管措施的最早參與者,但美國尚未形成監管立法,在全球層面推進人工智能治理的議程也隨之放緩,將使越來越多的國家忽視管控,一味追求技術領先,進而加入演算法「軍備競賽」。這種競逐色彩可能會使人工智能漸漸偏離健康有序的發展方向,無疑將為後續全球立法和治理帶來更多阻礙,也使各國圍繞人工智能的惡性競爭事件發生風險升高。
(李崢:中國現代國際關系研究院美國研究所所長助理;張嵐舒:中國現代國際關系研究院美國研究所助理研究員)■