当前位置: 华文星空 > 知识

我们如何才能让AI听懂,并且听话?

2021-07-13知识
对人工智能如何塑造社会,这两本书提供了互补性的见解。

人工智能(AI)渗透到了我们的生活中。它决定了我们的阅读和购物,决定了我们能否获得工作、贷款、按揭、补贴或假释。 它可以诊断疾病,并且构成民主进程的基础——或反过来对其造成破坏。 两本新书为人工智能的开发者、使用者和管理者如何重塑社会提供了互补的愿景。

相关图书

【对齐问题:机器学习和人类价值观】

(The Alignment Problem: Machine Learning and Human Values)

作者: Brian Christian

出版社: W. W. Norton (2020)

【人工智能地图集:权力、政治和人工智能的地球成本】

(Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence)

作者: Kate Crawford

出版社: 耶鲁大学出版社(2021)

在【对齐问题】中,作家Brian Christian对人工智能的开发者进行了深入了解,描述了他们的目标、期望、希望、挑战和惆怅。从20世纪初Walter Pitts关于神经元活动逻辑呈现的工作开始,作者讲述了从认知科学到工程领域中研究者和践行者们的想法、目标与成败。著名学者Kate Crawford的【人工智能地图集】则谈论了现实中人工智能如何进入我们的生活,并在其中发挥作用,它表示人工智能是一个采掘工业,挖掘的是材料、劳动力和信息资源。

在印度尼西亚,一名男子从沙子中分拣锡矿石。半导体所需的许多金属是以巨大的人力和环境代价而开采的。资料来源:Beawiharta/路透社

这两本书都解析了数字世界之中(以及之上)的力量,如何改变了政治和社会关系。它们提到了解决这些失衡的其他方法,例如中国的国家层面控制,或欧盟的监管努力,但重点放在了北美。这两本书也都呼吁未来进步。

从预言到普遍现实

Christian追踪了人工智能技术从预言发展到无处不在的进程。他展现出研究人员如何试图让人工智能解释人类的价值观,如公平、透明、好奇心和不确定性,以及他们面临的难处。本书大量基于与研究人员和从业人员的接触,描绘了一个缓慢稳定而又错综复杂的进程,其间有低谷,也有难以置信的高峰。

我们会看到像Rich Caruana这样的人物,他现在是微软公司的高级首席研究员,在研究生时期就发现了自己愿意为之奋斗一生的方向:优化数据聚类和压缩,使模型既准确又容易识别。我们还与Marc Bellemare一起在海滩上散步,他在为雅达利游戏公司工作时开创了强化学习,现在在谷歌研究院工作。

Christian展现出研究者越来越增进的认识——人工智能的发展受到社会价值观的影响,更重要的是,它也可能影响价值观。这可能需要付出代价,也会对社群产生深远的影响。【对齐问题】的核心是, 我们如何才能确保人工智能系统能掌握我们的规范和价值观,理解我们的意思,并做我们想要的事情。 对这种系统应该做什么,我们都有不同的概念和要求。正如数学家Norbert Wiener在1960年所说:"我们最好非常确定,给机器设定的目的就是我们真正想要的目的。"

大数据经济的幕后:新泽西州的一个亚马逊运营中心。资料来源:Bess Adler/Bloomberg/Getty

Crawford的作品,揭露了人工智能成功的黑暗面,它探索了全球各地之间的关系及其对人工智能基础设施的影响。从内华达州和印度尼西亚——在这里人们为了开采对于半导体至关重要的锂和锡,付出了巨大的人力和环境代价——到新泽西的亚马逊仓库, 这里的工人们按照机器人和生产线的意愿弯曲着自己的身体,而不是让自动化适应人类的节奏。 在查理·卓别林(Charlie Chaplin)1936年的电影【摩登时代】的不安提醒下,我们目睹了 「人工自动化」(fauxtomation)的艰辛:所谓的自动化系统严重依赖人类劳动,例如那些拿着低于最低标准的工资在数据标记农场中工作的工人们。

Crawford最后提醒大家, 人工智能并不客观、中立或通用。 相反,它深深植根于那些制造它的人的文化和经济现实中:主要为加州硅谷的高收入白人男性。

这两本书都有力地阐述了当前使用和发展人工智能的挑战和危险,以及它与"经典"计算的区别所在。比较阅读这两本书,我们会发现三个核心问题:过度依赖数据驱动且随机化的预测;自动化的决策;以及权力的集中。

数据的主导地位

正如人工智能研究员Joy Buolamwini在2020年的纪录片【编码偏见】( Coded Bias )中的评论所说,算法决策正在破坏数十年来平等权利上的进步,深度固化了它展现出的偏见。为什么会这样?因为使用数据为自动化决策提供信息往往忽略了人类选择的核心:背景、情感和关系。

数据并非原材料。它们总是关于过去的,它们反映了创造和收集它们的人的信念、实践和偏见。 然而,目前自动化决策的应用更多的是出于效率和经济利益的考虑,而非聚焦于对人的影响。

更糟糕的是,大多数人工智能方法都赋予了那些拥有数据和计算资源的人以权力,来对其进行处理和管理。 越来越多的情况下,这些「人」是大型科技公司 :在民主进程和参与式控制之外的私人实体。政府和个人是用户,而非领导者。这种转变后果极大,甚至有可能改变整个社会。

那么,现在该怎么办呢?除了努力去除数据中偏见和解释算法做出的决定外,我们还需要解决偏见的来源,偏见无法通过技术解决,而需通过教育和社会变革来实现。同时,研究需要解决这个领域里对数据相关性的过度依赖。 目前的人工智能识别的是模式,不是意义。

经过精心研究和出色的写作,这两本书皆为明鉴。它们表明,对人工智能负责任的——合乎伦理、合法且有益的——研发与使用,无关乎于技术而在于我们自身: 我们希望世界是什么样子;人权和道德原则的考虑对我们有多重要;谁包括在这个「我们」里。 这一讨论迫在眉睫,而关键问题是:如何让人人都能发声?

原文以AI — the people and places that make, use and manage it为标题发表在2021年5月26日的【自然】的书评版块上

© nature

doi: 10.1038/d41586-021-01397-x

版权声明:

本文由施普林格·自然上海办公室负责翻译。中文内容仅供参考,一切内容以英文原版为准。欢迎转发至朋友圈,如需转载,请邮件[email protected]。未经授权的翻译是侵权行为,版权方将保留追究法律责任的权利。

© 2021 Springer Nature Limited. All Rights Reserved