微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

9479威尼斯-澳门官方直营威尼斯 让ai与人类的价值观保持一致,怎么就这么难?

让ai与人类的价值观保持一致,怎么就这么难? -9479威尼斯

2021-02-04 14:23

几十年以来,我们一直在努力按自己的形象开发出人工智能。在此期间,我们也始终致力于创造一种既像人类一样睿智、又像人类一样愚蠢的机器。

但经过六十年的研发,让ai系统在目标、意图与价值观层面与人类保持统一,仍是个遥不可及的目标。ai几乎已经在各个主要领域达到与人类智能相近、甚至更高的水平,但又总是在最核心的范畴内有所欠缺。正是这种欠缺,导致ai技术无法成为我们所期望的、真正拥有更改及行事逻辑的智能主体。

程序员兼研究员brian christian在最新著作《机器学习与人类价值观之间的一致性问题》(the alignment problem: machine learning and human value)当中,讨论了我们该怎样确保ai模型能够捕捉到“我们的规范与价值观,理解我们的意思或意图,并据此做出优先级判断”这一现实挑战。近年来,随着机器学习应用范围的逐步推广,在实际领域中做出错误决策很可能带来灾难性的后果。正是这样的背景,让christian提出的问题变得愈发紧迫。

根据christian所述,“随着机器学习系统的日益普及与功能的逐步增强,我们开始变得像「新手巫师」——我们掌握着一种具有自主性的力量,我们似乎可以用指令引导这种力量,但如果指示不够准确或不够完整,就有可能引发某些可怕且超出意料的后果。”

在书中,christian全面描述了人工智能的现状以及整个发展历程,同时探讨了现有ai创建方法的种种缺陷。

下面来看书中的几大要点。

机器学习:将输入映射至输出

在ai研究的前几十年中,符号系统在解决以往涉及逻辑推理的复杂问题时,取得了举世瞩目的成就。然而,这类系统反而很难解决人类儿童就能处理的小问题——例如检测物体、识别人脸、理解声音与语音。此外,这类系统的可扩展性也比较差,往往需要大量人工介入以建立明确的规则与知识定义。

最近,全世界对机器学习与深度学习的关注开始快速增长,同时也推动着计算机视觉、语音识别与自然语言处理等领域(传统符号ai无法处理的领域)的迅猛发展。机器学习算法可以跟随数据量与计算资源同步扩展,借此带来了人工智能的黄金十年。

但问题在于,机器学习算法的效果虽然相当突出,但本质却仍然简陋——将观察结果通过复杂的数学函数与结果映射起来。因此,机器学习的质量将直接由数据质量决定,而且会在实际应用并接触到与训练数据不符的真实素材时,产生严重的性能下降。

在书中,christian列举了一系列实例,阐述机器学习算法遭遇的各种尴尬、甚至具有危害性的破坏。以google photos分类算法为例,该算法会将皮肤黝黑的人标记为大猩猩。问题不在算法本身,而在于所使用的训练数据。如果谷歌能够在数据集中纳入更多皮肤黝黑的素材,完全可以避免这个问题。

christian写道,“当然,从理论上讲,这类系统可以从一组示例中学到任何知识。但这也意味着ai系统的理解方式完全受示例左右。”

更糟糕的是,机器学习模型无法分辨对错,也无法做出道德决策。机器学习模型的训练数据中存在的任何问题,通常都会以极细微、甚至根本无法察觉的方式反映在模型行为当中。例如,amazon于2018年关闭了用于做出雇用决策的机器学习工具,因为其决策结果明显歧视女性。很明显,ai的创造者并不希望根据性别来选择候选人,但由于模型训练使用的数据来自amazon公司的过往记录,因此反映出了其用人方面的某些倾向。

这还只是机器学习模型偏见问题中的冰山一角。正是由于存在这些问题,由于机器学习模型会盲目根据我们以往的行为总结经验,才让我们无法充分信任这类工具。

christian写道,“对真实世界建模相对简单,但模型在付诸使用后总会出现种种变化,甚至反过来改变这个世界。目前大部分机器学习模型在设计当中存在一种广泛假设,即模型本身不会改变其建模所依据的现实。但这种假设几乎完全站不住脚。实际上,草率部署这类模型很可能会产生反馈循环,导致我们越来越难以将其扳回正轨。”

对于数据收集、模式查找以及将模式转化为行动等层面,人类智能应该发挥更大的作用。机器学习的现实挑战已经证明,我们对于数据乃至机器学习的很多假设性认识完全是错的。

christian警告称,“我们需要作出批判性思考……除了重视训练数据的来源,还应重视系统中作为基本事实的标签来源。人们认为的基本事实,往往并不是基本事实。”

强化学习:奖励最大化

强化学习同样帮助研究人员实现了非凡的成就,使得ai能够在复杂的电子游戏中击败人类冠军。

过去十年以来,作为ai技术的另一大分支,强化学习同样获得了广泛关注。强化学习要求为模型提供问题空间加奖励函数规则,之后就由模型自主探索整个空间,找出能够实现奖励最大化的方法。

christian写道,“强化学习……帮助我们一步步探索着智能的普遍、甚至是最本质的定义。如果说john mccarthy提出的「智能是实现真实目标的能力中的计算部分」的说法真实可靠,那么强化学习相当于提供了一套惊人的通用型工具箱。它的核心机理就是在一次又一次试错当中,摸索出新时代下一切人工智能方案的共通基础。”

强化学习确实在雅达利游戏、围棋、《星际争霸2》以及dota 2等游戏中表现出色,并在机器人技术领域得到广泛应用。但成功的背后人们也开始意识到,单纯追求外部奖励并不能完全体现智能的运作方式。

一方面,强化学习模型需要漫长的训练周期才能得出简单的判断能力。因此,这方面研究成为极少数掌握无穷资源的科技巨头的专利。另外,强化学习系统的适用性也非常有限——能够在《星际争霸2》中击败人类世界冠军的系统,却无法在其他类似的游戏中触类旁通。强化学习代理也更倾向于通过无止境的循环,以牺牲长期目标的方式追求最简单的奖励最大化路径。以赛车游戏ai为例,它经常会陷入不断收集奖励物品的死循环,却总是赢不下整场比赛。

christian认为,“消除这种与外部奖励的硬性联系,可能才是构建通用型ai的诀窍所在。因为与雅达利游戏不同,真实生活并不会为我们的每种行为预先设定明确的实时反馈。当然,我们有父母、有老师,他们可以及时纠正我们的拼写、发音和行为模式。但是,这些并不是人生的全部,我们的生活不可能由权威所全面掌控。我们需要根据自己的观点与立场做出判断,这也正是人类族群得以存续发展的根本前提。”

christian还建议,不妨根据强化学习的原理反其道而行之,“结合预期行为考虑如何构建环境奖励,引导模型一步步掌握行为模式。这就像是面对美食评论家做出一份份食物,思考如何才能获得对方的肯定。”

ai有必要模仿人类吗?

在书中,christian还讨论了开发ai代理的意义——让这些代理模仿人类行为,真的有意义吗?自动驾驶汽车就是典型实例,代理会通过观察人类司机学习如何驾驶车辆。

模仿确实可以创造奇迹,特别善于处理规则及标签不够明确的问题。但是,模仿也会继承人类智能中的欠缺。人类在年轻时往往通过模仿与死记硬背学习大量知识,但模仿只是我们发展出智能行为的多种机制之一。在观察他人的行为时,我们会根据自己的限制、意图、目标、需求以及价值观调整出适合自己的处理方式。

christian写道,“如果模仿对象比我们更快、更强壮、身材更高大,那我们就没办法完美模仿他们。这时候一味坚持模仿,只会影响我们解决问题的能力。”

诚然,ai系统确实通过观察并预测我们的行为,尝试以模仿的方式提供帮助。但很明显,ai系统并不像人类这样受到种种约束与限制,因此会导致其误解我们的意图,甚至放大我们的某些不良习惯,最终将负面影响扩散到我们生活中的方方面面。

christian写道,“我们的数字管家正密切关注澳门官方直营威尼斯的私人生活与公共生活,审视着我们好的一面与坏的一面,但却并不清楚这些因素到底有何区别、有何联系。ai系统好似生活在一处诡异而复杂的山谷:能够从我们的行为中推理出复杂的人类欲望模型,但却无法理解这些欲望从何而来。它们努力思考接下来该做什么,但不了解我们想要什么、又是怎样成长为我们自己。”

未来在哪里?

机器学习的进步表明,我们在创造思想机器方面已经取得了一定成就。但是,机器学习带来的挑战与影响,也再次提醒我们应该正视理解人类智能这一前提性难题。

ai科学家与研究人员正探索多种不同方法,希望克服这些障碍,打造出让人类只受益、不受害的ai系统。而在达成这项目标之前,我们需要谨慎行事,不可贸然为这类系统赋予过多权限。

christian最后警告称,“着眼于当下,最危险的行为就是在机器学习领域找到一种看似合理的模型、急于宣告研究成功——这可能会给整个社会带来灾难性的后果。”

0赞

好文章,需要你的鼓励

推荐文章
网站地图