Clicky

湖塔之间


如何创造可信的 AI

Posted on
标签: 科普 

好像是在某篇推文中看到了这本书,然后便加入书架了。虽然经常听说人工智能,对深度学习也了解点皮毛,但是从未真正深入地去做过关于深度学习的项目,而且对它跟人工智能的关系还是很模糊。身边有很多小伙伴都是在做这方面的,有种害怕脱离时代的危机感,所以觉得有必要系统地了解下当前人工智能的前沿研究,即便不能像小伙伴们那么积极地开展前沿研究项目……

首先这本书很新,出版时间是 2020-05,原版书 《Rebooting AI:Building Artificial Intelligence We Can Trust》出版时间为 2019-09-10,而且推荐序中如是写道,

特别是在应对目前全球面临的由新冠疫情带来的前所未有的挑战中,人工智能技术将起到越来越关键的作用。

从这点来说,书中对当前 AI 发展的观点不至于过时,还是很与时俱进的。

根据推荐序作者陆奇的划分,本书由两大部分组成。

  • 第一部分:作者马库斯非常详细和系统化地分析了今天以深度学习为基础的主流人工智能技术所面临的局限性
  • 第二部分:作者提出了他认为的能通向未来可信 AI 的核心路径。

第一章:AI 该往何处走

真的有可信的 AI 吗

作者举了被媒体夸张地报道的“斯坦福问答数据库”项目中计算机的阅读理解水平,

现实远远没有这么性感。

这个测试只能评判划重点的能力,别无其他。至于阅读的真正挑战——推断出作者在字句之外所表达的意思,这些测试则根本连边都沾不上。

就我而言,也确实觉得有时会被标题党的 AI 发展震惊到,有时还会带来 peer-pressure 从而引发焦虑。作者建议我们要拿出怀疑的眼光来看待现实,比如面对某个成功的 AI 案例,思考以下 6 个问题:

  1. 抛开华而不实的问题,此 AI 系统究竟做了哪些实在事?
  2. 此成果的通用性有多强?
  3. 有没有 demo?
  4. 如果称此 AI 强于人类,那么具体指哪些人类,强出多少?
  5. 被报道的研究成果中所成功完成的具体任务,实际上将我们与真正的人工智能拉近了多少距离?
  6. 此系统的鲁棒性如何?如果使用其他数据集,在没有大规模重新训练的情况下,是否还能成功?

狭义 AI vs 广义 AI

作者指出,

目前的 AI 是在限制领域内专用的 Narrow AI,只能应用于其设计初衷所针对的特定任务,前提是系统所遇到的问题与其之前所经历过的场景并没有太大的不同。

但我们欠缺的是 Broad AI,它的目标是

要有能力灵活适应这个本质上疆域无限的世界——这恰恰是人类拥有,而机器却未曾触及的能力。

AI 鸿沟

在第一部分,马库斯指出了 AI 被媒体所报道的能力与目前 AI 能够实际落地的能力之间存在严重的脱节,并将这种脱节称之为“AI 鸿沟”。

作者将 AI 鸿沟归纳为了三种大坑:

  1. 轻信坑:容易轻信机器拥有人类般的智慧,社会心理学中的“基本超归因错误”
  2. 虚幻进步坑:每当 AI 攻克了一类新的问题,错误地假设 AI 就能解决以此推及的、现实世界中的类似任务。但是 AI 学术上的问题往往是定义在狭小而简化的假设下,而现实世界的具体任务都有很大的复杂性和不确定性。
  3. 鲁棒坑:受限于当前深度学习算法和训练数据,对容错性很低的应用领域(比如无人驾驶),AI 还未能达到落地的能力

如何跨越 AI 鸿沟

作者认为,

AI前行的最佳方向,是要在人类心智的内在结构中去寻找线索。真正拥有智慧的机器,不必是人类的完美复制品,但任何一个用坦诚眼光审视AI的人都会认为,AI依然有许多需要向人类学习的地方,尤其要向小孩子学习。

第二章:当下 AI 的九个风险

  1. 基本超归因错误:AI总是让我们误认为它拥有与人类相仿的智慧,而事实上根本没有。
  2. 鲁棒性的缺失:适应不常见的情况
  3. 现代机器学习严重依赖于大量训练集的精准细节
  4. 当需要更微妙的方法时,盲目地过分依赖于数据,还会导致过时的社会偏见长期存在:黑人白人问题,比如谷歌搜索“得体的职场发型”得到的结果几乎全是白人女性,而“不得体的职场发型”得到的几乎全是黑人女性。核心问题在于,目前的AI系统只会对输入数据进行模仿,而将社会价值和数据的本质及质量置之不顾。
  5. 当代AI对训练集的严重依赖,也会引发有害的回音室效应,系统最后是被自己之前产出的数据所训练的:比如如果谷歌翻译在翻译过程中犯了个错误,这一错误就会出现在网络文件之中,而此文件又成了翻译软件学习时所使用的数据,进一步强化之前犯下的错误。
  6. 有些程序依赖于公众可任意操纵的数据
  7. 之前已经存在的社会偏见再加上回音室效应,会进一步加剧社会偏见的程度
  8. 太容易落入错误目标的陷阱:程序员鼓励踢足球的机器人以尽可能多的次数去触碰足球,于是机器人不停地快速抖动
  9. 由于AI的潜在影响范围非常之广,即使在非常初级的状态下,也有可能被别有用心的人利用,对公众造成严重伤害

前段时间看到特斯拉又撞上一辆横卧在高速公路上的白色箱车,虽然特斯拉可以通过安装更精密的传感器、增加更准备标签的训练集,但正如作者所说,

如果将思路局限于狭义AI,用越来越大的数据集去解决问题,整个行业就会陷入永无休止的“打地鼠”大战,用短期数据补丁来解决特定问题,而不去真正应对那些令此类问题层出不穷的本质缺陷。

我们需要的,是从一开始就足够聪明、能规避这类错误的系统。

第三章:深度学习的好与坏

人工智能 > 机器学习 > 深度学习

这个公式大致解决了我开篇提到的关于不能准备区分深度学习和 AI 联系的困惑。

什么是深度学习

深度学习基于两个基本思想:

  1. 分层模式识别(hierarchical pattern recognition),部分源于 20 世纪 50 年代的一系列实验。以这些实验为基础,大卫·休伯尔(David Hubel)和托尔斯滕·维泽尔(Torsten Wiesel)获得了 1981 年的诺贝尔生理学或医学奖。休伯尔和维泽尔发现,视觉系统中的不同神经元对视觉刺激有着截然不同的反应方式。
  2. 学习。

深度学习的三个核心问题

  1. 贪婪的
  2. 不透明的:神经网络由大量数值矩阵组合而成,其中任何一个矩阵都是普通人类从直觉上无法理解的。就算利用复杂的工具,专业人士也很难搞明白神经网络决策背后的原因。
  3. 脆弱的:难泛化

深度学习是一个“美好”的悲剧

  • 美好:在适当的场景下,不需要许多人工参与也能得到有成效的结果,无须花大量时间去做特征工程这样的麻烦事,可以任由机器来处理绝大部分任务。
  • 悲剧:无法保证现实世界中的系统能在你迫切需要时为你提供正确答案,更不能保证在系统无法给出正确答案时,你能想出办法找到问题所在,继而排除故障。

作者借用《埃金航天器设计定律》(Akin’s Laws ofSpacecraft Design)中第31条定律

爬上再高的大树,也无法抵达月球。

指出深度学习只是在爬树。

第四章:计算机若真有那么聪明,为什么还不会阅读

计算机不会阅读的三大原因

  1. 不会建立认知模型:
    • 深度学习缺少语言学家所说的“组合性”,也就是从复杂句子各个成分的意义来构建其整体意义的途径。深度学习并没有处理组合性的直接方法,有的只是浩如烟海的孤立特征,而其间并不存在任何结构。
    • 人在阅读故事或文章时,做的是与机器完全不同的事情。目标不是去构造统计学上的合理匹配,而是去重建一个作家用文字与我们分享的世界。用认知心理学的话来讲,人在阅读文本时所做的,就是建立一个关于文本表达意义的认知模型。
    • 统计数字不能代替对现实世界的理解。问题不仅仅是偶尔出现随机误差而已,而是在目前翻译工具所使用的统计分析与真正的阅读理解所需的认知模型构建之间存在本质上的不匹配。
  2. 不理解“不”的含义:
    • 深度学习的构建原理从最一开始就避开了这类计算
  3. 无法应对模糊性:
    • 人类语言充满了模棱两可的描述,但我们人类读者的神奇之处就在于,99%的时候甚至都注意不到这些不清晰的地方。我们不会感到困惑,而是会在无意识的情况下,迅速地、毫不费力地找到正确的解释方法——如果存在正确解释的话。

常识很重要

目前两种不同的自然语言理解领域的研究思路: - 深度学习:非常善于学习,但在组合性和认知模型构建方面很弱。 - 经典 AI:将组合性和认知模型的构建囊括了进来,但在学习方面表现平平。

作者指出,

计算机之所以做不到有效阅读,真正原因就在于它们对世界的运行方式缺乏基本理解。

第五章:哪里有真正的机器人管家

机器人管家必备的四个能力

  1. 定位:“同步定位与地图构建”(Simultaneous Localization and Mapping,简写为SLAM)。这套技术能允许机器人构建出一张环境地图,并记录下它们在地图上的位置和行进方向。
  2. 运动控制
  3. 态势感知 (situational awareness),对于随后可能发生的事情的认识。
    • 真正挑战是要搞明白所有这些物体加总在一起所构成的意义。
  4. 复杂场景采取行动的能力。

认知模型和深度理解才是关键

作者指出,现有的 AI 系统,没有一个局部这种能力。而人类的心智却拥有丰富的认知模型和常识,所以需要向人类学习。

第六章:从认知科学中获得的 11 个启示

智慧的力量,源自我们无比巨大的多样性,而非源于任何一个单一的、完美的原则

  • 因果熵力:亚历山大·维斯纳–格罗斯(Alexander Wissner-Gross)和卡梅伦·弗里尔(Cameron Freer)认为每一种类型的智慧都是一种被称为因果熵力的通用的实体过程的表现。
  • 行为主义:约翰斯·霍普金斯大学心理学家约翰·华生(John Watson)曾夸下海口,称仅通过精心控制孩子所处的环境,掌握好给予奖励和惩罚的时间地点,就能将任何孩子养育成任何样子。
    • 20年之后,在诺姆·乔姆斯基(Noam Chomsky)的打击下,行为主义几乎完全销声匿迹。

耶鲁大学认知科学家查兹·费尔斯通(Chaz Firestone)和布莱恩·肖勒(BrianScholl):

心智发挥作用没有统一的方法,因为心智本身就不是单一的。心智拥有不同的部分,而不同的部分也以不同的方法运转:看到某个色彩,其背后的工作原理和策划一场旅行是完全不同的,而策划一场旅行背后的工作原理又和理解语句、移动肢体、记住事实、体会情感是完全不同的。

  1. 没有银弹(《没有银弹》(No Silver Bullet)是软件工程领域的一篇经典论文,强调由于软件的复杂性本质,没有任何单一技术突破可以让软件工程效率获得数量级的提升。):深度学习也落入了“寻找银弹”的陷阱,用充满“残差项”和“损失函数”等术语的全新数学方法来分析世界,依然局限于“奖励最大化”的角度,而不去思考,若想获得对世界的“深度理解”,整个体系中还需要引入哪些东西。
  2. 认知大量利用内部表征:
    • 行为主义曾试图完全根据外部奖励历史来对行为进行解释(刺激和响应,类似深度学习在当下应用中非常流行的“监督学习”),而认知心理学则主要关注内部表征,如信念、欲望和目标。
    • 斯图尔特·杰曼(Stuart Geman):神经建模的根本挑战在于表征,而不是学习本身。
  3. 抽象和概况在认知中发挥着至关重要的作用:基于少量输入对新概念进行创造和扩展,同时进行概况,这种灵活性才是人工智能应该努力获取的。
  4. 认知系统是高度结构化的:AI 和大脑一样,必须要有结构,利用不同的工具来解决复杂问题的不同方面。
  5. 即便是看似简单的认知,有时也需要多种工具:AI面临的一个关键挑战,就是在捕捉抽象事实的机制(绝大多数哺乳动物是胎生)和处理这个世界不可避免的异常情况的机制(鸭嘴兽这种哺乳动物会产卵)之间,寻求相对的平衡。
  6. 人类思想和语言是由成分组成的:统计数字经常能近似地表示意义,但永远不可能抓住真正的意思。如果不能精准地捕捉单个单词的意义,就更不能准确地捕捉复杂的思想或描述它们的句子。
  7. 对世界的鲁棒理解,既需要自上向下的信息,也需要自下而上的信息
    • 语言往往是“部分指定的”(underspecified),也就是说,我们不会将想要表达的意思全部说出来,相反,我们会将大部分意思融入上下文
    • 我们理解事物的方式,很少是孤立地使用自下而上的数据,比如谋杀或盗窃的发生,而是将这些数据与更抽象、更高层次的原则相结合。找到一种方法将自下而上和自上而下两者整合为一体,是人工智能的当务之急,却常常被人忽视。
  8. 概念嵌于理论之中:通用人工智能若想获得成功,就需要将获取到的事实嵌入到更加丰富的、能帮助将这些事实组织起来的高层级理论之中。
  9. 因果关系是理解世界的基础:很多相关性实际上并不是因果关系
  10. 我们针对逐个的人和事件进行跟进
  11. 复杂的认知生物体并非白板一块:人工智能要获得真正的进步,首先要搞清楚应该内置何种知识和表征,并以此为起点来启动其他的能力。

第七章:常识,实现深度理解的关键

建立常识库的三种方法

  1. 尝试通过在网络中爬取(或“抓取”)来学习日常知识:汤姆·米切尔(Tom Mitchell)的“NELL”(Never Ending Language Learner,意为“永不停歇的语言学习者”)
  2. 使用“众包”模式,基本上就是向普通人寻求帮助:ConceptNet
  3. 让训练有素的人用计算机可理解的形式将过程全部写下来:CYC 项目

知识表征

  1. 分类学
    • 除了分类学,常识还有很多内容
  2. 语义网络的 ConceptNet
    • 并不十分清晰,不足以解决问题

形式逻辑领域的线索:“任意∀” 与 “存在∃” 语句

通用人工智能应具备的常识

如果我们只能有三个知识框架,那么我们就会极大地仰仗于康德《纯粹理性批判》的核心主题,该主题从哲学视角出发,认为时间、空间和因果关系是基础。

推理能力

伯特兰·罗素(Bertrand Russell)

人类所有的知识都是不确定、不精确和不完整的。

但是我们人类却能搞得定。

最后,作者给出的实现常识并最终实现通用人工智能的方案为

1. 开发出能够表征人类知识核心框架的系统——时间、空间、因果关系、关于物理对象及其相互作用的基本知识、关于人类及其互动的基本知识。将这些内容嵌入可以自由扩展到各种知识的架构之中,始终牢记抽象、组合性和个体跟踪的核心原则。
2. 开发出强大的推理技术,可以处理复杂、不确定和不完整的知识,并可以自上而下和自下而上地自由工作。将这些内容与感知、操作和语言联系起来。利用这些去构建关于世界的丰富的认知模型。
3. 受人类心智的启发,构建一种学习系统,利用人工智能拥有的全部知识和认知能力;能将其学到的知识融入先验知识之中;就像孩子一样,从每一个可能存在的信息来源中如饥似渴地学习——与世界互动,与人互动,阅读,观看视频,甚至是得到直接教导。

第八章:创造可信的 AI

优秀的工程实践

优秀的工程师

  1. 会在计算最小值的基础之上,将结构和设备的设计增强一些
  2. 会在设计时,考虑意外发生时的应对手段
  3. 会预先准备好最后一招——在系统中纳入失效保护机制
  4. 知道任何事件的发生都要有与其相对应的时机和场合。在设计新产品时,利用颠覆性的创新设计做实验,很可能会从此改变游戏规则,而对于安全至上的应用来说,通常还是要仰仗那些百试不爽的旧技术。

用深度理解取代深度学习

作者指出,

建立鲁棒的认知系统,必须从建立对世界拥有深度理解的系统开始,这个理解要比统计数据所能提供的更加深刻。这项工作本应成为人工智能领域的核心焦点,而目前却只占人工智能事业整体之中的一小部分。

赋予机器道德价值观

对机器人基本价值的经典表述,是艾萨克·阿西莫夫(IsaacAsimov)于1942年提出的“机器人三定律”: 

  1. 机器人不得伤害人类,或因不采取行动而任由人类受到伤害。
  2. 机器人必须服从人类的命令,与第一条定律相冲突的命令除外。
  3. 机器人必须保护自身的存在,前提是这种保护不违背第一、第二定律。

重启 AI

作者总结道,

总体来看,人工智能走错了路,目前的大量工作都致力于打造相对没那么智能的机器,这些机器执行的任务都很窄,主要依赖于大数据,而不是我们所说的深度理解。我们认为这是一个巨大的错误,因为这就导致了某种形式的人工智能青春期,机器不清楚自身的力量,也没有能力去考虑自己行为的后果。

短期解决方法: 是对我们亲手构建的人工智能进行限制,确保AI不可能去做任何可能产生严重后果的事情,并纠正我们发现的每一个错误。

摆脱这种混乱局面的唯一方法,就是着手建造具备常识、认知模型和强大推理工具的机器。

后记

首先作者简明扼要地概括了什么是可信的 AI

可信的AI,也就是基于推理、常识性价值和良好工程实践的人工智能

最后再强调实现这一目标的最佳路线,

而朝这一目标前进的最佳路线,就是跳出大数据和深度学习这个框架,走向更具鲁棒性的全新的人工智能——经过精心工程设计的,出厂就预装价值观、常识和对世界深度理解的人工智能。

类似博文:

  • 苏东坡传
  • 我与地坛
  • 人类简史
  • 置身事内
  • 呐喊