达特茅斯会议之后,人工智能迎来了发展的黄金时期,出现了大量的研究成果。
Herbert Simon、J.C.Shaw、Allen Newell 创建了通用解题器(General Problem Solver),是第一个将待解决的问题的知识和解决策略相分离的计算机程序;Nathanial Rochester 的几何问题证明器(Geometry Theorem Prover)可以解决一些让数学系学生都觉得棘手的问题;Daniel Bobrow 的程序 STUDENT 可以解决高中程度的代数题;McCarthy 主导的 LISP 语言成为了之后 30 年人工智能领域的首选;Minsky、Seymour Aubrey Papert 提出了微世界(Mircro world)的概念,大大简化了人工智能的场景,有效地促进了人工智能的研究。
微世界程序的最高成就是 Terry Winograd 的 SHRDLU,它能用普通的英语句子与人交流,还能作出决策并执行操作。

第一次黄金时期离不开资金的支持。1963 年,ARPA(后来的 DARPA,美国国防部高级研究计划局)拨款 220 万美元给 MIT,并于之后每年提供 300 万美元(至 1970 年代结束)。更重要的是,ARPA 的经费并没有附带明确要求,这提供给了 MIT 科学家梦寐以求的研究氛围。
第一次黄金时期让人们对人工智能领域充满了乐观情绪,甚至人工智能的领军人物 Minsky 都认为“在三至八年里我们将得到一台具有人类平均智能的机器”。
第一次低潮:1970 年代初-1980 年代初
人们的乐观情绪在 1970 年代渐渐被浇灭。研究者发现,即使是最尖端的人工智能程序也只能解决他们尝试解决的问题中的最简单的一部分。人工智能还遭遇了以下一些问题:
只依靠简单的结构变化无法扩大化以达到目标(Simple syntactic manipulationcannot scale)。美国国家研究署尝试用自动化翻译加速翻译俄语论文。一开始他们认为通过简单的词语替换和句子结构的修改可以达到足够高的可读程度,但是后来他们发现,单词的意思与前后文紧紧关联,而多义词的解释则需要对背景知识的了解。毫无疑问,这次尝试失败了。
存储空间和计算能力的严重不足:例如,Ross Quillian 的自然语言处理程序只包括 20 个单词,因为这是存储的上限。
指数级别攀升的计算复杂性:1972 年 Richard Karp 的研究表明,许多问题只能在指数级别的时间内获解,即计算时间与输入的规模的幂成正比。
缺乏基本知识和推理能力:研究者发现,就算是对儿童而言的常识,对程序来说也是巨量信息。1970 年代没有人建立过这种规模的数据库,也没人知道怎么让程序进行学习。
Moravec 悖论:一些人类觉得复杂的问题,如几何证明,对机器而言十分简单。但人的很基本技能,如人脸识别,对机器而言却是一个巨大的挑战。这也是 1970 年代机器人和视觉识别发展缓慢的原因。
随着人工智能发展遭遇瓶颈,资金纷纷抛弃人工智能领域。由于项目失败等原因,DARPA 也终止了对 MIT 的拨款。到了 1970 年代中期,人工智能项目已经很难找到资金支持。
第二次黄金时期:1980 年代初-1980 年代末
参考中国报告网发布《2018-2023年中国人工智能行业市场供需现状调研与投资商机分析预测报告》
这次黄金时期的到来,专家系统(Expert system)功不可没。专家系统专注于某一个领域,因而设计简单,易于实现,而且避免了所谓的“常识问题”。商业领域第一个成功的专家系统是 Digital Equipment Corporation 的 R1,从 1982年至 1988 年,它帮助公司平均每年节约 4000 万美元。到了 1988 年,全球顶尖的公司都已经装备了专家系统:DEC 部署了 40 个专家系统,杜邦部署了 100个。随着专家系统的大规模应用,知识库系统和知识工程得到了普及。

另一个重大的助力是日本的第五代计算机项目(第五世代コンピュータ)。它是日本通商产业省(现经济产业省,けいざいさんぎょうしょう)在 1982 年推出的一个大型研发企划,目的是开发采用平行架构的拥有人工智能的革命性的电脑,开创下一个时代。整个计划预计 10 年完成,3 年用于先期研究,4 年用于子系统开发,最后 3 年组成一个可运行的原型,整个项目预算高达 570 亿日元。


受此计划的刺激,其他强国纷纷采取应对策略。1983 年,英国开始了预算 3.5 亿英镑的 Alvey 工程,关注大规模集成电路、人工智能、软件工程、人机交互(包含自然语言处理)以及系统架构;在美国,DRAPA 组织了战略计算促进会,年投资额在四年内增长了 2 倍;而在准将 Bobby Ray Inman 的领导下,一群美国的计算机和半导体厂商组成 MCC ( Microelectronics and Computer Technology Corporation,微电子与计算机技术集团)财团,在系统架构设计、芯片组装、硬件工程、分布式技术、智慧系统等方向发力。
在这个时期内,算法也得到了突破性的进展。1982 年,John Hopfield 证明 Hopfield 网络可以学习并处理信息,David Rumelhart 则提出了反向传播算法。它们和 1986 年发表的分布式处理的论文一起,为 1990 年代神经网络的商业化打下了坚实的基础。
第二次低潮:1980 年代末-1990 年代中
随着专家系统的不断发展,复杂度的快速提升,基于知识库和推理机的专家系统显示出了让人不安的一面:难以升级扩展,鲁棒性不够,直接导致高昂的维护成本。
1980 年代末期,由于人工智能的项目成果不明朗,DARPA 大幅削减了对人工智能的资金支持。
1991 年,英国政府发布 Alvey 工程的最终报告,报告指明,Alvey 工程达到了其设定的技术目标,但是并没有提升英国在信息技术市场的竞争力。报告将原因归集为“资本的短缺和管理运营的低效率”。Alvey 工程主管 Brain Oklay 指出,信息技术工业应更注重培训、市场推广和研究成果的商业化。他抱怨道日本的低利率让高科技公司可以开发低毛利产品,而英国的高利率阻止了公司这么做。
尽管英国觉得日本的计划更为成功,但 1992 年 6 月,日本政府宣布向全世界公开第五代计算机项目所开发的软件,允许任何人免费使用,这标志着日本雄心勃勃的第五代计算机项目的失败。第五代计算机项目并没有带来人工智能的突破,甚至有人说,第五代计算机项目的最大收获其实是项目的副产物:其训练了成百上千的计算机领域的专家。该项目的失败有多重原因,一般认为,通用型微型机对专用型大型机的冲击及项目研发成果缺乏商业化场景是项目失败的重要原因。

成果显现:1990 年代中-今
1997 年 5 月 11 日,IBM 制造的专门超级计算机深蓝(Deep Blue),在经过多轮较量后,击败了国际象棋世界冠军 Garry Kasparov。尽管不乏 IBM 作弊的声音,但这个事件标志着人工智能的研究到达了一个新的高度,也给人工智能做了一次大规模的宣传。
2000 年代后,随着大数据的普及、深度学习算法的完善、硬件效能的提高,人工智能的应用领域变得更广,应用程度也变得更深,2016 年,人工智能市场规模超过 80 亿美元,人工智能领域的竞争也愈发白热化。更多内容请期待本系列的后续文章。



【版权提示】观研报告网倡导尊重与保护知识产权。未经许可,任何人不得复制、转载、或以其他方式使用本网站的内容。如发现本站文章存在版权问题,烦请提供版权疑问、身份证明、版权证明、联系方式等发邮件至kf@chinabaogao.com,我们将及时沟通与处理。