1 / 16
文档名称:

中国金融领域人工智能技术及其应用.docx

格式:docx   大小:1,046KB   页数:16
下载后只包含 1 个 DOCX 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

中国金融领域人工智能技术及其应用.docx

上传人:科技星球 2021/10/29 文件大小:1.02 MB

下载得到文件列表

中国金融领域人工智能技术及其应用.docx

文档介绍

文档介绍:中国金融领域人工智能技术及其应用
 
   
 
 
 
 
 
 
 
     
 
 
 
 
 
一 人工智能的发展历程
(一)演进历史
人类试图用机器来代替人的体力劳动的实践古已有之,但就脑力劳动而言,赋予机器像人类一般的思考能力一度被认为是不可能完成的任务。但经过科学技术的漫长发展,进入20世纪后,人工智能相继出现一些开创性工作。
20世纪40~50年代,来自数学、心理学、工程学、经济学等不同领域的学者开始探讨制造人工大脑的可能性,并取得了一些基础性成果。1943年,沃尔特·皮茨和沃伦·麦卡洛克提出人工神经网络的概念,分析了理想化的人工神经网络,并且指出了它们进行简单逻辑运算的机制。1955年,赫伯特·西蒙与艾伦·纽厄尔等人成功地开发了世界上最早的启发式程序“逻辑理论家”(Logic Theorist)。该程序模拟人脑的思维方式之一——逻辑推理,能够证明《数学原理》一书中第二章52个定理中的38个,开创了人工智能领域的符号主义学派。
1956年,约翰·麦卡锡与马文·闵斯基等人组织的达特茅斯会议宣告人工智能(Artificial Intelligence)的正式诞生。该会议基于一个猜想,即“原则上,学习与智能的任何方面、任何特征都能被精确描述,以至于可以制造出一台机器来模拟它”。[1]达特茅斯会议的主旨是讨论如何运用计算机模拟人的智能,会议最终确定了Artificial Intelligence作为本领域的名称,确立了研究领域和研究任务,掀起了人工智能的第一次浪潮。
1956~1974年是人工智能的大发现时代,也是人工智能的第一个黄金时代,科学家在多个分支取得了初步成果。在机器定理证明方面,许多人工智能程序使用“搜索式推理”算法,它们一步步前进,如果遇到死胡同就进行回溯,如此可以解决一部分几何与代数问题。在自然语言处理方面,科学家将符号方法引入统计方法中进行语义处理,使人机交互开始成为可能。此外,科学家还发明了多种具有重大影响的算法,如感知器算法。该算法是日后许多新的人工神经网络模型的始祖。除在算法和方法论方面取得了新进展外,科学家们还制作出具有初步智能的机器,如能证明高中代数应用题的机器STUDENT(1964年)、可以实现简单人机对话的机器ELIZA(1966年)。
对于20世纪60年代的人们而言,人工智能取得的成果是不可思议的,它们踏入了传统意义上只属于人类的
“禁区”。在人工智能神奇表现的冲击下,人们对人工智能的发展持相当乐观的态度,并认为具备完全智能的机器不再遥远。但是,囿于计算机运算能力、计算复杂性和指数爆炸等问题,1974年之后,人工智能很快进入停滞不前的境地。随之而来的是经费停拨,人工智能研究进入寒冬。
20世纪80年代,卡梅隆大学为数字设备公司(Digital Equipment Corporation,DEC)开发的名为XCON的“专家系统”取得了巨大成功,并将人工智能带回到人们的视野之中。人们认识到,建立囊括所有常识的数据库有很大难度,而“教会”人工智能解决特定领域的问题可能是一个重要发展点。受XCON的启发,,其他国家也纷纷响应。除了专家系统外,曾经因被马文·闵斯基批判而一度陷入困境的联结主义在20世纪80年代重获新生。1982年,物理学家约翰·霍普菲尔德证明了一种新型的神经网络(现被称为“Hopfield网络”),该网络能够用一种全新的方式学习和处理信息。几乎同时,大卫·鲁姆哈特推广了反向传播算法,这些发现促使人工神经网络的发展回到正轨。
然而,第二次人工智能浪潮并未持续很长时间,随着时间的推移,专家系统的缺陷开始显现,它们难以使用、难以升级,具有很强的使用局限性,维护费用也居高不下;而专门为人工智能设计的硬件——LISP机也因受到苹果和IBM产品的冲击而逐渐被市场淘汰,自此,人工智能再次进入寒冬。
寒冬延续到了2006年,这一年,杰弗里·辛顿等人发表论文《深信度网络的一种快速算法》,在人工智能基础理论方面取得重大突破,宣告了第三次人工智能浪潮的到来,也宣告了人工神经网络向深度学习的进化。随后,深度学习的基础理论研究不断深入,深度学习也成为人工智能领域最炙手可热的研究方向,并直接导致了今日人工智能的繁荣。
当然,人工智能的繁荣还离不开计算机计算能力的跃升以及大数据的爆发。互联网的发展使人类与网络的互动越发频繁,并产生了海量的高质量数据,硬件的发展则使机器处理数据更加得心应手。在多种因素的作用下,人工智能在语音识别、机器视觉、自然语言处理、机器翻译等方面取得了突破性进展。
(二)人工智能呈爆发式增长
事实上,在深度学习概念和浅层学习算法提出后的几年里,人工智能研究的进展仍然不能成