1 / 5
文档名称:

AI|探索人工智能未来的潜力,南京电话机器人.docx

格式:docx   大小:1,144KB   页数:5页
下载后只包含 1 个 DOCX 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

AI|探索人工智能未来的潜力,南京电话机器人.docx

上传人:sxlw2016 2018/8/9 文件大小:1.12 MB

下载得到文件列表

AI|探索人工智能未来的潜力,南京电话机器人.docx

相关文档

文档介绍

文档介绍:AI|探索人工智能未来的潜力,南京电话机器人
渠联智能电话机器人报道:从智能语音到自动驾驶汽车,人工智能(AI)正在迅速地发展。虽然科幻小说经常将人工智能描绘成具有类人特性的机器人,但人工智能可以涵盖从谷歌(Google)的搜索算法,IBM沃森(人工智能程序),到自动武器的任何科技。
当今的人工智能被正确地称为窄AI(或弱AI),因为它被设计来执行的任务范围狭窄(例如,仅执行面部识别,或只进行互联网搜索,或仅驾驶汽车)。然而,许多研究人员的长期目标是创建普适AI(AGI或强AI)。虽然窄AI能在其特定的任务上超越人类,如下棋或解方程,AGI将在几乎所有认知任务上超越人类。
为什么社会各界对人工智能如此关注?
短期来看,人工智能对社会有益的科研范畴可涵盖诸多领域如经济学、法学,以及验证法、有效性计算、安全性和控制论等技术层面。如果安全保障限于防止笔记本电脑被***,就算出了问题也只是给你添点小麻烦;但是,倘若AI系统能够控制汽车、飞机、心脏起搏器、自动交易系统或电网,我们须保证该系统完全遵照我们的指令,否则后果将不可设想。
从长远来看,一个重要的问题是,如果我们成功创造了能在所有认知功能上超过人类的强AI,将会发生些什么。一个有智慧的AI系统将有潜力自我完善、触发智能爆炸,并远远地超越人类智力。通过发明革命性的新技术,这样的智慧可以帮助我们消除战争、疾病和贫困,创造强AI可能是人类历史上重大的事件。也因此,一些专家担心人类的历史也会随着此类AI的诞生戛然而止,除非我们学会在AI成为智慧之前将使其与我们同心所向。
有些人质疑强AI是否会实现, 也有些人坚信创建超智能AI对人类必定是有益的。我们承认这两种情形皆有可能,但我们更应意识到人工智能系统将有意或无意地给人类社会造成巨大危害,我们须研究如何防患于未然,使得未来人们受益于AI的同时,规避潜在风险隐患。
关于人工智能有哪些认识误区?
关于人工智能的未来以及它对人类意味着什么的对话热烈进行中。当下,AI技术有许多连专家都无法达到共识的争议,例如:AI对就业市场未来的影响;类人级别的AI是否/何时会被开发;AI开发是否会导致智力爆炸;以及这是我们应该欢迎还是恐惧的事情。但当下也存在着许多由误解或人们各说各话所引起的伪争论。为了帮助我们专注于有意义的争议并解决问题,让我们首先将一些常见的误传解除掉。
时间推断上的误区
一个常见的误区与时间预期有关:人们认为我们能准确断定机器取代人类智能需要多长的时间。
有观点认为我们肯定能在这个世纪,甚至在几年内制造出强AI。约翰·麦卡锡(“人工智能”一词的创造人),马文·明斯基,纳撒尼尔·罗切斯特和克劳德·香农曾写下个过于乐观的预测:在1956年夏天,他们要在达特茅斯学院组建一个10人人工智能研究小组,用两个月的时间让机器了解怎样使用语言、形式和抽象的概念,能够解决目前只有人类能应对的各种问题,并学会自我提升。他们写道,只要有一组精心挑选的科学家们在一起工作一个夏天,就可以在一个或多个问题上取得重大进展。但他们的预测,并没有成真。
目前,已经有一些调查问卷向AI研究人员询问他们对制造类人AI的时间预测,几乎所有的调查都得出相同的结论,那就是连世界上领先的专家都无法达到共识。
对强AI风险的误解
“斯蒂芬·霍金警告说,机器人的兴起可能对人类带来灾