1 / 4
文档名称:

人工智能的伦理问题.doc

格式:doc   大小:23KB   页数:4页
下载后只包含 1 个 DOC 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

人工智能的伦理问题.doc

上传人:lxydx 2016/8/11 文件大小:23 KB

下载得到文件列表

人工智能的伦理问题.doc

相关文档

文档介绍

文档介绍:人工智能的伦理问题无人驾驶车业已驶上加利福尼亚的公路,现在言及如何让机器的行为符合伦理为时已不算太早。超级智能或许离我们太遥远, 但是, 我们可以开始考虑如何让人工智能符合人类、乃至所有有感情的生物的利益了。上个月,一款专门被设计用于下围棋的电脑程序“阿尔法狗”( AlphaGo )以4:1 击败世界顶尖职业围棋选手李世石, 在围棋爱好者群体中引发轰动。你可能会问, 这算是新闻吗?早在二十年前, IBM 的电脑“深蓝”( Deep Blue )就曾打败过国际象棋世界冠军加里? 卡斯帕罗夫;且众所周知,自那以后技术一直在进步。但是,“深蓝”获胜纯因计算能力,它能比世界冠军计算出更多步棋。相比 8×8 格的国际象棋,围棋的棋盘更复杂, 为 19× 19格, 围棋可能的走法要超过宇宙中的原子数, 因此, 单凭强大的计算能力不太可能打败对最佳走法有着强烈直觉的人类。“阿尔法狗”的胜利之道, 在于同其他程序进行海量对弈, 并采纳被证明成功的战略。因而可以说,“阿尔法狗”进化为全世界最优秀的围棋选手只用了两年, 而人类的大脑在自然过程中完成这样的进化, 可能需要数百万年的时间。“阿尔法狗”的主人、谷歌公司执行董事长埃里克? 施密特( Eric Schmidt ) 热衷于人工智能( AI)。他在人机大战之前表示, 无论结果如何, 人类必将是赢家, 因为人工智能的进步会令每个人更聪明、能力更强,“只会让人类更美好”。果真如此吗?就在“阿尔法狗”凯旋的同时,微软的“聊天机器人”泰勒( Taylor ) 却尝到了苦头。这款自称“ Tay ”的机器人的用途是与 18~ 24 岁的年轻人互动。 Tay 可以从接收到的信息中学习, 并逐步提高对话能力。不幸的是,上线不到一天,就有人“教导” Tay 有关种族主义和性别歧视的观点。当她开始赞扬希特勒时, 微软不得不将其关闭, 并删掉了其大部分攻击性的言论。我不知道那些将 Tay 教成种族主义者的人自己是否是种族主义者,抑或他们只是认为玩坏微软的新产品是饶有趣味的事。但不管怎样,“阿尔法狗”的胜利与 Tay 的失败同样令人类警醒。在有着特定规则和明确目标的游戏中释放人工智能的潜能是一回事, 而把人工智能投入真实世界则是另一回事――两者截然不同, 环境的不可预知性可能暴露软件漏洞, 引发灾难性后果。牛津大学人类未来研究所所长尼克? 波斯特洛姆( Nick Bostrom )在其著作《超级智能》( Super intelligence )中指出,关闭一个智能机器并不总是像关闭 Tay 那样轻而易举。他将“超级智能”定义为“几乎在任何领域都超越人类最聪明大脑的智能, 包括科学创造力、整体智慧和社交能力”。这样的系统也许能挫败我们关闭它的企图。有人质疑超级智能会不会实现。对此,波斯特洛姆和文森特? 穆勒( Vincent Mü ller )一起咨询了人工智能专家,问机器智力何时能有 50% 的可能达到人类水平,以及何时有 90% 的几率达到人类水平。估计的中位数显示, 50% 的可能性在 2045 ~ 2050 年达成, 90% 的可能性在 2075 年达成。大部分专家都预计,达到人类智能后不到 30 年,人工智能就会发展到超级智能水平。我们不应对这些估计太较真,因为专家总体的回复率只有 31% ,而且这一领