QQ登录

只需一步,快速开始

美学者称人工智能短期内很难“毁灭人类”

[复制链接]
索理客 发表于 2014-12-17 10:47 | 显示全部楼层 |阅读模式 来自: 中国–江苏–南京 电信

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?加入牧夫(请注明天文爱好者,否则无法通过审核,请勿使用gmail/outlook/aol/icloud邮箱注册)

×
美国《华尔街日报》12月13日发表题为《人工智能不是威胁——现在还不是》的文章,作者是纽约大学心理学和神经科学教授、美国“几何”信息公司首席执行官加里·马库斯。文章认为在过去几十年里,从象棋到算术再到网上交易,计算机在许多事情上的表现都有长足进步,但到目前为止,它们还没有对我们或我们的财物表现出一星半点的兴趣。


                               
登录/注册后可看大图

在美国科幻电影《她》中,孤独内向的男主角(如图)爱上了拥有性感女声的人工智能操作系统“女主角”,即他面前的电脑。

全文内容如下:

宇宙学家斯蒂芬·霍金2日在接受记者采访时说:“全面人工智能的发展可能会导致人类的灭绝。”人工智能是像霍金所说的那样威胁着我们人类吗?人工智能的发展就像是在“召唤恶魔”——就像科技先锋、美国太空探索技术公司创始人埃隆·马斯克今年10月在麻省理工学院对听众所说的那样吗?智能机器会取代、甚至消灭人类吗?

但是,我们不要慌。“绝顶聪明”的机器不会马上出现。当今的计算机善于执行有一定局限性、经过程序员认真设计的任务,比如管账和操控飞机着陆。但是经过50年的研究,计算机在执行任何与真正人工智能少许类似的事情时仍然能力不足。

现有的哪怕最优秀的计算机程序也缺乏人类思考的灵活性。对于一款新的电脑游戏,一名青少年可以用一个小时就掌握;而普通的计算机程序仍然只能完成程序员为它设计的单一任务。有些新技术的表现略好,但它们在执行任何需要长期规划的任务时仍然很费力。

一个更紧迫的担忧是,如果一台机器得到足够的授权,那它不需要绝顶聪明就能造成很大破坏。股市“闪电崩盘”就是一个例子:由于很难完全排除的小故障,几亿美元在几分钟之内就灰飞烟灭了。

现在显然面临的危险是:如果不加制止,普普通通的计算机程序就可以造成巨大危害。比如,当近乎完美、但仍有瑕疵的软件不止操控股市交易、还操控无人驾驶小汽车的时候,会发生什么呢?软件漏洞破坏你的购物清单是一回事,它让你的小汽车撞毁就是另一回事了。

以上所有这些都不意味着我们应该放弃人工智能的研究。无人驾驶汽车或许会制造一些恶性事故,但它们同样能使数以万计的人免于丧生。机器人医生(或许这要等几十年后才能实现)可能会偶尔误诊,但它们同样会把高质量医疗服务带到缺乏训练有素的医生的地方。禁止人工智能,可能会浪费掉一个拯救数以百万计的人的生命或从根本上改善数以百万计的人的生活的机会。

在过去几十年里,从象棋到算术再到网上交易,计算机在许多事情上的表现都有长足进步,但到目前为止,它们还没有对我们或我们的财物表现出一星半点的兴趣。如果情况继续如此,那我们完全有理由认为它们将继续是我们的伙伴、而不是我们的征服者。我们不必杞人忧天。

但危言耸听的人也有一定道理。真正的问题并不在于,机器智能提高到足够的程度就会自然而然统治世界,而在于我们目前完全没有办法预测或控制未来。

眼下,任何人都几乎可以在任何时候编写任何程序,而我们几乎没有任何现成的基础设施来预测或控制结果。这是令人担心的真正原因。


http://www.cnbeta.com/articles/355111.htm



liupeng134 发表于 2014-12-17 11:01 | 显示全部楼层 来自: 中国–内蒙古–赤峰 联通
有时看电影好像是在看热闹
其实 谁能知道 未来不会成为现实呢
譬如 机械公敌
回复 顶~ 砸~

使用道具 举报

本版积分规则

APP下載|手机版|爱牧夫天文淘宝店|牧夫天文网 ( 公安备案号21021102000967 )|网站地图|辽ICP备19018387号

GMT+8, 2024-11-22 12:51 , Processed in 0.043325 second(s), 4 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表