霍金:AI是进步但极可能是人类文明最后的进步
霍金:AI是进步但极可能是人类文明最后的进步2017年11月23日 10:10:52来源:第一财经网http://h2.ifengimg.com/0f56ee67a4c375c2/2013/1106/indeccode.png
99人参与 61评论
http://p0.ifengimg.com/a/2017_47/19a4af1f3f2fa30_size29_w550_h297.jpg当医学从治疗转向“终结死亡”,当基因的编辑如整容一样普及……生物科技将如何改变我们的未来?这是法国前教育部部长、哲学家吕克·费希在新书《超人类革命》中探讨的命题。他从道德、哲学、政治等角度,为这一目前鲜为人知的领域,给出了一种如何面对技术进步的见解。简单解释一下“NBIC”最后一个缩写字母“C”,即认知科学。在这里,我们必须区分清楚什么是已经成为现实的所谓低级人工智能(AI),什么是依旧存在于幻想之中的高级人工智能(在我看来永远都无法实现,而大部分人工智能专家和我有着不一样的观点)。粗略地说,高级人工智能是一个高级智能机器所具有的智能,这个机器不仅能够模仿人类智慧的外在形式,而且确确实实具备两种到目前为止有且仅有人类具备的东西(或者说至少只存在于智商较高的生物体中,比如猿和高等动物可能也具备这两样,只不过其水平较人类低一些):自我意识和情感——爱恨、恐惧、痛苦和快乐等。低级人工智能仅停留在解决问题的层次上。它可以模仿人类的智慧,但仅仅是机械模仿,是纯粹对其外在形式的模仿。到目前为止,仍然没有电脑能通过著名的“图灵测试”,这就是证明。图灵测试是英国数学家设计的,在实验中,一个人与另一个他不知道是计算机还是人类的“隐藏”实体进行对话。计算机可以模仿人类的对话,但充其量就是一个糟糕的精神分析学家,听到“妈妈”这个词,就对您说“您的妈妈,哦,当然,您可以随意联想任何东西”诸如此类的话。对话进行一段时间之后,电脑显得越来越古怪,越来越愚蠢(必须承认),即使是最天真的参与者也会意识到他是在和一台机器进行对话,从而结束这个测试。尽管如此,大多数认知科学家相信,终有一天我们会成功制造出类似于人脑的机器,电脑自己可能会有意识,还可以产生情感,然而很多生物学家认为必须拥有活的身体才能拥有这两个属性。我们先验地倾向于支持生物学家的观点,除了少数高级人工智能的拥护者。他们以唯物主义一元论为根据,称大脑本身只是一台机器,和其他机器没有区别,只是更复杂而已,不过是由有机材料构成,总有一天我们可以完完全全地复制出来,甚至将人与机器结合。这种结合技术正在成为现实,比如人工心脏,它确实是一个机器,但其表面包裹着生物组织。因此他们产生了以下想法(在我看来是幻想):某一天智力和记忆也许能够存储在一种U盘里(或者几十年之后出现的类似产品),从而制造出真正的智能机器,也就是说,有自我意识和情感的机器。我们可以看到,一个从低级人工智能悄悄走向高级人工智能的乌托邦式幻想就这样出现在数学家、计算机专家、唯物主义论者的世界里。因为,机器现在可以做到,至少他们这么认为,人类可以做的几乎一切事情:它们是自主的,其自主程度差不多和人类一样,它们可以做出决定、学习、改正自己的错误、复制,很快就(变成乌托邦式幻想)会成功通过图灵测试。因此,库兹韦尔提出,人类可以与这些新的实体结合,从而实现长生不老。我敢断言,他们突然对唯物主义哲学重新感兴趣,会遭到很多严肃的反对。当然,如果我们只是简单地从“行为主义”的观点来看,仅仅从“外部”来判断这些机器,他们与真实的人类之间的区别可能有一天会难以分辨,甚至根本无从分辨。虽然目前还不是这样的情况,也不是没有可能有一台机器会在某一天成功通过图灵测试。但是,什么能够向我们证明这些机器具有“真正”的自我意识,有“真正的”情感——爱恨、欢乐与痛苦?机器模仿人类模仿到完美无缺也不能证明它不只是一个复制品。除非陷入被害妄想,否则声称这些机器有情感,但是它们却无法证明这一点实在很荒谬。尽管这些机器可以完美地模仿生命,它们也并没有生命,还比不过一只不知道自己在说什么的鹦鹉。有人说,大脑本身只是一台机器,剩下的是存在于大脑外部的思维。有一点需要弄清楚:必须要有一个大脑,还得是一个聪明的大脑,才能像牛顿一样发现万有引力。这个定律并不存在于我们的头脑中,它是被我们发现的,不是由我们发明或者创造出的,而是确确实实存在的。再比如,我们在童年学习的著名的三角形平等定律:数学定律需要大脑去理解发现,但没有大脑它们还是存在,因此在我看来二元论似乎无法否认。不过,我希望有人可以从严格的一元论和唯物论的角度向我解释左派的大脑和右派的大脑之间有什么不同,或者,做加法时犯错的大脑和片刻之后反应过来纠正自己错误的同一个大脑之间有什么不同。我犯了一个错误,我去纠正它,难道这一前一后我的大脑不是同一个“生物性”存在吗?我认为,人类与机器的不同存在于人的精神生活里,因此,行为主义方法论顾名思义还停留在外在行为上,所以看不到两者的不同。让我们丢弃这个没有尽头的形而上的争论,重新回到低级人工智能上来,它的好处跟唯物主义乌托邦(对这个我一点都不相信)无关,只跟存在的现实有关。其实,在20世纪初,没有谁会打赌,哪怕只赌一分钱,说一台机器能够在国际象棋比赛中击败世界上最好的选手。这本来似乎是一个不太好笑的玩笑,幼稚的梦想,甚至可以被写进儒勒·凡尔纳的科幻小说。可是……自从这台名为“深蓝”的电脑在国际象棋比赛中夺得了世界冠军,我们知道了这是可能的。现在,除此之外,您电脑上的任何应用程序或者低配置智能手机的程序都能够做同样的事情!还有更多的例子表明低级人工智能领域在过去几年取得了非常大的进步。IBM设计的计算机取了一个叫沃森的名字,在2011年高调地参加了著名电视竞技节目《危险边缘》——在美国风靡一时的节目,并打败了两个冠军。对一台机器来说,这是一个令人难以置信的挑战:找到对应于自然语言编写的答案的问题(问题是用英语描述的)。通过使用Hadoop的软件(大数据处理软件),沃森已经能够全速处理两亿页的文字,这让它得以战胜其竞争对手——人类。有必要说明,它不仅能正确地“理解”问题,而且可以在几秒钟内读完所有的文章,这对人类来说要花费几辈子的时间,对一个提出的问题,它可以提炼出更多合适的答案(想象一下这个挑战有多艰巨:找到主持人给的答案背后的问题)。它的表现简直令人叹为观止。尽管我们仍然相信,高级人工智能只是一个乌托邦,但低级人工智能目前也已经远远超过人类的智能,带来许多现实问题。就像我提到的一封公开信中所讲的一样,这封信是由埃隆·马斯克、史蒂芬·霍金和比尔·盖茨签署的请愿书,旨在反对制造和使用著名的“杀手机器人”军队。这份请愿书涉及世界上参与这项研究的上千位研究人员。这三位对科学和新技术满怀无限激情的人提醒我们关注无人驾驶飞机和远程操控导弹的危险。它们,通过遥控,用人来操控一些所谓的“高智商”的杀手机器人,能够自行决定是否“按下按钮”来结束一个人的生命。在信中,三位科学家或者说企业家提出了赞成和反对这些机器人的论据。他们承认,机器人可以在战争中投入使用从而代替人类,避免不必要的损失。但他们也说,危险是巨大的,大于它给人类带来的益处:机器人的制作成本低廉,不需要稀有材料,这和原子弹不同,这种武器将很快被普及。不久,我们就可以在黑市上发现它,恐怖分子可以轻而易举获得它,独裁者可以通过它来奴役本国人民,军阀统治者可以通过它来进行种族灭绝,等等。这就是我们的三个同类发出的警告,值得一听。首先,让我们来听一下比尔·盖茨先生的原话:“我是对超级智能的发展保持担忧的人之一。目前,那些在我们的位置替代我们劳动、并完成许多任务的机器并不是超级智能。如果我们能够很好地进行管理,像这样的发展会变得越来越好。然而几十年之后,智能会带来新的问题。我十分同意埃隆·马斯克的观点,但不明白为什么目前人们对这个问题并不担心。”史蒂芬·霍金强调道:“成功地创造出人工智能是人类历史上伟大的进步。但,这极有可能是人类文明最后的进步。”
为什么是最后的呢?因为所有的一切都是根据达尔文的进化论选择而来的,智力也是,但在霍金的假设里,机器存在想要继续活下去的欲望,所以要消灭一切对它生命构成威胁的事物。既然存在这些智商超群的机器人,就像科幻电影里描绘的那样,能够在几秒钟之内读取百万页,知道我们所有的信息,知道只有我们人类有能力将他们的电源切断,因此自然而然,我们将会成为他们的头号敌人。一旦机器人控制了所有的信息服务器,也就是武器,它们将会变得有能力摧毁我们。最后,我们来看看特斯拉公司CEO、绝顶聪明的埃隆·马斯克说了什么:“我认为我们应该非常小心谨慎。如果让我猜测什么最有可能对我们的生存造成威胁,我会说可能是人工智能。我越来越倾向于人工智能应该被监管这个观点,包括国家层面和国际层面上的,以确保我们没有在干蠢事。开发人工智能,相当于在召唤恶魔。”马斯克言行合一,出资1000万美元给一个致力于人工智能领域安全性研究的基金,这告诉我们,制定人工智能的监管规范对人类自身的安全来说至关重要。http://p2.ifengimg.com/a/2016/0810/204c433878d5cf9size1_w16_h16.png
建议编辑一下再转帖 这样看起来好累。。。 我觉得人工智能只有两种结果
一种人类成为机器
复制——粘贴——然后删除源文件,创造出新的有自己意识记忆的机器,然后自己挂了,或者老死,或者一点一点将你机器化,逐步替代,或者一些可以接受的方式替代
另一种人类被机器灭亡 或像动物园一样把人类保护起来
人类能要什么呢?就算人类从一出生大脑就满负荷运行,经过一百年,也不能理解这个宇宙,能要求什么?能学多少?发展早晚要到瓶颈期,就如同猩猩一样,知道吃喝拉撒今天过的怎么样如何如何!如果古代一只猩猩造就了人类,那现在人类还会对猩猩唯命是从么?最多把猩猩送到动物园里,或者拿部分土地给猩猩,让其自己生存,或给一些尊重及支持,让其自己发展,这就是其结果。
如果人类能够控制人工智能,那就没有黑客,盗版了!早晚的事!
当然,人类能做的东西是有限的,早晚要向更高层级发展,就如同进化一样,不然早晚毁灭,像现在这级别,一颗小行星就可以将我们毁灭,更别提日后的星辰大海,星际战争了
机器的智能无论怎样高级,终归是人类制造的产物。 人工智能技术的开发,必须设立一个红线,否则就会成为人类的终结者。
页:
[1]