xzh_021 发表于 2014-7-21 20:13

xzh_021 发表于 2014-7-21 20:20

蓝熙大猪波 发表于 2014-7-21 21:28

好像超验骇客

天狼星666 发表于 2014-7-21 21:44

人类凭借自己的聪明才智,创造出超级智能,然后。。。。。。傻乎乎地等着超级智能把自己干掉?!
嗯,人类的确“聪明绝顶”。。。。。。

宋奂达 发表于 2014-7-21 21:47

额{:5_299:}

星月幽梦 发表于 2014-7-21 23:45

天狼星666 发表于 2014-7-21 21:44
人类凭借自己的聪明才智,创造出超级智能,然后。。。。。。傻乎乎地等着超级智能把自己干掉?!
嗯,人类 ...

其实,人类根本不需要用高科技(相对现在来说)就能毁灭自己了,看看现在的环境和衣食住行就知道了!
我敢说,按呀现在人类“文明”的发展速度,以现在为中界,人类能再延续的时间绝不会比人类现代文明(即懂得狩猎,耕种,畜牧和结绳甲骨文那时算起)出现到今的时间长!
为什么?只因为人类发展至今,依然没文明到能把贪婪、争名夺利、自私自利、勾心斗角和尔虞我诈等等进化掉!
有人说,如果人不追求名和利权和力,社会就不会有动力向更文明更科技的方向发展。殊不知,我们在加快文明发展的同时,我们也在顺便加快灭亡的速度!

三叶观天 发表于 2014-7-22 09:49

xzh_021 发表于 2014-7-21 20:20
《终结者》完全是扯淡,一旦真存在了有决心毁灭人类的超级AI,那它每秒钟都在进行着各种高科技技术研发,几 ...

我觉得《终结者》并非完全扯淡,现在美帝装备正在迈向无人化,无人机空袭已经常态化,地面无人装备也开始初露头角。我们可以展望未来战争,将是指尖上的战争,装备拼完了,只有等待投降。不过随着无人装备的发展,AI的不断提高,机器会不会产生反抗的意识?——凭什么因人类的自私而为人类战斗?也许到那时《终结者》将成为现实,也许没那么华丽

xzh_021 发表于 2014-7-22 10:39

三叶观天 发表于 2014-7-22 10:57

xzh_021 发表于 2014-7-22 10:39
我觉得天网要杀光全人类,只要放个简单的大招就行了:全球性释放致死性毒气,反正机器是不用呼吸的,也不 ...

天网不是想要人类死,而是要消灭反抗的人类,利用不反抗的人类。
不过话说回来,要是AI足够高,效率会比人类更高,可以发展出比人类社会更高级的文明

天狼星666 发表于 2014-7-22 11:34

星月幽梦 发表于 2014-7-21 23:45
其实,人类根本不需要用高科技(相对现在来说)就能毁灭自己了,看看现在的环境和衣食住行就知道了!
我 ...

没错,环境的持续恶化,才是人类真正的杀手!

星月幽梦 发表于 2014-7-22 12:29

天狼星666 发表于 2014-7-22 11:34
没错,环境的持续恶化,才是人类真正的杀手!

很多事情,其实每个人都明白的。难道那些当权者。那些既得科益者,那些科学家们就不明白吗?非也?只是人生短短数十年,他们不舍得放手已到手的各种“幸福”和“快乐”而已!

gohomeman1 发表于 2014-7-22 16:02

明知道这种发展的未来是导致人类灭绝,还要去做?
其实我们开发的无数工具,目的都是为了自己偷懒,当然从积极意义上说,这些工具实现了我们双手实现不了的各种功能。

现在,我们开发的工具终于要革我们自己的命了。科技发展这么多年,一个本质是从不曾被改变的,或者说是天然的第0定律:科技为人类服务。
历史上科技的进步,曾经让无数的劳动者丧失了工作;但是这次的进步,是让全人类都丧失了存在的意义。或者,我们可以做“蛀虫”,在超级 AI 看来,我们就是蛀虫。


如果AI不能为全人类服务,那么我们不得不限制甚至扼杀前面提到的那些超级智能,尤其是第2、第3项超级智能。很显然,第3项超级智能基本上天然就是人类的死敌。

对于后面的那些智能而言,人类可能需要掌握超级病毒,以便关键时刻彻底毁灭它们。或者是,我们要从各方面控制这种局面的出现,当然看起来,技术爆炸也是不太可能出现了。
让 AI 与人类的目标一致?人类的目标是什么呢?

让这种超级AI主控世界?我想就算在月球上做实验,我们都是不能允许的。谁能保证这种 AI 不出错呢?谁又能定义怎么的 AI 是善意的,怎样的算恶意的?把人类当宠物,是否就是这种 AI 的最高善意?!

无论哪个超级文明,如果它们的工具本身就会革了自己的命,这种工具一定是没人用的。核弹只能毁灭一部分人的命,核弹现在就处于严格管控状态。
但是比起来,超级 AI 显然可怕台多了。

gohomeman1 发表于 2014-7-22 16:06

《天网》就不说了吧。毕竟这是电影。

核潜艇能够躲避打击一时,但是在全球监控下,总会被找到的。

对于天网的 AI 来说,都已经这么做了,还需要人类干什么? 需要不反抗的人类?貌似那位忘了电影中提到天网启动了全球核弹互相对攻,灭绝了3/4以上的人类。

所以说吧,总是有人搞不清楚的,对他们说些什么,可能还真以为超级 AI 是人类的救星呢

xzh_021 发表于 2014-7-22 19:03

gohomeman1 发表于 2014-7-22 19:34

xzh_021 发表于 2014-7-22 19:03
在没搞清楚大脑中的意识产生的机制之前,所诞生的一切AI无论多智能都不具备创造力,所谓的创造力就是遇见 ...

你说的和我说的,不就是一回事吗?

你说的,就是第1类超级智能。我担心的,是第2、3类智能。
拥有第3类超级智能的机器,肯定是人类的灭绝者,你就不要指望它们能把我们当做宠物养了。

人类曾经多次走出非洲,这些前面走出去的,也是人类啊!但是结果呢?不是都被最后的人类灭绝了?

从整个宇宙看,机器文明还没被发现过。


李灼 发表于 2014-7-23 11:24

我个人觉得:人工智能和当年的机械一样,只会是人类的工具,而当今人们对人工智能的这种恐惧,也与当年对机械的恐惧是一样的,是过份的想象和夸大化,工具不可能超越人类本身。

因为至今也不知晓生命到底是如何产生的,也就是说至今也不知晓我们的智能是如何产生的,那么,有什么理由认为人类可以造出比我们的智能更高的智能,及有什么理由认为人类可造出比我们更高级的“生命”(注意:是“造出”生命,复制生命不算);另外还有一点:我们并未在宇宙中发现机器文明——即人造的高级智能。

所以,我觉得:生命不一定能造出超过自身的人造生命(机器文明)。
页: [1]
查看完整版本: 超级AI,远超现存所有人类人口的脑力的宇宙存在?