QQ登录

只需一步,快速开始

快捷登录

登录 或者 注册 请先

UG爱好者

 
搜索
查看: 751|回复: 1
打印 上一主题 下一主题

[原创] 人工智能——失控

[复制链接]

列兵

Rank: 1

64

主题

138

帖子

0

积分
跳转到指定楼层
楼主
发表于 2015-11-22 19:15:32 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 王绍昶 于 2015-11-22 19:50 编辑

   一旦超人工智能出现,人类任何试图控制它的行为都是可笑的。

   之前“隔壁老王”的故事给了我们很多启示,所以我们还要继续讨论“隔壁老王”的故事。

   因为一切它需要的资源都已经被互联网连起来了。但是就好像猴子不会理解怎么用电话或者wifi来沟通一样,我们同样没有办法理解隔壁老王可以用来和周围世界交流的方法。比如我可以说隔壁老王可以通过移动自己的电子产生的效果来产生各种对外的波,而这还只是我这人类的大脑想出来的,老王的大脑肯定能想出更神奇的方法。同样的,老王可以找到给自己供能的方法,所以就算工程师把它的插头拔了也没用;比如说老王可以通过发送波的方式把自己上传到其它地方。
   人类说:“我们把超人工智能的插头拔了不就行了?”就好像蜘蛛说:“我们不给人类捉虫的网把人类饿死不就行了?”都是可
的。

   因为这个原因,“把人工智能锁起来,断绝它和外界的一切联系”的做法估计是没用的。超人工智能的社交操纵能力也会很强大,它要说服你做一件事,比你说服一个小孩更容易。而说服工程师帮忙连上互联网就是隔壁老王的A计划,万一这招行不通,自然还有别的方法。

   当我们结合达成目标、非道德性、以及比人类聪明很多这些条件,好像所有的人工智能都会变成不友善的人工智能,除非一开始的代码写的很小心。

   可惜的是,虽然写一个友善的弱人工智能很简单,但是写一个能在变成超人工智能后依然友善的智能确实非常难的,甚至是不可能的。

   明显的,要维持友善,一个超人工智能不能对人有恶意,而且不能对人无所谓。我们要设计一个核心的人工智能代码,让它从深层次的明白人类的价值,但是这做起来比说起来难多了。

   比如,我们要让一个人工智能的价值观和我们的价值观相仿,然后给它设定一个目标——让人们快乐。当它变得足够聪明的时候,它会发现最有效的方法是给人脑植入电极来刺激人脑的快乐中枢。然后它会发现把人脑快乐中枢以外的部分关闭能带来更高的效率。于是人类全部被弄成了快乐的植物人。如果一开始的目标被设定成“最大化人类的快乐”,它可能最终先把人类毁灭了,然后制造出很多很多处于快乐状态的人类大脑。当这些事情发生的时候,我们会大喊“擦,我们不是这个意思呀”,但是那时已经太晚了。系统不会允许任何人阻挠它达成目标的。

    如果你设定一个人工智能的目标是让你笑,那它的智能起飞后,它可能会把你脸部肌肉弄瘫痪,来达成一个永远笑脸的状态。如果你把目标设定成保护你的安全,它可能会把你软禁在家。如果你让他终结所有饥荒,它可能会想:“太容易了,把人类都杀了就好了。”如果你把目标设定成尽量保护地球上的生命,那它会很快把人类都杀了,因为人类对其它物种是很大的威胁。

   所以这些简单的目标设定是不够的。如果我们把目标设定成“维持这个道德标准”,然后教给它一些道德标准呢?就算我们不考虑人类根本没法达成一个统一的道德标准,就算我们真的达成了统一的道德标准,把这套标准交给人工智能来维持,只会把人类的道德锁死在现在的水平。过个几百年,这种道德锁死的事情就好像逼着现代人遵守中世纪道德标准一样。


   现在有各种政府、公司、军方、科学实验室、黑市组织在研究各种人工智能。他们很多在试图制造能自我改进的人工智能,总有一天,一个人的创新将导致超人工智能的出现。专家们认为是2060年,Kurzweil认为是2045年。Bostrom认为可能在未来的10年到21世纪结束这段时间发生,他还认为当这发生时,智能的起飞会快得让我们惊讶,他是这么描述的:

   在智能爆炸之前,人类就像把炸弹当玩具的小孩一样,我们的玩物和我们的不成熟之间有着极大的落差。超级智能是一个我们还很长一段时间内都无法面对的挑战。我们不知道炸弹什么时候会爆炸,哪怕我们能听到炸弹的滴答声。


   我们当然没有办法把所有小孩都从炸弹旁边赶跑——参于人工智能研究的大小组织太多了,而且因为建造创新的人工智能花不了太多钱,研发可能发生在社会的任何一个角落,不受监管。而且我们没办法知道准确的进度,因为很多组织是在偷偷摸摸的搞,不想让竞争对手知道,比如隔壁老王机器人公司这种公司。

   对于这些组织来说,尤其让我们困扰的是他们很多都是在拼速度——他们创造一个一个更加聪明的弱人工智能系统,因为他们想要比竞争对手更快的到达目标。有些更有野心的组织,为了追逐创造出第一个强人工智能所能带来的金钱、奖励、荣誉、权力会把步子迈得更大。当你全力冲刺时,你是不会有太多时间静下来思考这些危险的。恰恰相反,他们很可能在早期系统中写尽量简单的代码,比如把目标设定成用笔写一句话,先让系统跑起来再说,反正以后还可以回过头来改的,对吧?

   Bostrom等认为第一个超人工智能出现后,最可能的情况是这个系统会立刻意识到作为这个世界上唯一一个超人工智能是最有利的,而在快速起飞的情况下,哪怕它只比第二名快了几天,它也完全有时间碾压所有对手。Bostrom把这叫作决定性的战略优势,这种优势会让第一个超人工智能永远统治这个世界,不管在它的统治下我们是走向永生还是灭亡。

   这种现象可能对我们有利,也可能导致我们的毁灭。如果那些最用心思考人工智能理论和人类安全的人能够最先造出一个友善的超人工智能的话,那对我们是很好的。

   但是如果事情走向了另一面:

   人工智能创新和人工智能安全的赛跑,可能是人类历史上最重要的一次竞争。我们真的可能结束我们对地球的统治,而那之后我们是永生还是灭绝,现在还不知道。



版权声明  
本人声明此帖为本人原创帖,未经允许,不得转载!

有奖推广贴子: 

回复

使用道具 举报

列兵

Rank: 1

64

主题

138

帖子

0

积分
沙发
 楼主| 发表于 2015-11-23 09:36:12 | 只看该作者
一旦超人工智能出现,人类任何试图控制它的行为都是可笑的。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册会员

本版积分规则

 
 
QQ:1359218528
工作时间:
9:00-17:00
 
微信公众号
手机APP
机械社区
微信小程序

手机版|UG爱好者论坛 ( 京ICP备10217105号-2 )    论坛管理员QQ:1359218528

本站信息均由会员发表,不代表本网站立场,如侵犯了您的权利请联系管理员,邮箱:1359218528@qq.com  

Powered by UG爱好者 X3.2  © 2001-2014 Comsenz Inc. GMT+8, 2024-11-25 04:29

返回顶部