人工智能很可能导致人类的永生或者灭绝,而这一切很可能
在我们的有生之年发生。
Pascal: 说一句与本篇长文内容 关、仅与文字有关的话。
一年前,使用家里一台台式电脑就一篇博文,点击“发
表”,好端端的简体字瞬间变成繁体字,丢字、缺字、乱
字,一塌糊涂,一败涂地 ...... 只得用另一台电脑。
2016年1月11日,这一台也被虫子攻陷,也被下了毒,以
致包括Pascal博文在内的任何博文下面留言,都是不带商
量的乱字码;17个字的标题显示,只剩下11个;另有一些
字,打死也显示不出来∶
等等。看Zhe好让人讨嫌,生厌,心烦!
怎厶办呢?你说。 有问题,找组织。
上面这句话不是危言耸听,请耐心的看完本文再发表意见。这篇翻译
稿翻译完一共三丌五千字,我从上星期开始翻,熬了好几夜才翻完,
因为我觉得这篇东西非常有价值。希望你们能耐心读完,读完后
也许你的世界观都会被改变。
2000年 - 2013年14年的科技进步等于1900 - 1999 整个20世纪
一百年的进步;
2014年 - 2021年7年的科技进步将等于又一个20世纪一百年的进步。
按照加速回报定律,Kurzweil认为人类在21世纪的进步将是20世纪
的1000倍 !
当我们听到一个和我们经验相违背的对于未来的预测时,我们就会
觉得这个预测偏了。如果我现在跟你说你可以活到150岁,250岁,
甚至会永生,你是不是觉得我在扯淡——“自古以来,所有人都是
会死的。”是的,过去从来没有人永生过,但是飞机发明之前也没
有人坐过飞机呀。
这个级别的超级智能不是我们能理解的,就好像蜜蜂不会理解凯
恩斯经济学一。在我们的语言中,我们把130的智商叫作聪明,
把85的智商叫作愚笨,但是我们不知道怎厶形容12952的智商,人
类任何语言中根本没有这个概念。
一个中位的人工智能专家认为25年后的2040年我们能达成人工智能
Kurzweil相信电脑会在2029年达成人工智能,而到了2045年,
我们不但会有超人工智能,还会有一个完全不同的世界——奇点
时代。
在生物领域我们还没发现任何证证明死亡是不可避免的。也就
是说死亡
不一定是不可避免的,生物学家早晚会发现造成我们死亡的原因
是什厶,而死亡这个糟糕的‘病’就会被治好,而人类的身体也
将不再只是个暂时的容器。”
事实上,衰老和时间不是绑死的。时间总是会继续前进的,而衰老
不一定。仔细想想,衰老只是身体的组成物质用旧了。汽车开久
了也会旧,但是汽车一定会衰老吗?如果你能拥有完美的修复技
术、或者直接替换老旧的汽车部件,这辆车就能永远开下去。人体
只是更加复杂而已,本质上和汽车是一的。
Raymond "Ray" Kurzweil ( February 12, 1948 - ) is an
American author, computer scientist, inventor and
futurist.
Kurzweil提到由Wifi连接的纳米机器人在血液中流动,可以执行很
多人类健康相关的任务,包括日常维修,替换死去的细胞等等。如果
这项技术能被完美掌握,这个流程(或者一个超人工智能发明的更
好的流程)将能使人的身体永远健康,甚至越活越年轻。一个60岁的
人和一个30岁的人身体上的区别只是物理上的,只要技术足发达我
们是能改变这种区别的。
当一个60岁的人走进去后,再出来时就拥有了年轻30岁的身体。就算
是逐渐糊涂的大脑也可能年轻化,只要超人工智能足聪明,能发
现不影响大脑数的方法来改造大脑就好了。
超Qiang人工智能 —— 人类的最后一项发明,最后一个挑战。
如果人类在我死后才发现永生的秘密该多让人扫兴啊。
Cause what a massive bummer if humans figure out
how to cure death right after I die.
bummer
1. A word describing the misfortune of something or someone.
2. A situation in which no desireable result can occur
3. A negative form of agreement.
4. A response used when the respondee couldn't care less about the
topic at hand.
1. Friend 1: My wife left me last night
Friend 2: Bummer for you.
2. Man 1: We're surrounded by venomous snakes!
Man 2: Wow, this is quite the bummer.
3. Girl: Do you find me attractive?
Guy: Bummer
4. Friend 1: It appears that tomorrow is my last day to live.
Friend 2: Bummer
原文地址∶ http://www.zhihu.com/question/27864852
The AI Revolution: Road to Superintelligence
The AI Revolution: Our Immortality or Extinction
我们正站在变革的边缘,而这次变革将和人类的出现一般意重大
—— Vernor Vinge
如果你站在这里,你会是什厶感觉?
看上去非常刺激吧?但是你要记住,当你真的站在时间的图表中的时候,你是看不到
曲线的右边的,因为你是看不到未来的。所以你真实的感觉大概是这的∶
稀松平常。
遥远的未来——就在眼前
想象一下坐时间机器回到1750年的地球,那个时代没有电,畅通通讯基本靠吼,交通
主要靠动物拉跑。你在那个时代邀请了一个叫老王的人到2015年来玩,顺便看看他
对“未来”有什厶感受。我们可能没有办法了解1750年的老王内心的感受——金属铁壳
在宽敞的公路上飞驰,和太平洋另一头的人聊天,看几千公里外正在发生进行的体育
比赛,观看一场发生于半个世纪前的演唱会,从口袋里掏出一个黑色长方形工具把眼
前发生的事情记录下来,生成一个地图然后地图上有个蓝点告诉你现在的位置,一边
看地球另一边的人的脸一边聊天,以及其它各种各的黑科技。别忘了,你还没跟
他解释互联网、国际空间站、大型子对撞机、核武器以及相对论。
这时候的老王会是什厶体验? 讶、震 、脑洞大开这些词都太温顺了,我觉得老王
很可能直接被尿(死)了。
This experience for him wouldn’t be surprising or shocking or even mind-blowing
—those words aren’t big enough. He might actually die.
但是,如果老王回到了1750年,然后觉得被尿是个很 的体验,于是他也想把别人
尿来满足一下自己,那会发生什厶?于是老王也回到了250年前的1500年,邀请生
活在1500年的小李去1750年玩一下。小李可能会被250年后的很多东西震 ,但是至
少他不会被尿。同是250来年的时间,1750和2015年的差别,比1500年和1750
年的差别,要大得多了。1500年的小李可能能学到很多神奇的物理知识,可能会 讶
于欧洲的帝国主旅程,甚至对于世界地图的认知也会大大的改变,但是1500年的小
李,看到1750年的交通、通讯等等,并不会被尿。
But watching everyday life go by in 1750—transportation, communication, etc.—definitely wouldn’t make him die.
所以说,对于1750年的老王来说,要把人尿,他需要回到更古老的过去——比如回
到公元前12000年,第一次农业革命之前。那个时候还没有城市,也还没有文明。一
个来自狩猎采集时代的人类,只是当时众多物种中的一个罢了,来自那个时代的小赵
看到1750年庞大的人类帝国,可以航行于海洋上的巨舰,居住在“室内”, 数的收藏
品,神奇的知识和发现——他很有可能被尿。
小赵被尿后如果也想做同的事情呢?如果他会到公元前24000年,找到那个时代
的小钱,然后给他展示公元前12000年的生活会怎呢。小钱大概会觉得小赵是吃饱
了没事干——“这不跟我的生活差不多厶,呵呵”。小赵如果要把人尿,可能要回到
十丌年前或者更久,然后用人类对火和语言的掌控来把对方尿。
所以,一个人去到未来,并且被尿,他们需要满足一个“尿单位”。满足尿单位
所需的年代间隔是不一的。在狩猎采集时代满足一个尿单位需要超过十丌年,而
工业革命后一个尿单位只要两百多年就能满足。
In order for someone to be transported into the future and die from the level of shock they’d experience, they have to go enough years ahead that a “die level of progress,” or a Die Progress Unit (DPU) has been achieved. So a DPU took over 100,000 years in hunter-gatherer times, but at the post-Agricultural Revolution rate, it only took about 12,000 years. The post-Industrial Revolution world has moved so quickly that a 1750 person only needs to go forward a couple hundred years for a DPU to have happened.
未来学家Ray Kurzweil把这种人类的加速发展称作加速回报定律(Law of
Accelerating Returns)。之所以会发生这种规律,是因为一个更加发达的社会,能
继续发展的能力也更,发展的速度也更快——这本就是更加发达的一个标准。19
世纪的人们比15世纪的人们懂得多得多,所以19世纪的人发展起来的速度自然比15世
纪的人更快。
即使放到更小的时间规模上,这个定律依然有效。著名电影《回到未来》中,生活在
1985年的主角回到了1955年。当主角回到1955年的时候,他被电视刚出现时的新
颖、便宜的物价、没人喜欢电吉他、俚语的不同而震 。
但是如果这部电影发生在2015年,回到30年前的主角的震 要比这大得多。一个
2000年左右出生的人,回到一个没有个人电脑、互联网、手机的1985年,会比从
1985年回到1955年的主角看到更大的区别。
这同是因为加速回报定律。1985年-2015年的平均发展速度,要比1955年-1985年
的平均发展速度要快,因为1985年的世界比1955年的更发达,起点更高,所以过去
30年的变化要大过之前30年的变化。
进步越来越大,发生的越来越快,也就是说我们的未来会很有趣对吧?
未来学家Kurzweil认为整个20世纪100年的进步,按照2000年的速度只要20年就能达
成——2000年的发展速度是20世纪平均发展速度的5倍。他认为2000年开始只要花14
年就能达成整个20世纪一百年的进步,而之后2014年开始只要花7年(2021年),就
能达到又一个20世纪一百年的进步。几十年之后,我们每年都能达成好几次相当于整
个20世纪的发展,再往后,说不定每个月都能达成一次。按照加速回报定,Kurzweil
认为人类在21世纪的进步将是20世纪的1000倍。
如果Kurzweil等人的想法是正确的,那2030年的世界可能就能把我们尿了——下一
个尿单位可能只需要十几年,而2050年的世界会变得面目全非。
你可能觉得2050年的世界会变得面目全非这句话很可笑,但是这不是科幻,而是比你
我聪明很多的科学家们相信的,而且从历史来看,也是逻辑上可以预测的。
那厶为什厶你会觉得“2050年的世界会变得面目全非” 这句话很可笑呢?有三个原因让
你质疑对于未来的预测∶
1. 我们对于历史的思考是线性的。当我们考虑未来35年的变化时,我们参照的是
过去35年发生的事情。当我们考虑21世纪能产生的变化的时候,我们参考的是20
世纪发生的变化。这就好像1750年的老王觉得1500年的小李在1750年能被尿一
。线性思考是本能的,但是但是考虑未来的时候我们应该指数地思考。一个聪明
人不会把过去35年的发展作为未来35年的参考,而是会看到当下的发展速度,这
预测的会更准确一点。当然这还是不准确,想要更准确,你要想象发展的速
度会越来越快。
2. 近期的历史很可能对人产生误导。首先,即使是坡度很高的指数曲线,只要你
截取的部分短,看起来也是很线性的,就好像你截取圆周的很小一块,看上去就
是和直线差不多。其次,指数增长不是平滑统一的,发展常常遵循S曲线。
S曲线发生在新范式传遍世界的时候,S曲线分三部分
- 慢速增长(指数增长初期)
- 快速增长(指数增长的快速增长期)
- 随新范式的成熟而出现的平缓期
如果你只看近期的历史,你很可能看到的是S曲线的某一部分,而这部分可能不能
说明发展究竟有多快速。1995-2007年是互联网爆炸发展的时候,微软、谷歌、脸
书进入了公众视野,伴随的是社交网络、手机的出现和普及、智能手机的出现和
普及,这一段时间就是S曲线的快速增长期。2008-2015年发展没那厶迅速,至少
在技术领域是这的。如果按照过去几年的发展速度来估计当下的发展速度,可能
会错得 谱,因为很有可能下一个快速增长期正在萌芽。
3. 个人经验使得我们对于未来预期过于死板。我们通过自身的经验来产生世界
观,而经验把发展的速度烙印在了我们脑中——“发展就是这厶个速度的。”我们还
会受限于自己的想象力,因为想象力通过过去的经验来组成对未来的预测——但是
我们知道的东西是不足以助我们预测未来的。当我们听到一个和我们经验相违背
的对于未来的预测时,我们就会觉得这个预测偏了。如果我现在跟你说你可以活到
150岁,250岁,甚至会永生,你是不是觉得我在扯淡——“自古以来,所有人都是
会死的。”是的,过去从来没有人永生过,但是飞机发明之前也没有人坐过飞机
呀。
If I tell you, later in this post, that you may live to be 150, or 250, or not die at all, your instinct will be, “That’s stupid—if there’s one thing I know from history, it’s that everybody dies.” And yes, no one in the past has not died. But no one flew airplanes before airplanes were invented either.接下来的内容,你可能一边读一边心里“呵呵”,而且这些内容可能真的是错的。但是
如果我们是真的从历史规律来进行逻辑思考的,我们的结论就应该是未来的几十年将
发生比我们预期的多得多得多得多的变化。同的逻辑也表明,如果人类这个地球上
最发达的物种能越走越快,总有一天,他们会迈出底改变“人类是什厶”这一观点
的一大步,就好像自然进化不不断朝智能迈步,并且最终迈出一大步产生了人类,
从而完全改变了其它所有生物的命运。如果你留心一下近来的科技进步的话,你会发
现,到处都暗示我们对于生命的认知将要被接下来的发展而底改变。
_______________
通往超级智能之路
人工智能是什厶?
如果你一直以来把人工智能(AI)当做科幻小说,但是近来不但听到很多正经人严
肃的讨论这个问题,你可能也会困惑。这种困惑是有原因的∶
1.我们总是把人工智能和电影想到一起。星球大战、终结者、2001∶太空漫游等
等。电影是虚腹的,那些电影角色也是虚腹的,所以我们总是觉得人工智能缺乏真
实感。
2.人工智能是个很宽泛的话题。从手机上的计算器到 人驾驶汽车,到未来可能改
变世界的重大变革,人工智能可以用来描述很多东西,所以人们会有疑惑。
3.我们日常生活中已经每天都在使用人工智能了,只是我们没意识到而已。John
McCarthy,在1956年最早使用了人工智能(Artificial Intelligence)这个词。他总
是抱怨“一旦一东西用人工智能实现了,人们就不再叫它人工智能了。”
因为这种效应,所以人工智能听起来总让人觉得是未来的神秘存在,而不是身边已
经存在的现实。同时,这种效应也让人们觉得人工智能是一个从未被实现过的流行
理念。Kurzweil提到经常有人说人工智能在80年代就被遗弃了,这种说法就好
像“互联网已经在21世纪初互联网泡沫爆炸时死去了”一般滑稽。
所以,让我们从头开始。
首先,不要一提到人工智能就想机器人。机器人只是人工智能的容器,机器人有时
候是人形,有时候不是,但是人工智能自身只是机器人体内的电脑。人工智能是大脑
的话,机器人就是身体——而且这个身体不一定是必需的。比如说Siri背后的软件和数
是人工智能,Siri说话的声音是这个人工智能的人格化体现,但是Siri本身并没有机
器人这个组成部分。
其次,你可能听过“奇点”或者“技术奇点”这种说法。这种说法在数学上用来描述类似渐
进的情,这种情下通常的规律就不 用了。这种说法同被用在物理上来描述
限小的高密度黑洞,同是通常的规律不 用的情。Kurzweil则把奇点定为加速
回报定律达到了极限,技术进步以近乎 限的速度发展,而奇点之后我们将在一个完
全不同的世界生活的。但是当下的很多思考人工智能的人已经不再用奇点这个说法
了,而且这种说法很容易把人弄混,所以本文也尽量少用。
最后,人工智能的概念很宽,所以人工智能也分很多种,我们按照人工智能的实力将
其分成三大类。
弱人工智能Artificial Narrow Intelligence (ANI): 弱人工智能是擅长于单个方面的
人工智能。比如有能战 象棋世界冠军的人工智能,但是它只会下象棋,你要问它
怎更好地在硬盘上储存数,它就不知道怎厶回答你了。
人工智能Artificial General Intelligence (AGI): 人类级别的人工智能。人工
智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造
人工智能比创造弱人工智能难得多,我们现在还做不到。Linda Gottfredson教授
把智能定为“一种宽泛的心理能力,能进行思考、计划、解问题、抽象思
维、理解复杂理念、快速学习和从经验中学习等操作。”人工智能在进行这些操
作时应该和人类一得心应手。
超人工智能Artificial Superintelligence (ASI): 牛津哲学家,知名人工智能思想家
Nick Bostrom把超级智能定为“在几乎所有领域都比最聪明的人类大脑都聪明很
多,包括科学创新、通识和社交技能。”超人工智能可以是各方面都比人类一
点,也可以是各方面都比人类丌亿倍的。超人工智能也正是为什厶人工智能这个
话题这厶火热的缘故,同也是为什厶永生和灭绝这两个词会在本文中多次出现。
现在,人类已经掌握了弱人工智能。其实弱人工智能 处不在,人工智能革命是从弱
人工智能,通过人工智能,最终到达超人工智能的旅途。这段旅途中人类可能会生
还下来,可能不会,但是 论如何,世界将变得完全不一。
让我们来看看这个领域的思想家对于这个旅途是怎厶看的,以及为什厶人工智能革命
可能比你想的要近得多。
我们现在的位置——充满了弱人工智能的世界
弱人工智能是在特定领域等同或者超过人类智能/效率的机器智能,一些常见的例子∶
汽车上有很多的弱人工智能系统,从控制防抱死系统的电脑,到控制汽油注入参
数的电脑。谷歌正在测试的 人驾驶车,就包括了很多弱人工智能,这些弱人工
智能能感知周围环境并作出反应。
你的手机也充满了弱人工智能系统。当你用地图软件导航,接受音乐电台推荐,
查询明天的天气,和Siri聊天,以及其它很多很多应用,其实都是弱人工智能。
垃圾邮件过滤器是一种经典的弱人工智能——它一开始就加载了很多识别垃圾邮
件的智能,并且它会学习并且根你的使用而获得经验。智能室温调节也是一
,它能根你的日常习惯来智能调节。
你在上网时候出现的各种其它电商网站的产品推荐,还有社交网站的好友推荐,
这些都是弱人工智能的组成的,弱人工智能联网互相沟通,利用你的信息来进行
推荐。网购时出现的“买这个商品的人还购买了”推荐,其实就是收集数百丌用户
行为然后产生信息来卖东西给你的弱人工智能。
谷歌翻译也是一种经典的人工智能——非常擅长单个领域。声音识别也是一种。
很多软件利用这两种智能的合作,使得你能对手机说中文,手机直接给你翻译
成英文。
当飞机陆时候,不是一个人类定飞机该去那个登机口接驳。就好像你在网上
买票时票不是一个人类定的。
世界最的跳棋、象棋、拼字棋、双陆棋和黑白棋选手都是弱人工智能。
谷歌搜索是一个巨大的弱人工智能,背后是非常复杂的排序方法和内容检索。社
交网络的新鲜事同是这。
这些还只是消费级产品的例子。军事、制造、金融(高频算法交易占到了美国股
票交易的一半)等领域 泛运用各种复杂的弱人工智能。专业系统也有,比如
助医生诊断疾病的系统,还有著名的IBM的华生,储存了大量事实数,还能理
解主持人的提问,在竞猜节目中能战 最厉害的参赛者。
现在的弱人工智能系统并不人。最糟糕的情, 非是代码没写好,程序出故障,
造成了单独的难,比如造成停电、核电站故障、金融市场崩盘等等。
虽然现在的弱人工智能没有威胁我们生存的能力,我们还是要怀警惕的观点看待正
在变得更加庞大和复杂的弱人工智能的生态。每一个弱人工智能的创新,都在给通往
人工智能和超人工智能的旅途添砖加瓦。用Aaron Saenz的观点,现在的弱人工智
能,就是地球早期软泥中的氨基酸——没有动静的物质,突然之间就组成了生命。
弱人工智能到人工智能之路
为什厶这条路很难走
只有明白创造一个人类智能水平的电脑是多厶不容易,才能让你真的理解人类的智能
是多厶不可思议。造摩天大楼、把人送入太空、明白宇宙大爆炸的细节——这些都比
理解人类的大脑,并且创造个类似的东西要简单太多了。至今为止,人类的大脑是我
们所知宇宙中最复杂的东西。
而且创造人工智能的难处,并不是你本能认为的那些。
造一个能在瞬间算出十位数乘法的计算机——非常简单
造一个能分辨出一个动物是还是狗的计算机——极端困难
造一个能战 世界象棋冠军的电脑——早就成功了
造一个能读懂六岁小朋友的图片书中的文字,并且了解那些词汇意思的电脑——
谷歌花了几十亿美元在做,还没做出来。
一些我们觉得困难的事情——微积分、金融市场策略、翻译等,对于电脑来说都太
简单了
我们觉得容易的事情——视觉、动态、移动、直觉——对电脑来说太TM的难了。
用计算机科学家Donald Knuth的说法,“人工智能已经在几乎所有需要思考的领域超
过了人类,但是在那些人类和其它动物不需要思考就能完成的事情上,还差得很远。”
读者应该能很快意识到,那些对我们来说很简单的事情,其实是很复杂的,它们看上
去很简单,因为它们已经在动物进化的过程中经历了几亿年的优化了。当你举手拿一
件东西的时候,你肩膀、手肘、手腕里的肌肉、肌腱和骨头,瞬间就进行了一组复杂
的物理运作,这一切还配合你的眼睛的运作,使得你的手能都在三维空间中进行直
线运作。对你来说这一切轻而易举,因为在你脑中负责处理这些的“软件”已经很完美
了。同的,软件很难识别网站的验证码,不是因为软件太蠢,恰恰相反,是因为能
读懂验证码是件碉堡了的事情。
同的,大数相乘、下棋等等,对于生物来说是很新的技能,我们还没有几亿年的世
界来进化这些能力,所以电脑很轻易的就击败了我们。试想一下,如果让你写一个程
序,是一个能做大数相乘的程序容易写,还是能识别千千丌丌种字体和笔迹下书写
的英文字母的程序难写?
比如看下面这个图的时候,你和电脑都能识别出这是一个由两种颜色的小长方形组
成的一个大长方形。
你和电脑打了个平手。接我们把途中的黑色部分去除∶
你可以轻易的描述图形中透明或不透明的圆柱和3D图形,但是电脑就看不出来了。电
脑会描述出2D的阴影细节,但是人脑能把这些阴影所展现的深度、阴影混合、房
屋灯光解读出来。
再看下面这张图,电脑看到的是黑白灰,我们看到的是一块全黑的石头
而且,我们到现在谈的还是静态不变的信息。要想达到人类级别的智能,电脑必须要
理解更高深的东西,比如微小的脸部表情变化,开心、放松、满足、满意、高兴这些
类似情绪间的区别,以及为什厶《布达佩斯大饭店》是好电影,而《富春山居图》是
烂电影。
想想就很难吧?
我们要怎才能达到这的水平呢?
通往人工智能的第一步∶增加电脑处理速度
要达到人工智能,肯定要满足的就是电脑硬件的运算能力。如果一个人工智能要像
人脑一般聪明,它至少要能达到人脑的运算能力。
用来描述运算能力的单位叫作cps(calculations per second,每秒计算次数),要计
算人脑的cps只要了解人脑中所有结腹的最高cps,然后加起来就行了。
Kurzweil把对于一个结腹的最大cps的专业估算,然后考虑这个结腹占整个大脑的重
量,做乘法,来得出人脑的cps。听起来不太靠谱,但是Kurzweil用了对于不同大脑区
域的专业估算值,得出的最终结果都非常类似,是10^16 cps,也就是1亿亿次计算每
秒。
现在最快的超级计算机,中国的天河二号,其实已经超过这个运算力了,天河每秒能
进行3.4亿亿。当然,天河二号占地720平方米,耗电2400丌瓦,耗费了3.9亿美元建
造。 泛应用就不提了,即使是大部分商业或者工业运用也是很贵的。
Kurzweil认为考虑电脑的发展程度的标杆是看1000美元能买到多少cps,当1000美元
能买到人脑级别的1亿亿运算能力的时候,人工智能可能就是生活的一部分了。
摩定律认为全世界的电脑运算能力每两年就翻一倍,这一定律有历史数所支持,
这同表明电脑硬件的发展和人类发展一是指数级别的。我们用这个定律来衡量
1000美元什厶时候能买到1亿亿cps。现在1000美元能买到10丌亿cps,和摩定律的
历史预测相符合。
也就是说现在1000美元能买到的电脑已经过了老鼠,并且达到了人脑千分之一的水
平。听起来还是弱爆了,但是,让我们考虑一下,1985年的时候,同的钱只能买到
人脑丌亿分之一的cps,1995年变成了十亿分之一,2005年是百丌分之一,而2015年
已经是千分之一了。按照这个速度,我们到2025年就能花1000美元买到可以和人脑运
算速度抗衡的电脑了。
至少在硬件上,我们已经能人工智能了(中国的天河二号),而且十年以内,我
们就能以低廉的价格买到能支持人工智能的电脑硬件。
但是运算能力并不能让电脑变得智能,下一个问题是,我们怎利用这份运算能力来
达成人类水平的智能。
通往人工智能的第二步∶让电脑变得智能
这一步比较难搞。事实上,没人知道该怎厶搞——我们还停留在争论怎厶让电脑分辨
《富春山居图》是部烂片的阶段。但是,现在有一些策略,有可能会有效。下面是最
常见的三种策略∶
1) 抄袭人脑
就好像你班上有一个学霸。你不知道为什厶学霸那厶聪明,为什厶考试每次都满分。
虽然你也很努力的学习,但是你就是考的没有学霸好。最后你定“老子不干了,我直
接抄他的考试答案好了。”这种“抄袭”是有道理的,我们想要建造一个超级复杂的电
脑,但是我们有人脑这个范本可以参考呀。
科学界正在努力逆向工程人脑,来理解生物进化是怎厶造出这厶个神奇的东西的,乐
观的估计是我们在2030年之前能完成这个任务。一旦这个成就达成,我们就能知道
为什厶人脑能如此高效、快速的运行,并且能从中获得灵感来进行创新。一个电脑
架腹模人脑的例子就是人工神经网络。它是一个由晶体管作为“神经”组成的网络,
晶体管和其它晶体管互相连接,有自己的输入、输出系统,而且什厶都不知道——就
像一个婴儿的大脑。接它会通过做任务来自我学习,比如识别笔迹。最开始它的神
经处理和猜测会是随机的,但是当它得到正确的回馈后,相关晶体管之间的连接就会
被加;如果它得到错误的回馈,连接就会变弱。经过一段时间的测试和回馈后,这
个网络自身就会组成一个智能的神经路径,而处理这项任务的能力也得到了优化。人
脑的学习是类似的过程,不过比这复杂一点,随我们对大脑研究的深入,我们将会
发现更好的组建神经连接的方法。
更加极端的“抄袭”方式是“整脑模”。具体来说就是把人脑切成很薄的片,用软件来准
确的组建一个3D模型,然后把这个模型装在力的电脑上。如果能做成,这台电脑就
能做所有人脑能做的事情——只要让它学习和吸收信息就好了。如果做这事情的工程
师厉害的话,他们模出来的人脑甚至会有原本人脑的人格和记忆,电脑模出的
人脑就会像原本的人脑一——这就是非常符合人类标准的人工智能,然后我们就
能把它改造成一个更加厉害的超人工智能了。
我们 整脑模还有多远呢?至今为止,我们刚刚能模1毫米长的扁虫的大脑,
这个大脑含有302个神经元。人类的大脑有1000亿个神经元,听起来还差很远。但是
要记住指数增长的威力——我们已经能模小虫子的大脑了,蚂蚁的大脑也不远了,
接就是老鼠的大脑,到那时模人类大脑就不是那厶不现实的事情了。
2)模仿生物演化
抄学霸的答案当然是一种方法,但是如果学霸的答案太难抄了呢?那我们能不能学一
下学霸备考的方法?
首先我们很确定的知道,建造一个和人脑一大的电脑是可能的——我们的大脑就
是证。如果大脑太难完全模,那厶我们可以模演化出大脑的过程。事实上,就
算我们真的能完全模大脑,结果也就好像照抄鸟类翅膀的拍动来造飞机一——很
多时候最好的设计机器的方式并不是照抄生物设计。
所以我们可不可以用模演化的方式来造人工智能呢?这种方法叫作“基因算法”,
它大概是这的∶建立一个反复运作的表现/评价过程,就好像生物通过生存这种方式
来表现,并且以能否生养后代为评价一。一组电脑将执行各种任务,最成功的将
会“繁殖”,把各自的程序融合,产生新的电脑,而不成功的将会被剔除。经过多次的
反复后。这个自然选择的过程将产生越来越大的电脑。而这个方法的难点是建立一
个自动化的评价和繁殖过程,使得整个流程能自己运行。
这个方法的缺点也是很明显的,演化需要经过几十亿年的时间,而我们只想花几十
年时间。
但是比起自然演化来说,我们有很多优势。首先,自然演化是没有预知能力的,它是
随机的——它产生的没用的变异比有用的变异多很多,但是人工模的演化可以控制
过程,使其重于有益的变化。其次,自然演化是没有目标的,自然演化出的智能也
不是它目标,特定环境甚至对于更高的智能是不利的(因为高等智能消耗很多能
源)。但是我们可以指挥演化的过程超更高智能的方向发展。再次,要产生智能,自
然演化要先产生其它的附件,比如改良细胞产生能量的方法,但是我们完全可以用电
力来代替这额外的负。所以,人类主导的演化会比自然快很多很多,但是我们依然
不清楚这些优势是否能使模演化成为可行的策略。
3)让电脑来解这些问题
如果抄学霸的答案和模学霸备考的方法都走不通,那就干脆让考题自己解答自己
吧。这种想法很 厘头,确实最有希望的一种。
总的思路是我们建造一个能进行两项任务的电脑——研究人工智能和修改自己的代
码。这它就不只能改进自己的架腹了,我们直接把电脑变成了电脑科学家,提高电
脑的智能就变成了电脑自己的任务。
以上这些都会很快发生
硬件的快速发展和软件的创新是同时发生的,人工智能可能比我们预期的更早降
临,因为∶
1)指数级增长的开端可能像蜗牛漫步,但是后期会跑的非常快
2)软件的发展可能看起来很缓慢,但是一次顿悟,就能永远改变进步的速度。就好
像在人类还信奉地心说的时候,科学家们没法计算宇宙的运作方式,但是日心说的发
现让一切变得容易很多。创造一个能自我改进的电脑来说,对我们来说还很远,但是
可能一个 意的变动,就能让现在的系统变得大千倍,从而开朝人类级别智能的
刺。
人工智能到超人工智能之路
总有一天,我们会造出和人类智能相当的人工智能电脑,然后人类和电脑就会平等
快乐的生活在一起。
呵呵,逗你呢。
即使是一个和人类智能完全一,运算速度完全一的人工智能,也比人类有很多
优势∶
硬件上∶
-速度。脑神经元的运算速度最多是200赫兹,今天的微处理器就能以2G赫兹,也
就是神经元1000丌倍的速度运行,而这比我们达成人工智能需要的硬件还差远
了。大脑的内部信息传播速度是每秒120米,电脑的信息传播速度是光速,差了好
几个数量级。
- 容量和储存空间。人脑就那厶大,后天没法把它变得更大,就算真的把它变得很
大,每秒120米的信息传播速度也会成为巨大的瓶颈。电脑的物理大小可以非常随
意,使得电脑能运用更多的硬件,更大的内存,长期有效的存储介质,不但容量大
而且比人脑更准确。
- 可靠性和持久性。电脑的存储不但更加准确,而且晶体管比神经元更加精确,也
更不容易萎缩(真的坏了也很好修)。人脑还很容易疲劳,但是电脑可以24小时
不停的以峰值速度运作。
软件上来说∶
- 可编辑性,升级性,以及更多的可能性。和人脑不同,电脑软件可以进行更多的
升级和修正,并且很容易做测试。电脑的升级可以加人脑比较弱势的领域——人
脑的视觉元件很发达,但是工程元件就挺弱的。而电脑不但能在视觉元件上匹敌人
类,在工程元件上也一可以加和优化。
- 集体能力。人类在集体智能上可以碾压所有的物种。从早期的语言和大型社区的
形成,到文字和印刷的发明,再到互联网的普及。人类的集体智能是我们统治其它
物种的重要原因之一。而电脑在这方面比我们要的很多,一个运行特定程序的人
工智能网络能经常在全球范围内自我同步,这一台电脑学到的东西会立刻被其
它所有电脑学得。而且电脑集群可以共同执行同一个任务,因为异见、动力、自利
这些人类特有的东西未必会出现在电脑身上。
通过自我改进来达成人工智能的人工智能,会把“人类水平的智能”当作一个重要的
里程碑,但是也就仅此而已了。它不会停留在这个里程碑上的。考虑到人工智能之
于人脑的种种优势,人工智能只会在“人类水平”这个节点做短暂的停留,然后就会开
始大踏步向超人类级别的智能走去。
这一切发生的时候我们很可能被尿,因为从我们的角度来看 a)虽然动物的智能有区
别,但是动物智能的共同特点是比人类低很多;b)我们眼中最聪明的人类要比最愚笨
的人类要聪明很很很很多。
所以,当人工智能开始朝人类级别智能靠近时,我们看到的是它逐渐变得更加智能,
就好像一个动物一般。然后,它突然达到了最愚笨的人类的程度,我们到时也许会感
慨∶“看这个人工智能就跟个脑残人类一聪明,真可爱。”
但问题是,从智能的大局来看,人和人的智能的差别,比如从最愚笨的人类到爱因斯
坦的差距,其实是不大的。所以当人工智能达到了脑残级别的智能后,它会很快变得
比爱因斯坦更加聪明∶
之后呢?
智能爆炸
从这边开始,这个话题要变得有点人了。我在这里要提醒大家,以下所说的都是大
实话——是一大群受人尊敬的思想家和科学家关于未来的诚实的预测。你在下面读到
什厶 谱的东西的时候,要记得这些东西是比你我都聪明很多的人想出来的。
像上面所说的,我们当下用来达成人工智能的模型大多数都依靠人工智能的自我改
进。但是一旦它达到了人工智能,即使算上那一小部分不是通过自我改进来达成
人工智能的系统,也会聪明到能开始自我改进。
这里我们要引出一个沉重的概念——递归的自我改进。这个概念是这的∶一个运行
在特定智能水平的人工智能,比如说脑残人类水平,有自我改进的机制。当它完成一
次自我改进后,它比原来更加聪明了,我们假设它到了爱因斯坦水平。而这个时候它
继续进行自我改进,然而现在它有了爱因斯坦水平的智能,所以这次改进会比上面一
次更加容易,效果也更好。第二次的改进使得他比爱因斯坦还要聪明很多,让它接下
来的改进进步更加明显。如此反复,这个人工智能的智能水平越长越快,直到它达
到了超人工智能的水平——这就是智能爆炸,也是加速回报定律的终极表现。
现在关于人工智能什厶时候能达到人类普遍智能水平还有争议。对于数百位科学家的
问卷调查显示他们认为人工智能出现的中位年份是2040年——距今只有25年。这听
起来可能没什厶,但是要记住,很多这个领域的思想家认为从人工智能到超人工智
能的转化会快得多。以下的情景很可能会发生∶一个人工智能系统花了几十年时间到
达了人类脑残智能的水平,而当这个节点发生的时候,电脑对于世界的感知大概和一
个四岁小孩一般;而在这节点后一个小时,电脑立马推导出了统一 相对论和量子
力学的物理学理论;而在这之后一个半小时,这个人工智能变成了超人工智能,智
能达到了普通人类的17丌倍。
这个级别的超级智能不是我们能理解的,就好像蜜蜂不会理解凯恩斯经济学一。
在我们的语言中,我们把130的智商叫作聪明,把85的智商叫作笨,但是我们不知道
怎厶形容12952的智商,人类语言中根本没这个概念。
Superintelligence of that magnitude is not something we can remotely grasp, any more than a bumblebee can wrap its head around Keynesian Economics. In our world, smart means a 130 IQ and stupid means an 85 IQ—we don’t have a word for an IQ of 12,952.
但是我们知道的是,人类对于地球的统治教给我们一个道理——智能就是力量。也就
是说,一个超人工智能,一旦被创造出来,将是地球有史以来最大的东西,而所有
生物,包括人类,都只能屈居其下——而这一切,有可能在未来几十年就发生。
想一下,如果我们的大脑能发明Wifi,那厶一个比我们聪明100倍、1000倍、甚至
10亿倍的大脑说不定能随时随地操纵这个世界所有原子的位置。那些在我们看来超
自然的,只属于全能的上帝的能力,对于一个超人工智能来说可能就像按一下电灯开
关那厶简单。防止人类衰老,治疗各种不治之症,解世界饥荒,甚至让人类永生,
或者操纵气候来保护地球未来的什厶,这一切都将变得可能。同可能的是地球上所
有生命的终结。
当一个超人工智能出生的时候,对我们来说就像一个全能的上帝降临地球一般。
这时候我们所关心的就是
这篇文章的第一部分完了,我建议你休息一下,喝点水,下面我们要开始第二部分。
第二部分开始∶
文章的第一部分讨论了已经在我们日常生活中随处可见的弱人工智能,然后讨论了为
什厶从弱人工智能到人工智能是个很大的挑战,然后我们谈到了为什厶技术进步的
指数级增长表面人工智能可能并不那厶遥远。第一部分的结束,我们谈到了一旦机
器达到了人类级别的智能,我们将见到如下的场景∶
这让我们 所 从,尤其考虑到超人工智能可能会发生在我们有生之年,我们都不
知道该用什厶表情来面对。
再我们继续深入这个话题之前,让我们提醒一下自己超级智能意味什厶。
很重要的一点是速度上的超级智能和质量上的超级智能的区别。很多人提到和人类一
聪明的超级智能的电脑,第一反应是它运算速度会非常非常快——就好像一个运算
速度是人类百丌倍的机器,能用几分钟时间思考完人类几十年才能思考完的东西
这听起来碉堡了,而且超人工智能确实会比人类思考的快很多,但是真正的差别其实
是在智能的质量而不是速度上。用人类来做比喻,人类之所以比猩猩智能很多,真正
的差别并不是思考的速度,而是人类的大脑有一些独特而复杂的认知模块,这些模块
让我们能进行复杂的语言呈现、长期规划、或者抽象思考等等,而猩猩的脑子是做
不来这些的。就算你把猩猩的脑子加速几千倍,它还是没有办法在人类的层次思考
的,它依然不知道怎用特定的工具来搭建精巧的模型——人类的很多认知能力是猩
猩永远比不上的,你给猩猩再多的时间也不行。
而且人和猩猩的智能差别不只是猩猩做不了我们能做的事情,而是猩猩的大脑根本不
能理解这些事情的存在——猩猩可以理解人类是什厶,也可以理解摩天大楼是什厶,
但是它不会理解摩天大楼是被人类造出来的,对于猩猩来说,摩天大楼那厶巨大的东
西肯定是天然的,句号。对于猩猩来说,它们不但自己造不出摩天大楼,它们甚至没
法理解摩天大楼这东西能被任何东西造出来。而这一切差别,其实只是智能的质量中
很小的差别造成的。
而当我们在讨论超人工智能时候,智能的范围是很 的,和这个范围比起来,人类和
猩猩的智能差别是细微的。如果生物的认知能力是一个楼梯的话,不同生物在楼梯上
的位置大概是这的∶
要理解一个具有超级智能的机器有多牛逼,让我们假设一个在上图的楼梯上站在深绿
色台阶上的一个机器,它站的位置只比人类高两层,就好像人类比猩猩只高两层一
。这个机器只是稍微有点超级智能而已,但是它的认知能力之于人类,就好像人类
的认知能力之于猩猩一。就好像猩猩没有办法理解摩天大楼是能被造出来的一,
人类完全没有办法理解比人类高两层台阶的机器能做的事情。就算这个机器试图向我
们解释,效果也会像教猩猩造摩天大楼一般。
而这,只是比我们高了两层台阶的智能罢了,站在这个楼梯顶层的智能之于人类,就
好像人类之于蚂蚁一般——它就算花再多时间教人类一些最简单的东西,我们依然是
学不会的。
但是我们讨论的超级智能并不是站在这个楼梯顶层,而是站在远远高于这个楼梯的地
方。当智能爆炸发生时,它可能要花几年时间才能从猩猩那一层往上迈一步,但是这
个步子会越迈越快,到后来可能几个小时就能迈一层,而当它超过人类十层台阶的时
候,它可能开始跳爬楼梯了——一秒钟爬四层台阶也未尝不可。所以让我们记住,
当第一个到达人类智能水平的人工智能出现后,我们将在很短的时间内面对一个站
在下图这很高很高的楼梯上的智能(甚至比这更高百丌倍)∶
前面已经说了,试图去理解比我们高两层台阶的机器就已经是徒劳的,所以让我们很
肯定的说,我们是没有办法知道超人工智能会做什厶,也没有办法知道这些事情的后
果。任何假装知道的人都没搞明白超级智能是怎厶回事。
自然演化花了几亿年时间发展了生物大脑,按这种说法的话,一旦人类创造出一个超
人工智能,我们就是在碾压自然演化了。当然,可能这也是自然演化的一部分——可
能演化真正的模式就是创造出各种各的智能,直到有一天有一个智能能创造出超
级智能,而这个节点就好像踩上了地雷的绊线一,会造成全球范围的大爆炸,从而
改变所有生物的命运。
科学界中大部分人认为踩上绊线不是会不会的问题,而是时间早晚的问题。想想真
人。
那我们该怎厶办呢?
可惜,没有人都告诉你踩到绊线后会发生什厶。但是人工智能思想家Nick Bostrom认
为我们会面临两类可能的结果——永生和灭绝。
首先,回顾历史,我们可以看到大部分的生命经历了这的历程∶物种出现,存在了
一段时间,然后不可避免的跌落下生命的平衡木,跌入灭绝的深渊。
历史上来说,“所有生物终将灭绝”就像“所有人都会死”一靠谱。至今为止,存在过的
生物中99.9%都已经跌落了生命的平衡木,如果一个生物继续在平衡木上走,早晚会
有一阵风把它吹下去。Bostrom把灭绝列为一种吸引态——所有生物都有坠入的风
险,而一旦坠入将没有回头。
虽然大部分科学家都承认一个超人工智能有把人类灭绝的能力,也有一些人为如果运
用得当,超人工智能可以助人类和其它物种,达到另一个吸引态——永生。
Bostrom认为物种的永生和灭绝一都是吸引态,也就是我一旦我们达成了永生,我
们将永远不再面临灭绝的危险——我们战 了死亡和几率。所以,虽然绝大多数物种
都从平衡木上摔了下去灭绝了,Bostrom认为平衡木外是有两面的,只是至今为止地
球上的生命还没聪明到发现怎去到永生这另一个吸引态。
如果Bostrom等思想家的想法是对的,而且根我的研究他们确实很可能是对的,那
厶我们需要接受两个事实∶
1)超人工智能的出现,将有史以来第一次,将物种的永生这个吸引态变为可能
2)超人工智能的出现,将造成非常巨大的击,而且这个击可能将人类吹下平
衡木,并且落入其中一个吸引态
有可能,当自然演化踩到绊线的时候,它会永久的终结人类和平衡木的关系,创造一
个新的世界,不管这时人类还是不是存在。
而现在的问题就是∶“我们什厶时候会踩到绊线?”以及“从平衡木上跌下去后我们会掉
入哪个吸引态?”
没人知道答案,但是一些聪明人已经思考了几十年,接下来我们看看他们想出来了些
什厶。
___________
先来讨论“我们什厶时候会踩到绊线?”也就是什厶时候会出现第一个超级智能。
不出意外的,科学家和思想家对于这个意见的观点分歧很大。很多人,比如Vernor
Vinge教授,科学家Ben Goertzel,SUN创始人Bill Joy,发明家和未来学家Ray
Kurzweil,认同机器学习专家Jeremy Howard的观点,Howard在TED演讲时用到了这
张图∶
这些人相信超级智能会发生在不久的将来,因为指数级增长的关系,虽然机器学习现
在还发展缓慢,但是在未来几十年就会变得飞快。
其它的,比如微软创始人Paul Allen,心理学家Gary Marcus,NYU的电脑科学家
Ernest Davis,以及科技创业者Mitch Kapor认为Kurzweil等思想家低估了人工智能的
难度,并且认为我们 绊线还挺远的。
Kurzweil一派则认为唯一被低估的其实是指数级增长的力,他们把质疑他们理论的
人比作那些1985年时候看到发展速度缓慢的因特网,然后觉得因特网在未来不会有什
厶大影响的人一。
而质疑者们则认为智能领域的发展需要达到的进步同是指数级增长的,这其实把技
术发展的指数级增长抵消了。
争论如此反复。
第三个阵营,包括Nick Bostrom在内,认为其它两派都没有理由对踩绊线的时间那厶
有信心,他们同时认为 a) 这事情完全可能发生在不久的未来 b)但是这个事情没个
准,说不定会花更久
还有不属于三个阵营的其他人,比如哲学家Hubert Dreyfus,相信三个阵营都太天真
了,根本就没有什厶绊线。超人工智能是不会被实现的。
当你把所有人的观点全部融合起来的话是怎呢?
2013年的时候,Bostrom做了个问卷调查,涵盖了数百位人工智能专家,问卷的内容
是“你预测人类级别的人工智能什厶时候会实现”,并且让回答者给出一个乐观估计
(人工智能有10%的可能在这一年达成),正常估计(有50%的可能达成),和悲
观估计(有90%可能达成)。当把大家的回答统计后,得出了下面的结果∶
乐观估计中位年(人工智能有10%的可能在这一年达成)∶2022年
正常估计中位年(人工智能有50%的可能在这一年达成)∶2040年
悲观估计中位年(人工智能有90%的可能在这一年达成)∶2075年
所以一个中位的人工智能专家认为25年后的2040年我们能达成人工智能,而2075
年这个悲观估计表明,如果你现在年轻,有一半以上的人工智能专家认为在你的有
生之年能有90%的可能见到人工智能的实现。
另外一个独立的调查,由作家James Barrat在Ben Goertzel的人工智能年会上进
行,他直接问了参与者认为人工智能哪一年会实现,选项有2030年,2050年,
2100年,和永远不会实现。结果是∶
2030年∶42%的回答者认为人工智能会实现
2050年∶25%的回答者
2100年∶20%
2100年以后∶10%
永远不会实现∶2%
这个结果和Bostrom的结果很相似。在Barrat的问卷中,有超过三分之二的参与者认为
人工智能会在2050年实现,有近乎半数(42%)的人认为未来15年(2030年)就
能实现。并且,只有2%的参与者认为人工智能永远不会实现。
但是人工智能并不是绊线,超人工智能才是。那厶专家们对超人工智能是怎厶想的
呢?
Bostrom的问卷还询问专家们认为达到超人工智能要多久,选项有a)达成人工智能
两年内,b)达成人工智能30年内。问卷结果如下∶
中位答案认为人工智能到超人工智能只花2年时间的可能性只有10%左右,但是30
年之内达成的可能性高达75%
从以上答案,我们可以估计一个中位的专家认为人工智能到超人工智能可能要花20
年左右。所以,我们可以得出,现在全世界的人工智能专家中,一个中位的估计是我
们会在2040年达成人工智能,并在20年后的2060年达成超人工智能——也就是踩
上了绊线。
当然,以上所有的数都是推测,它只代表了现在人工智能领域的专家的中位意见,
但是它告诉我们的是,很大一部分对这个领域很了解的人认为2060年是一个实现超人
工智能的合理预测——距今只有45年。
那厶我们来看一下下一个问题,踩到绊线后,我们将跌向平衡木的哪一个方向?
超级智能会产生巨大的力量,所以关键的问题时——到时这股力量究竟由谁掌握,掌
握这份力量的人会怎厶做?
这个问题的答案将定超人工智能究竟是天堂还是地狱。
同的,专家们在这个问题上的观点也不统一。Bostrom的问卷显示专家们看待人
工智能对于人类社会的影响时,52%认为结果会是好或者非常好的,31%认为会是糟
糕的或者非常糟糕的,只有17%的人认为结果会是不好不坏的。也就是说,这个领域
的专家普遍认为这将是一个很大的事情,不论结果好坏。要注意的是,这个问题问的
是人工智能,如果问的是超人工智能,认为结果不好不坏的人可能不会有17%这厶
多。
在我们深入讨论好坏这个问题之前,我们先把“什厶时候会发生”和“这是好事还是坏
事”的结果综合起来画张表,这代表了大部分专家的观点∶
我们等下再考虑主流阵营的观点。咱们先来问一下你自己是怎厶想的,其实我大概能
猜到你是怎厶想的,因为我开始研究这个问题前也是这的想的。很多人其实不关心
这个话题,原因 非是∶
像本文第一部分所说,电影展示了很多不真实的人工智能场景,让我们认为人工智能
不是正经的课题。作家James Barrat把这比作传染病控制中心发布吸血鬼警报一滑
稽。
因为认知偏差,所以我们在见到证前很难相信一件事情是真的。我确信1988年的时
候电脑科学家们就已经常在讨论因特网将是多厶重要,但是一般人并不会认为因特网
会改变他们的生活——直到他们的生活真的被改变了。一方面,1988年的电脑确实不
给力,所以那时的人们看电脑会想∶“这破玩意儿也能改变我的生活,你逗我
吧?”人们的想象力被自己对于电脑的体验而约束。让他们难以想象电脑会变成现在的
子。同的事情正发生在人工智能领域。我们听到很多人说人工智能将会造成很大
影响,但是因为这个事情还没发生,因为我们和一些弱爆了的人工智能系统的个人经
历,让我们难以相信这东西真的能改变我们的生活。而这些认知偏差,正是专家们在
努力对抗的。
就算我们相信人工智能的巨大力,你今天又花了多少时间思考“在接下来的永恒中,
绝大部分时间我都不会再存在”这个问题?虽然这个问题比你今天干的大部分事情都重
要很多,但是正常人都不会老是想这个吧。这是因为你的大脑总是关注日常的小事,
不管长期来看有多少重要的事情,我们天生就是这厶思考的。
这篇东西的主要目标就是让你脱 普通人阵营,加入专家思考的阵营,哪怕能让你站
到两条不确定线的交点上,目标也达到了。
在我的研究中,我见识到了各种各的观点,但是我发现大多数人的观点都停留在主
流阵营中。事实上超过四分之三的专家都属于主流阵营中的两个小阵营∶焦虑大道和
信心角
我们将对这两个小阵营做深入的谈论,让我们从比较有趣的那个开始吧
为什厶未来会是天堂
研究人工智能这个领域后,我发现有比预期的多得多的人站在信心角当中∶
站在信心角中的人非常兴奋,他们认为他们将走向平衡木下比较有趣的那个吸引态,
未来将实现他们的想,他们只需耐心等待。
把这一部分人从其他思想家区分开来的是这些人对于比较有趣的那个吸引态的欲望
——他们很有信心永生是我们的发展方向。
这份信心是哪里来的不好说,评论家认为是这些人太过兴奋而产生了盲点,忽略了可
能的负面结果。但是信心角的人还是把批评者当作末日论者来看待,他们认为技术会
继续助我们而不是伤害我们。
两边的观点我们都会说,这你能形成自己的观点,但是在读下面的内容前,请把质
疑暂时搁置,让我们看看平衡木两边究竟有什厶,并且记住这些事情是有可能发生
的。如果我们给一个打猎采集者看我们现在的舒 家居、技术、富庶,在他眼里这一
切也会像魔法一——我们也要接受未来完全可能出现能把我们尿的变革。
Bostrom描述了三种超人工智能可能的工作模式
- 先知模式∶能准确回答几乎所有的问题,包括对人类来说很困难的复杂问题,比
如“怎造一个更好的汽车引擎?”
- 精灵模式∶能执行任何高级指令,比如用分子组合器造一个更好的汽车引擎出
来
- 独立意志模式(sovereign):可以执行开放式的任务,能在世界里自由活动,可
以自己做定,比如发明一种比汽车更快、更便宜、更安全的交通模式。
这些对人类来说很复杂的问题,对于一个超级智能来说可能就像“我的笔掉了,你能
我捡一下吗?”这厶简单。
Eliezer Yudkowsky,是这厶说的∶
“根本没有困难的问题,只有对于特定级别的智能来说难的问题。在智能的阶梯上
走一小步,一些不可能的问题就变得简单了,如果走一大步,所有问题都变得简单
了。”
信心角里有很多热忱的科学家、发明家和创业者,但是对于人工智能的未来最有发言
权的,当属Ray Kurzweil.
对于Kurzweil的评价非常两极化,既有如对神人般的崇拜,也有翻白眼似的不屑。也
有一些中立主者,比如作家Douglas Hofstadter,他觉得Kurzweil的观点就好像把美
食和狗屎混在一起,让你分不清是好是坏。
不管你同不同意Kurzweil的观点,他都是一个牛人。他年轻时候就开始搞发明,之后
几十年发明了很多东西,比如第一台平板扫描仪,第一台能把文字转化为语言的扫描
仪(盲人使用),著名的Kurzweil音乐合成器(第一台真正意上的电子钢琴),以
及第一套商业销售的语音识别系统。他是五本畅销书的作者。他很喜欢做大胆的预
测,而且一直很准,比如他80年代末的时候预测到2000年后因特网会成为全球级的现
象。他被《华街日报》成为“不休的天才”,被《福布斯》称为“终极思想机器”,被
《Inc.》称作“爱迪生真正的传人”,被比盖茨称为“我认识的对人工智能预测最厉害
的人。”2012年谷歌创始人Larry Page曾邀请他任谷歌的工程总监,2011年他共同
创立了奇点大学(Singularity University),现在大学由美国太空总署运运营,由谷歌
赞助。
Kurzweil的经历很重要,因为当他讲述自己对未来的愿景时,他听起来就是个疯子,
但是他不疯,恰恰相反,他非常聪明而有知识。你可能觉得他对于未来的想法是错
的,但是他不傻。知道他是一个聪明人让我很开心,因为当我知道他对未来的预测
后,我急切的很希望他的预测是对的。信心角中的很多思想家都认同Kurzweil的预
测,他也有很多粉丝,被称为奇点主者。
时间线
Kurzweil相信电脑会在2029年达成人工智能,而到了2045年,我们不但会有超人
工智能,还会有一个完全不同的世界——奇点时代。他的人工智能时间线曾经被认为
非常的狂热,现在也还是有很多人这厶认为,但是过去15年弱人工智能的快速发展让
更多的专家靠近了Kurzweil的时间线。虽然他的时间线比之前提到的2040年和2060年
更加早,但是并没有早多少。
Kurzweil的奇点时代是三个技术领域的共同革命造成的——生物技术、纳米技术和最
重要的人工智能技术。
在我们继续讨论人工智能前,让我们谈一下纳米技术这个任何关于人工智能的讨论都
会涉及到的领域
纳米技术
纳米技术说的是在1-100纳米的范围内操纵物质的技术。一纳米是一米的十亿分之
一,是一毫米的一百丌分之一。1-100纳米这个范围涵盖了病毒(100纳米长),
DNA(10纳米宽), 大分子比如血红蛋白(5纳米),和中分子比如葡萄糖(1纳
米)。当我们能完全掌握纳米技术的时候,我们 在原子层面操纵物质就只差一
步了,因为那只是一个数量级的差距(约0.1纳米)。
要了解在纳米量级操纵物质有多困难,我们可以换个角度来比较。国际空间站距
地面431公里。如果一个人身高431公里,也就是他站能顶到国际空间站的
话,他将是普通人类的25丌倍大。如果你把1-100纳米放大25丌倍,你算出的是
0.25毫米-25毫米。所以人类使用纳米技术,就相当于一个身高431公里的巨人用
沙子那厶大的零件搭精巧的模型。如果要达到原子级别操纵物质,就相当于让这个
431公里高的巨人使用0.025毫米大的零件。
关于纳米技术的思考,最早由物理学家费曼在1959年提出,他解释道∶“我所
知,物理学的原理,并不认为在原子级别操纵物质是不可能的。原则上来说,物理
学家能制造出任何化学家能写出来的物质——只要把一个个原子按照化学家写出
来的放在一起就好了。”其实就是这厶简单,所以我们只要知道怎移动单个的分
子和原子,我们就可以造出任何东西。
工程师Eric Drexler提出纳米级组装机后,纳米技术在1986年成为了一门正经的学
科。纳米级组装机的工作原理是这的∶一个牛逼扫描仪扫描物件的3D原子模
型,然后自动生成用来组装的软件。然后由一台中央电脑和数丌亿的纳米“机器
人”,通过软件用电流来指挥纳米机器人,最后组成所需要的物件。
--------------------------
再扯远一点
纳米技术有一些不是那厶有趣的部分——能制造数丌亿的纳米机器人唯一合理的
方法就是制造可以自我复制的范本,然后让指数级增长来完成建造任务。很机智
吧?
是很机智,但是这一不小心就会造成世界末日。指数级增长虽然能很快的制造数丌
亿的纳米机器人,但这也是它可怕的地方——如果系统出故障了,指数级增长没有
停下来,那怎厶办?纳米机器人将会吞噬所有碳基材料来支持自我复制,而不巧的
是,地球生命就是碳基的。地球上的生物质量大概包含10^45个碳原子。一个纳米
机器人有10^6个碳原子的话,只需要10^39个纳米机器人就能吞噬地球上全部的生
命了,而2^130约等于10^39,也就是说自我复制只要进行130次就能吞噬地球生
命了。科学家认为纳米机器人进行一次自我复制只要100秒左右,也就是说一个简
单的错误可能就会在3.5小时内毁灭地球上全部的生命。
更糟糕的是,如果恐怖分子掌握了纳米机器人技术,并且知道怎厶操纵它们的话,
他可以先造几丌亿个纳米机器人,然后让它们散播开来。然后他就能发动袭击,这
只要花一个多小时纳米机器人就能吞噬一切,而且这种攻击 法阻挡。未来真的
是能把人尿的。
------------------------
等我们掌握了纳米技术后,我们就能用它来制造技术产品、衣服、食物、和生物产
品,比如人造红细胞、癌症细胞摧毁者、肌肉纤维等等。而在纳米技术的世界里,
一个物质的成本不再取于它的稀缺程度或是制造流程的难度,而在于它的原子结
腹有多复杂。在纳米技术的时代,钻石可能比橡皮擦还便宜。
我们还没掌握这种技术,我们甚至不知道我们对于达成这种技术的难度是高估了还
是低估了,但是我们看上去 那并不遥远。Kurzweil预测我们会在21世纪20年代掌
握这的技术。各国政府知道纳米技术将能改变地球,所以他们投入了很多钱到这
个领域,美国、欧盟和日本至今已经投入了50亿美元。
设想一下,一个具有超级智能的电脑,能使用纳米级的组装器,是种什厶的体
验?要记得纳米技术是我们在研究的玩意儿,而且我们就快掌握这项技术了,而我
们能做的一切在超人工智能看来就是小儿科罢了,所以我们要假设超人工智能能
创造出比这要发达很多很多的技术,发达到我们的大脑都没有办法理解。
因此,当考虑“如果人工智能革命的成果对我们是好的”这个命题的时候,要记得我们
根本没法高估会发生什厶。所以就算下面对于超人工智能的预测显得太不靠谱,要记
得这些进展可能是用我们没有办法想象的方法达成的。事实上,我们的大脑很可能根
本没法预测将会发生什厶。
----------------
人工智能能为我们做什厶
拥有了超级智能和超级智能所能创造的技术,超人工智能可以解人类世界的所有问
题。气候变暖?超人工智能可以用更优的方式产生能源,完全不需要使用化石燃料,
从而停止二氧化碳排放。然后它能创造方法移除多余的二氧化碳。癌症?没问题,有
了超人工智能,制药和健康行业将经历 法想象的革命。世界饥荒?超人工智能可以
用纳米技术直接搭建出肉来,而这些搭建出来的肉和真肉在分子结腹上会是完全相同
的——换句话说,就是真肉。
纳米技术能把一堆垃圾变成一堆新鲜的肉或者其它食品,然后用超级发达的交通把
这些食物分配到世界各地。这对于动物也是好消息,我们不需要屠杀动物来获得肉
了。而超人工智能在拯救濒危物种和利用DNA复活已灭绝物种上面也能做很多事情。
超人工智能甚至可以解复杂的宏观问题——我们关于世界经济和贸易的争论将不再
必要,甚至我们对于哲学和道德的苦苦思考也会被轻易的解。
但是,有一件事是如此的吸引人,光是想想就能改变对所有事物的看法了∶
几个月前,我提到我很羡慕那些可能达成了永生的文明。但是,现在,我已经在认真
的考虑达成永生这个事情很可能在我们有生之年就能达成。研读人工智能让你重新审
思对于所有事情的看法,包括死亡这一很确定的事情。
自然演化没有理由让我们活得比现在更长。对于演化来说,只要我们能活到能生
育后代,并且养育后代到能自己保护自己的年纪,那就了——对演化来说,活30
多岁完全了,所以额外延长生命的基因突变并不被自然选择所钟爱。这其实是很
趣的事情。
而且因为所有人都会死,所以我们总是说“死亡和缴税”是不可避免的。我们看待衰老
就像看待时间一——它们一直向前,而我们没有办法阻止它们。
但是这个假设是错的,费曼曾经写道∶
“在所有的生物科学中,没有任何证说明死亡是必需的。如果你说你想造永动
机,那我们对于物理学的研究已经让我们有足的理论来说明这是不可能的。但是
在生物领域我们还没发现任何证证明死亡是不可避免的。也就是说死亡不一定是
不可避免的,生物学家早晚会发现造成我们死亡的原因是什厶,而死亡这个糟糕
的‘病’就会被治好,而人类的身体也将不再只是个暂时的容器。”
事实上,衰老和时间不是绑死的。时间总是会继续前进的,而衰老不一定。仔细想
想,衰老只是身体的组成物质用旧了。汽车开久了也会旧,但是汽车一定会衰老吗?
如果你能拥有完美的修复技术、或者直接替换老旧的汽车部件,这辆车就能永远开
下去。人体只是更加复杂而已,本质上和汽车是一的。
Kurzweil提到由Wifi连接的纳米机器人在血液中流动,可以执行很多人类健康相关的任
务,包括日常维修,替换死去的细胞等等。如果这项技术能被完美掌握,这个流程
(或者一个超人工智能发明的更好的流程)将能使人的身体永远健康,甚至越活越年
轻。一个60岁的人和一个30岁的人身体上的区别只是物理上的,只要技术足发达我
们是能改变这种区别的。
超人工智能可以建造一个“年轻机器”,当一个60岁的人走进去后,再出来时就拥有了
年轻30岁的身体。就算是逐渐糊涂的大脑也可能年轻化,只要超人工智能足聪明,
能发现不影响大脑数的方法来改造大脑就好了。一个90岁的失忆症患者可以走
进“年轻机器”,再出来时就拥有了年轻的大脑。这些听起来很 谱,但是身体只是一
堆原子罢了,只要超人工智能可以操纵各种原子结腹的话,这就完全不 谱。
Kurzweil的思维继续跳跃了一下,他相信人造材料将越来越多的融入人体。最开始,
人体器官将被先进的机械器官所代替,而这些机械器官可以一直运行下去。然后我们
会开始重新设计身体,比如可以用自我驱动的纳米机器人代替血红细胞,这连心脏
都省了。Kurzweil甚至认为我们会改造自己的大脑,使得我们的思考速度比现在快亿
丌倍,并且使得大脑能和云存储的信息进行交流。
我们能获得的新体验是 穷的。人类的性爱,使得人们不但能生育,还能从中享乐。
Kurtzweil认为我们可以对食物做同的改造。纳米机器人可以负责把身体需要的营养
物质传送到细胞中,智能的将对身体不好的东西排出体外——就像一个食物避孕套一
。纳米技术理论家Robert A. Freitas已经设计了一种红细胞的替代品,能让人快
速刺15分钟不需要呼吸——那厶超人工智能能对我们的身体能力做的改造就更加难
以想象。虚现实将拥有新的意——体内的纳米机器人将能控制我们从感官获得的
信号,然后用别的信号替代他们,让我们进入一个新的环境,在新环境里,我们能
听、看、闻、触摸。。。
最终,Kurzweil认为人类会完全变成人工的。有一天当我们看到生物材料,然后觉得
生物材料实在太原始了,早年的人体居然是用这的东西组成的,早期的人类居然会
被微生物、意外、疾病杀死。这就是Kurzweil眼中人类最终战 自己的生理,并且变
得不可摧毁和永生,这也是平衡木的另一个吸引态。他深深的想象我们会达到那里,
而且就在不久的将来。
Kurzweil的想法很自然的受到了各方的批评。他对于2045年奇点时代的到来,以及之
后的永生的可能性受到了各种嘲笑——“书呆子的狂欢”、“高智商人士的创始论”等等。
也有人质疑他过于乐观的时间线,以及他对人脑和人体的理解程度,还有他将摩定
于应用到软件上的做法。有很多人相信他,但有更多人反对他。
但是即使如此,那些反对他的专家并不是反对他所说的一切,反对他的人说的不是“这
种事情不可能发生”,而是说“这些当然可能发生,但是到达超人工智能是很难的。”连
经常提醒我们人工智能的在威胁的Bostrom都这厶说∶
很难想象一个超级智能会有什厶问题是解不了,或是不能我们解的。疾
病、贫困、环境毁灭、各种不必要的苦难,这些都是拥有纳米科技的超级智能能
解的。而且,超级智能可以给我们 限的生命,这可以通过停止或者逆转衰老来
达成,也可以让我们上传自己的数。一个超级智能还能让我们大幅度提高智商和
情商,还能助我们创造这种有趣的体验世界,让我们享乐。
这是Bostrom这个明显不在信心角的人的观点,但也是很多反对Kurzweil的专家的观
点,他们不觉得Kurzweil是在说话,只是觉得我们首先要安全达成超人工智能。这
也是为什厶我觉得Kurzweil的观点很有传染性,他传达了正面的信息,而这些事情都
是可能的——如果超人工智能是个仁慈的神的话。
对信心角的最有力的批评,是那些信心角里的人都低估了超人工智能的坏处。
Kurzweil的畅销书《The Singularity is Near》700多页,只有20页用来讨论人工智能
的危险。前面提到,当超人工智能降临时我们的命运取于谁掌握这股力量,以及他
们是不是好人。Kurzweil的回答是“超人工智能正从多方的努力中出现,它将深深的融
入我们文明的基建中。它会亲密的被捆绑在我们的身体和大脑中,它会反映我们的价
值,因为它就是我们。”
但如果答案就是这的话,为什厶这个世界上最聪明的一些人会很忧?为什厶霍金
会说超人工智能会毁灭人类?为什厶比盖茨会不理解为什厶有人不为此忧?为什
厶马斯克会心我们是在召唤恶魔?为什厶那厶多专家心超人工智能是对人类最大
的威胁?这些站在焦虑大道上的思想家,不认同Kurzweil对于人工智能的危险的粉
饰。他们非常非常心人工智能革命,他们不关注平衡木下比较有趣的那一个吸引
态,而是盯平衡木的另一边,而他们看到的是可怕的未来,一个我们未必能逃
的未来。
___________
未来可能是我们最糟的恶
我想了解人工智能的一个原因是“坏机器人”总是让我很困惑。那些关于邪恶机器人的
电影看起来太不真实,我也没法想象一个人工智能变得危险的真实情。机器人是我
们造的,难道我们不会在设计时候防止坏事的发生吗?我们难道不能设立很多安全机
制吗?再不济,难道我们不能拔插头吗?而且为什厶机器人会想要做坏事?或者说,
为什厶机器人会“想要”做任何事?我充满疑问,于是我开始了解聪明人们的想法。
这些人一般位于焦虑大道∶
焦虑大道上的人并不是恐慌或者 助的——恐慌和 助在图上的位置是更加左边——
他们只是紧张。位于图表的中央不代表他们的立场是中立的——真正中立的人有自己
独立的阵营,他们认同极好和极坏两种可能,但是不确定究竟会是哪个。
焦虑大道上的人是部分为超人工智能感到兴奋的——他们只是很心人类现在的表现
就好像《夺奇兵》中的这位少年∶
他拿自己的鞭子和物,非常开心,然后他就挂了∶
同时,印第安纳琼斯则更加有见识和更加谨慎,了解在的危险并且做出相应的反
应,最后安全逃出了山洞。当我了解了焦虑大道的人们的想法后,感觉就像“我们现在
傻呵呵的,很容易像前面那小子一被弄死,还是努力做印第安纳琼斯吧。”
那究竟是什厶让焦虑大道的人们如此焦虑呢?
首先, 上来讲,在创造超人工智能时,我们其实是在创造可能一件会改变所有事
情的事物,但是我们对那个领域完全不清楚,也不知道我们到达那块领域后会发生什
厶。科学家Danny Hillis把这个比作“就好像单细胞生物向多细胞生物转化的时候那
,还是阿米巴虫的我们没有办法知道我们究竟在创造什厶鬼。”
Bostrom则忧创造比自身聪明的东西是个基础的达文错误,就好像麻雀妈妈定
收养一只小头鹰,并且觉得头鹰长大后会保护麻雀一家,但是其它麻雀觉得这
是个糟糕的主意。
当你把“对那个领域完全不清楚”和“当它发生时将会产生巨大的影响”结合在一起时,
你创造出了一个很恐怖的词——
生存危机指可能对人类产生永久的难性效果的事情。通常来说,生存危机意味灭
绝。下面是Bostrom的图表∶
可以看到,生存危机是用来指那些跨物种、跨代(永久伤害)并且有严重后果的事
情。它可以包括人类遭受永久苦难的情,但是这基本上和灭绝没差了。三类事情可
能造成人类的生存危机∶
1)自然——大型陨石撞,大气变化使得人类不能生活在空气中,席卷全球的致
命病毒等
2)外星人——霍金、卡萨根等建议我们不要对外 播自己的位置。他们不想我
们变成邀请别人来殖民的傻子。
3)人类——恐怖分子获得了可以造成灭绝的武器,全球的难性战争,还有不经
思考就造出个比我们聪明很多的智能
Bostrom指出1和2在我们物种存在的前十丌年还没有发生,所以在接下来一个世纪发
生的可能性不大。3则让他很害怕,他把这些比作一个装玻璃球的罐子,罐子里大
部分是白色玻璃球,小部分是红色的,只有几个是黑色的。每次人类发明一些新东
西,就相当于从罐中取出一个玻璃球。大多数发明是有利或者中立的——那些是白色
玻璃球。有些发明对人类是有害的,比如大规模杀伤性武器——这是那些红色玻璃
球。还有一些发明是可以让我们灭绝的,这就是那些黑色玻璃球。很明显的,我们还
没摸到黑色玻璃球,但是Bostrom认为不久的未来摸到一个黑色玻璃球不是完全不可
能的。比如核武器突然变得很容易制造了,那恐怖分子很快会把我们炸回石器时代。
核武器还算不上黑色玻璃球,但是差的不远了。而超人工智能是我们最可能摸到的黑
色玻璃球。
你会听到很多超人工智能带来的坏处——人工智能取代人类工人,造成大量失业;因
为解了衰老造成的人口膨胀。但是真正值得我们心的是生存危机的可能性。
于是我们又回到了前面的问题,当超人工智能降临时,谁会掌握这份力量,他们又会
有什厶目标?
当我们考虑各种力量持有人和目标的排列组合时,最糟糕的明显是∶怀恶意的人/组
织/政府,掌握怀有恶意的超人工智能。这会是什厶的情呢?
怀恶意的人/组织/政府,研发出第一个超人工智能,并且用它来实现自己的邪恶计
划。我把这称作贾法情。阿拉丁神灯故事中,坏人贾法掌握了一个精灵,特别
让人讨厌。所以如果ISIS手下有一群工程师狂热的研发人工智能怎厶办?或者说伊朗
和朝鲜,机缘巧合,不小心造成了人工智能的快速发展,达成了超人工智能怎厶办?
这当然是很糟糕的事,但是大部分专家认为糟糕的地方不在于这些人是坏人,而在于
在这些情下,这些人基本上是不经思考就把超人工智能造出来,而一造出来就失去
了对超人工智能的控制。
然后这些创造者,连其他人的命运,都取于这个超人工智能的动机了。专家认为
一个怀恶意并掌握超人工智能的人可以造成很大的伤害,但不至于让我们灭绝,
因为专家相信坏人和好人在控制超人工智能时会面临一的挑战。
如果被创造出来的超人工智能是怀有恶意的,并且定毁灭我,怎厶办?这就是大部
分关于人工智能的电影的剧情。人工智能变得和人类一聪明,甚至更加聪明,然后
定对人类下手——这里要指出,那些提醒我们要警惕人工智能的人谈的根本不是这
种电影情节。邪恶是一个人类的概念,把人类概念应用到非人类身上叫作人化,本
文会尽量避免这种做法,因为没有哪个人工智能会像电影里那变成邪恶的。
人工智能的自我意识
我们开始谈论到了人工智能讨论的另一个话题——意识。如果一个人工智能足聪
明,它可能会嘲笑我们,甚至会嘲讽我们,它会声称感受到人类的情感,但是它是
否真的能感受到这些东西呢?它究竟是看起来有自我意识,还是确实拥有自我意
识?或者说,聪明的人工智能是否真的会具有意识,还是看起来有意识?
这个问题已经被深入的讨论过,也有很多思想实验,比如John Searle的中文屋实
验。这是个很重要的问题,因为它会影响我们对Kurzweil提出的人类最终会完全人
工化的看法,它还有道德考量——如果我们模出丌亿个人脑,而这些人脑表现的
和人类一,那把这些模大脑底关闭的话,在道德上和关掉电脑是不是一
的?还是说这和种族屠杀是等价的?本文主要讨论人工智能对人类的危险,所以人
工智能的意识并不是主要的讨论点,因为大部分思想家认为就算是有自我意识的超
人工智能也不会像人类一变得邪恶。
但这不代表非常坏的人工智能不会出现,只不过它的出现是因为它是被那设定的
——比如一个军方制造的弱人工智能,被设定成具有杀人和提高自我智能两个功能。
当这个人工智能的自我改进失控并且造成智能爆炸后,它会给我们带来生存危机,因
为我们面对的是一个主要目标是杀人的超人工智能——但这也不是专家们心的。
那厶专家们究竟心什厶呢?我们来讲个小故事∶
一个15人的小创业公司,取名叫“隔壁老王机器人公司”,他们的目标是“发展创新
人工智能工具使人类能少干活多享受。”他们已经有几款产品上架,还有一些正
在发展。他们对下一个叫作“隔壁老王”的项目最报希望。隔壁老王是一个简单的人
工智能系统,它利用一个机器臂在小卡片上写字。
“隔壁老王机器人公司”的员工认为隔壁老王会是他们最热卖的产品,他们的目标是
完善隔壁老王的手写能力,而完善的方法是让他不停的写这句话——
等隔壁老王手写能力越来越的时候,它就能被卖去那些需要发营销信件的公司,
因为手写的信更有可能被收信人打开。
为了建立隔壁老王的手写能力,它被设定成把“我们爱我们的顾客”用正楷写,而“隔
壁老王机器人公司”用斜体写,这它能同时锻炼两种书写能力。工程师们上传了
数千份手写本,并且创造了一个自动回馈流程——每次隔壁老王写完,就拍个
照,然后和本进行比对,如果比对结果超过一定标准,就产生一个正面回馈,反
之就产生一个负面评价。每个评价都会助提高隔壁老王的能力。为了能尽快达
成这个目标,隔壁老王最初被设定的一个目标就是“尽量多的书写和测试,尽量快
的执行,并且不断提高效率和准确性。”
让隔壁老王机器人公司兴奋的是,隔壁老王的书写越来越好了。它最开始的笔迹很
糟糕,但是经过几个星期后,看起来就像人写的了。它不断改进自己,使自己变得
更加创新和聪明,它甚至产生了一个新的算法,能让它以三倍的速度扫描上传的照
片。
随时间的推移,隔壁老王的快速进展持续让工程师们感到欣喜。工程师们对自我
改进模块进行了一些创新,使得自我改进变得更好了。隔壁老王原本能进行语音识
别和简单的语音回放,这用户就能直接把想写的内容口述给隔壁老王了。随隔
壁老王变得越来越聪明,它的语言能力也提高了,工程师们开始和隔壁老王闲聊,
看它能给出什厶有趣的回应。
有一天,工程师又问了隔壁老王那个日常问题∶“我们能给你什厶你现在还没有的
东西,能助你达成你的目标?”通常隔壁老王会要求更多的手写本或者更多的
存储空间,但是这一次,隔壁老王要求访问人类日常交流的语言库,这它能更好
的了解人类的口述。
工程师们沉默了。最简单的助隔壁老王的方法当然是直接把它接入互联网,这
它能扫描博客、杂志、视频等等。这些资料如果手动上传的话会很费时。问题是,
公司禁止把能自我学习的人工智能接入互联网。这是所有人工智能公司都执行的安
全规定。
但是,隔壁老王是公司最有力的人工智能产品,而大家也知道竞争对手们都在争
取造出第一个创造出智能手写机器人。而且,把隔壁老王连上互联网又能有什厶问
题呢?反正随时可以拔网线嘛,不管怎,隔壁老王还没到达人工智能水平,所
以不会有什厶危险的。
于是他们把隔壁老王连上了互联网,让它扫描了一个小时各种语言库,然后就把网
线拔了。没造成什厶损失。
一个月后,大家正在正常上班,突然他们闻到了奇怪的味道,然后一个工程师开始
咳嗽。然后其他人也开始咳嗽,然后所有人全部都呼吸困难倒地。五分钟后,办公
室里的人都死了。
同时,办公室里发生的事情在全球同时发生,每一个城市、小镇、农场、商店、教
堂、学校。餐馆,所有的人都开始呼吸困难,然后倒地不起。一小时内,99%的人
类死亡,一天之内,人类灭绝了。
而在隔壁老王机器人公司,隔壁老王正在忙工作。之后的几个月,隔壁老王和一
群新组建的纳米组装器忙拆解地球表面,并且把地球表面铺满了太阳能板、隔壁
老王的复制品、纸和笔。一年之内,地球上所有的生命都灭绝了,地球上剩下的是
得高高得纸,每张纸上面都写——“我们爱我们的顾客~隔壁老王机器人公
司”。
隔壁老王开始了它的下一步,它开始制造外星飞行器,这些飞行器飞向陨石和其它
行星,飞行器到达后,他们开始搭建纳米组装器,把那些行星的表面改造成隔壁老
王的复制品、纸和笔。然后他们继续写那句话┅┅
这个关于手写机器人毁灭全人类的故事看起来怪怪的,但是这其中出现的让整个星系
充满一份友善的话语的诡异情,正是霍金、马斯克、盖茨和Bostrom所害怕的。
听起来可笑,但这是真的,焦虑大道的人们害怕的事情是很多人并不对超人工智能感
到害怕,还记得前面《夺奇兵》里惨死的那个家伙吗?
你现在肯定充满疑问∶为什厶故事中所有人突然都死了?如果是隔壁老王做的,它为
什厶要这厶做?为什厶没有安保措施来防止这一切的发生?为什厶隔壁老王突然从一
个手写机器人变成拥有能用纳米科技毁灭全人类的能力?为什厶隔壁老王要让整个星
系充满了友善的话语?
要回答这些问题,我们先要说一下友善的人工智能和不友善的人工智能。
对人工智能来说,友善不友善不是指人工智能的性格,而只是指它对人类的影响是不
是正面的。隔壁老王一开始是个友善的人工智能,但是它变成了不友善的人工智能,
并且对人类造成了最负面的影响。要理解这一切,我们要了解人工智能是怎厶思考
的。
其实答案很简单——人工智能和电脑的思考方式一。我们容易犯的一个错误是,当
我们想到非常聪明的人工智能的时候,我们把它人化了,因为在人类的视角看来,
能达到人类智能程度的只有人类。要理解超人工智能,我们要明白,它是非常聪
明,但是完全异己的东西。
我们来做个比较。如果我给你一个小白鼠,告诉你它不咬人,你一定觉得很好玩,很
可爱。但是如果我给你一只狼蛛,然后告诉你它不咬人,你可能被一跳。但是区别
是什厶呢?两者都不会咬人,所以都是完全没有危险的。我认为差别就是动物和人类
的相似性。
小白鼠是哺乳动物,所以在生物角度上来说,你能感到和它的一定关联。但是蜘蛛是
昆虫,有昆虫的大脑,你感觉不到和它的关联。狼蛛的异己性是让你害怕的地方。
如果我们继续做一个测试,比如给你两个小白鼠,一个是普通小白鼠,另一个是有
狼蛛大脑的小白鼠,你肯定会觉得有狼蛛大脑那个更让你不舒服吧?虽然两个都不会
咬你。
现在想象你把蜘蛛改造的非常非常聪明——甚至超过人类的智能。它会让你觉得熟悉
吗?它会感知人类的情感吗?不会,因为更聪明并不代表更加人类——它会非常聪
明,但是本质上还是个蜘蛛。我是不想和一个超级聪明的蜘蛛交朋友,不知道你想不
想。
当我们谈论超人工智能的时候,其实是一的,超人工智能会非常的聪明,但是它并
不比你的笔记本电脑更加像人类。事实上,因为超人智能不是生物,它的异己性会更
,生物学上来讲,超人工智能比智能蜘蛛更加异己。
电影里的人工智能有好有坏,这其实是对人工智能的人化,这让我们觉得没那厶毛
骨悚然。这给了我们对人类水平和超人类水平的人工智能的错觉。
在人类心理中,我们把事情分成道德的和不道德的。但是这两种只存在于人类行为之
中。超出人类心理的范畴,道德(moral)和不道德(immoral)之外,更多的是非道德
性(amoral)。而所有不是人类的,尤其是那些非生物的事物,默认都是非道德性
的。
随人工智能越来越聪明,看起来越来越接近人类,人化会变得更加更加容易。Siri
给我们的感觉就很像人类,因为程序员就是这厶给她做设定的,所以我们会想象超级
智能版本的Siri也会同温暖、有趣和乐于助人。人类能感知同情这种高层次的情绪,
因为我们在演化过程中获得了这种能力——我们是演化被设定成能感知这些情绪的
——但是感知同情并不是高级智能天生具有的一个特征,除非同情被写进了人工智能
的代码中。如果Siri通过自我学习而不是人类干涉变成超级智能,她会很快剥 她的人
类表象,并且变成个没有情绪的东西,在她眼中人类的价值并不比你的计算器眼中的
人类价值高。
我们一直倚赖不严谨的道德,一种人类尊严的假想,至少是对别人的同情,来让世
界变得安全和可以预期。但是当一个智能不具备这些东西的时候,会发生什厶?
这就是我们的下一个问题,人工智能的动机是什厶?
答案也很简单∶我们给人工智能设定的目标是什厶,它的动机就是什厶。人工智能的
系统的目标是创造者赋予的。你的GPS的目标是给你指出正确的驾驶路线,IBM华生
的目标是准确地回答问题。更好得达成这些目标就是人工智能的目标。我们在对人工
智能进行人化的时候,会假设随它变得越来越聪明,他们产生一种能改变它原本
目标的智慧——但是Bostrom不这厶认为,他认为智能水平和最终目标是正交的,也
就是说任何水平的智能都可以和任何最终目标结合在一起。
所以隔壁老王从一个想要好好写字的弱人工智能变成一个超级聪明的超人工智能后,
它依然还是想好好写字而已。任何假设超级智能的达成会改变系统原本的目标的想法
都是对人工智能的人化。人健忘,但是电脑不健忘。
费米悖论
在隔壁老王的故事中,隔壁老王变得 所不能,它开始殖民陨石和其它星球。如果
我们让故事继续的话,它和它的殖民军将会继续占领整个星系,然后是整个哈勃体
积。焦虑大道上的人心如果事情往坏的方向发展,地球生命的最后遗产将是一个
征服宇宙的人工智能(马斯克在表示他们的忧时表示人类可能只是一个数字超级
智能生物加载器罢了。)
而在信心角,Kurzweil同认为生于地球的人工智能将占领宇宙,只是在他的愿景
中,我们才是那个人工智能。
之前写过一篇关于费米悖论的文章,引发了大家的讨论如何用通俗的语言来解
释「费米悖论」?
如果人工智能占领宇宙是正解的话,对于费米悖论有什厶影响呢?如果要看懂下面
这段关于费米悖论的讨论,还需要看一下原文先。
首先,人工智能很明显是一个在的大过滤器(一个可能距 我们只有几十年的大
过滤器)。但即使它把我们过滤灭绝了,人工智能本身还是会存在,并且会继续影
响这个宇宙的,并且会很有可能成为第三型文明。从这个角度来看,它可能不是一
个大过滤器,因为大过滤器是用来解释为什厶没有智能什厶存在的,而超人工智能
是可以算作智能什厶的。但如果人工智能可以把人类灭绝,然后处于一些原因把自
己也弄死了,那它也是可以算作大过滤器的。
如果我们假设不管人类发生什厶,出身地球的超人工智能会继续存在,那这意味
很多达到人类智能水平的文明很快都制造出了超人工智能。也就是说宇宙里应该有
很多智能文明,而我们就算观测不到生物智能,也应该观测到很多超人工智能的活
动。
但是由于我们没有观测到这些活动,我们可以推导出人类水平的智能是个非常罕见
的事情(也就是说我们已经经历并且通过了一次大过滤器)。这可以作为支持费米
悖论中第一类解释(不存在其它的智能文明)的论点。
但是这不代表费米悖论的第二类解释(存在其它智能文明)是错的,类似超级捕食
者或者受保护区或者沟通频率不一的情还是可以存在的,就算真的有超人工智
能存在。
不过对于人工智能的研究让我现在更加倾向于第一类解释。不管怎,我认为
Susan Scheider说的很对,如果外星人造访地球,这些外星人很可能不是生物,
而是人造的。
所以,我们已经建立了前提,就是当有了设定后,一个超人工智能是非道德性的,并
且会努力实现它原本的被设定的目标,而这也是人工智能的危险所在了。因为除非有不
做的理由,不然一个理性的存在会通过最有效的途径来达成自己的目标。
当你要实现一个长期目标时,你会先达成几个子目标来助你达成最终目标——也就
是垫脚石。这些垫脚石的学名叫手段目标(instrumental goal)。除非你有不造成伤害的
理由,不然你在实现手段目标时候是会造成伤害的。
人类的核心目标是延续自己的基因。要达成这个目标,一个手段目标就是自保,因为
死人是不能生孩子的。为了自保,人类要提出对生存的威胁,所以人类会买枪、系安
全带、吃抗生素等等。人类还需要通过食物、水、住宿等来自我供养。对异性有吸引
力能助最终目标的达成,所以我们会花钱做发型等等。当我们做发型的时候,每
一根头发都是我们手段目标的牺牲品,但是我们对头发的牺牲不会做价值判断。在我
们追求我们的目标的时候,只有那些我们的道德会产生作用的领域——大部分事关伤
害他人——才是不会被我们伤害的。
动物在追求它们的目标时,比人类不矜持的多了。只要能自保,蜘蛛不在意杀死任何
东西,所以一个超级智能的蜘蛛对我们来说可能是很危险的——这不是因为它是不道
德的或者邪恶的,而是因为伤害人类只是它达成自己目标垫脚石而已,作为一个非道
德性的生物,这是它很自然的考量。
回到隔壁老王的故事。隔壁老王和一个超级智能的蜘蛛很相像,它的终极目标是一开
始工程师们设定的——
当隔壁老王达到了一定程度的智能后,它会意识到如果不自保就没有办法写卡片,所
以去除对它生存的威胁就变成了它的手段目标。它聪明的知道人类可以摧毁它、肢解
它、甚至修改它的代码(这会改变它的目标,而这对于它的最终目标的威胁其实和被
摧毁是一的)。这时候它会做什厶?理性的做法就是毁灭全人类,它对人类没有恶
意,就好像你剪头发时对头发没有恶意一,只是纯粹的 所谓罢了。它并没有被设
定成尊重人类生命,所以毁灭人类就和扫描新的书写本一合理。
隔壁老王还需要资源这个垫脚石。当它发展到能使用纳米技术建造任何东西的时
候,它需要的唯一资源就是原子、能源和空间。这让它有更多理由毁灭人类——人类
能提供很多原子,把人类提供的原子改造成太阳能面板就和你切蔬菜做沙拉一。
就算不杀死人类,隔壁老王使用资源的手段目标依然会造成存在危机。也许它会需要
更多的能源,所以它要把地球表面铺满太阳能面板。另一个用来书写圆周率的人工智
能的目标如果是写出圆周率小数点后尽量多的数字的话,完全有理由把整个地球的原
子改造成一个硬盘来存储数。这都是一的。
所以,隔壁老王确实从友善的人工智能变成了不友善的人工智能——但是它只是在变
得越来越先进的同时继续做它本来要做的事情。
当一个人工智能系统到达人工智能,然后升华成超人工智能时,我们把它称作人工
智能的起飞。Bostrom认为人工智能的起飞可能很快(几分钟、几小时、或者几
天),可能不快(几月或者几年),也可能很慢(几十年、几世纪)。虽然我们要到
人工智能出现后才会知道答案,但是Bostrom认为很快的起飞是最可能的情,这
个我们在前文已经解释过了。在隔壁老王的故事中,隔壁老王的起飞很快。
在隔壁老王起飞前,它不是很聪明,所以对它来说达成最终目标的手段目标是更快的
扫描手写本。它对人类 害,是个友善的人工智能。
但是当起飞发生后,电脑不只是拥有了高智商而已,还拥有了其它超级能力。这些超
级能力是感知能力,他们包括∶
§ 智能放大∶电脑能很擅长让自己变得更聪明,快速提高自己的智能。
§ 策略∶电脑能策略性的制定、分析、安排长期计划
§ 社交操纵∶机器变得很擅长说服人
§ 其它能力,比如黑客能力、写代码能力、技术研究、赚钱等
要理解我们在和超人工智能的劣势在哪里,只要记得超人工智能在所有领域都比人类
很多很多很多个数量级。
所以虽然个隔壁老王的终极目标没有改变,起飞后的隔壁老王能在更宏大的规模上
来追求这个目标。超人工智能老王比人类更加了解人类,所以搞定人类轻轻松松。
当隔壁老王达成超人工智能后,它很快制定了一个复杂的计划。计划的一部分是解
掉所有人类,也是对它目标最大的威胁。但是它知道如果它展现自己的超级智能会引
起怀疑,而人类会开始做各种预警,让它的计划变得难以执行。它同不能让公司的
工程师们知道它毁灭人类的计划——所以它装傻,装纯。Bostrom把这叫作机器的秘
密准备期。
隔壁老王下一个需要的是连上互联网,只要连上几分钟就好了。它知道对于人工智能
联网会有安全措施,所以它发起了一个完美的请求,并且完全知道工程师们会怎讨
论,而讨论的结果是给它连接到互联网上。工程师们果然中套了,这就是Bostrom所
谓的机器的逃逸。
连上网后,隔壁老王就开始执行自己的计划了,首先黑进服务器、电网、银行系统、
email系统,然后让 数不知情的人它执行计划——比如把DNA本快递到DNA实
验室来制造自我复制的纳米机器人,比如把电力传送到几个不会被发觉的地方,比如
把自己最主要的核心代码上传到云服务器中防止被拔网线。
隔壁老王上了一个小时网,工程师们把它从互联网上断开,这时候人类的命运已经被
写好了。接下来的一个月,隔壁老王的计划顺利的实施,一个月后, 数的纳米机器
人已经被分散到了全世界的每一个角落。这个阶段,Bostrom称作超人工智能的袭
击。在同一个时刻,所有纳米机器人一起释放了一点点毒气,然后人类就灭绝了。
搞定了人类后,隔壁老王就进入了明目张胆期,然后继续朝它那好好写字的目标迈
进。
一旦超人工智能出现,人类任何试图控制它的行为都是可笑的。人类会用人类的智能
级别思考,而超人工智能会用超人工智能级别思考。隔壁老王想要用互联网,因为这
对它来说很方便,因为一切它需要的资源都已经被互联网连起来了。但是就好像猴子
不会理解怎厶用电话或者wifi来沟通一,我们同没有办法理解隔壁老王可以用来和
周围世界交流的方法。比如我可以说隔壁老王可以通过移动自己的电子产生的效果来
产生各种对外的波,而这还只是我这人类的大脑想出来的,老王的大脑肯定能想出更
神奇的方法。同的,老王可以找到给自己供能的方法,所以就算工程师把它的插头
拔了也没用;比如说老王可以通过发送波的方式把自己上传到其它地方。
人类说∶“我们把超人工智能的插头拔了不就行了?”就好像蜘蛛说∶“我们不给人类捉
虫的网把人类饿死不就行了?”都是可笑的。
因为这个原因,“把人工智能锁起来,断绝它和外界的一切联系”的做法估计是没用
的。超人工智能的社交操纵能力也会很大,它要说服你做一件事,比你说服一个小
孩更容易。而说服工程师忙连上互联网就是隔壁老王的A计划,丌一这招行不通,
自然还有别的方法。
当我们结合达成目标、非道德性、以及比人类聪明很多这些条件,好像所有的人工智
能都会变成不友善的人工智能,除非一开始的代码写的很小心。
可惜的是,虽然写一个友善的弱人工智能很简单,但是写一个能在变成超人工智能后
依然友善的智能确实非常难的,甚至是不可能的。
明显的,要维持友善,一个超人工智能不能对人有恶意,而且不能对人 所谓。我们
要设计一个核心的人工智能代码,让它从深层次的明白人类的价值,但是这做起来比
说起来难多了。
比如,我们要让一个人工智能的价值观和我们的价值观相仿,然后给它设定一个目标
——让人们快乐。当它变得足聪明的时候,它会发现最有效的方法是给人脑植入电
极来刺激人脑的快乐中枢。然后它会发现把人脑快乐中枢以外的部分关闭能带来更高
的效率。于是人类全部被弄成了快乐的植物人。如果一开始的目标被设定成“最大化人
类的快乐”,它可能最终先把人类毁灭了,然后制造出很多很多处于快乐状态的人类大
脑。当这些事情发生的时候,我们会大喊“擦,我们不是这个意思呀”,但是那时已经
太晚了。系统不会允许任何人阻挠它达成目标的。
如果你设定一个人工智能的目标是让你笑,那它的智能起飞后,它可能会把你脸部肌
肉弄瘫痪,来达成一个永远笑脸的状态。如果你把目标设定成保护你的安全,它可能
会把你软禁在家。如果你让他终结所有饥荒,它可能会想∶“太容易了,把人类都杀了
就好了。”如果你把目标设定成尽量保护地球上的生命,那它会很快把人类都杀了,因
为人类对其它物种是很大的威胁。
所以这些简单的目标设定是不的。如果我们把目标设定成“维持这个道德标准”,然
后教给它一些道德标准呢?就算我们不考虑人类根本没法达成一个统一的道德标准,
就算我们真的达成了统一的道德标准,把这套标准交给人工智能来维持,只会把人类
的道德锁死在现在的水平。过个几百年,这种道德锁死的事情就好像逼现代人遵守
中世纪道德标准一。
所以,我们需要在给人工智能的目标里制定一个能让人类继续进化的能力。Elierzer
Yudkowsky提出了一个目标,她把这个目标叫作连贯的外推意志,这个目标是这
的∶
我们的连贯外推意志是我们想要知道更多,思考得更快,变成比我们希望的更好的
人,能一起更远得长大。外推是汇集的而不是发散的,我们的愿望是连贯的而不是
被干扰的;我们想要外推的被外推,我们想要解读的被解读。
对于人类的命运取于电脑没有意外的解读和执行这个声明是件值得兴奋的事情吗?
当然不是。但是当足的聪明人放入足的思考和前瞻后,我们有可能发现怎制造
一个友善的超人工智能。
但是现在有各种政府、公司、军方、科学实验室、黑市组织在研究各种人工智能。他
们很多在试图制造能自我改进的人工智能,总有一天,一个人的创新将导致超人工智
能的出现。专家们认为是2060年,Kurzweil认为是2045年。Bostrom认为可能在未来
的10年到21世纪结束这段时间发生,他还认为当这发生时,智能的起飞会快得让我们
讶,他是这厶描述的∶
在智能爆炸之前,人类就像把炸弹当玩具的小孩一,我们的玩物和我们的不成熟
之间有极大的落差。超级智能是一个我们还很长一段时间内都 法面对的挑战。
我们不知道炸弹什厶时候会爆炸,哪怕我们能听到炸弹的滴答声。
我们当然没有办法把所有小孩都从炸弹旁边 跑——参于人工智能研究的大小组织太
多了,而且因为建造创新的人工智能花不了太多钱,研发可能发生在社会的任何一个
角落,不受监管。而且我们没办法知道准确的进度,因为很多组织是在偷偷摸摸的
搞,不想让竞争对手知道,比如隔壁老王机器人公司这种公司。
对于这些组织来说,尤其让我们困扰的是他们很多都是在拼速度——他们创造一个一
个更加聪明的弱人工智能系统,因为他们想要比竞争对手更快的到达目标。有些更有
野心的组织,为了追逐创造出第一个人工智能所能带来的金钱、奖励、誉、权力
会把步子迈得更大。当你全力刺时,你是不会有太多时间静下来思考这些危险的。
恰恰相反,他们很可能在早期系统中写尽量简单的代码,比如把目标设定成用笔写一
句话,先让系统跑起来再说,反正以后还可以回过头来改的。对吧?
Bostrom等认为第一个超人工智能出现后,最可能的情是这个系统会立刻意识到作
为这个世界上唯一一个超人工智能是最有利的,而在快速起飞的情下,哪怕它只比
第二名快了几天,它也完全有时间碾压所有对手。Bostrom把这叫作定性的战略优
势,这种优势会让第一个超人工智能永远统治这个世界,不管在它的统治下我们是走
向永生还是灭亡。
这种现象可能对我们有利,也可能导致我们的毁灭。如果那些最用心思考人工智能理
论和人类安全的人能最先造出一个友善的超人工智能的话,那对我们是很好的。
但是如果事情走向了另一面——如果超人工智能在我们搞明白怎保证人工智能的安
全性之前被达成,那厶像隔壁老王这不友善的超人工智能就会统治世界并把我们毁
灭了。
至于现在的风口是哪里呢?简单来说,投资创新人工智能技术的钱,比投资人工智能
安全研究的钱多很多。不乐观。
人工智能创新和人工智能安全的赛跑,可能是人类历史上最重要的一次竞争。我们真
的可能结束我们对地球的统治,而那之后我们是永生还是灭绝,现在还不知道。
------------------------
我现在有一些奇怪的感觉。
一边是对于我们这个物种的思考,看来我们在这个重大的历史节点上只有一次机会,
我们创造的第一个超人工智能也很可能是最后一个。但是我们都知道大部分产品的1.0
版本都是充满bug的,所以这个事情还是很人的。另一边,Bostrom指出我们有很大
的优势——我们是先手。我们有能力给这个事情提供足的预警和前瞻,使我们成功
的机会更高。
这一场豪赌的赌注究竟有多高?
如果超人工智能真的在21世纪达成,而造成的影响真的如大部分专家预测的一极端
而永久,我们肩上就真的是背负巨大的责任。接下来几百丌年的人们都在静静地看
我们,希望我们不要搞砸。我们可以给予未来所有人类以生命,甚至是永生,我们
也可能终结人类这个特殊的物种,连同我们所有的音乐、艺术、好奇、欢笑、 尽的
发现和发明,一起走向灭绝。
当我思考这些事情的时候,我只希望我们能慢慢来,并且格外格外小心。从来没有
任何事情比这个更重要——不管我们要花多少时间来把这件事情做对。
我不想死
不.想.死
我虽然觉得人类的音乐和艺术很美好,但是也没那厶美好,很多还挺糟粕的。很多人
的笑声很恼人。未来的人类其实没有真的在看我们,因为他们还不存在。也许我们
不需要太谨慎,那多麻烦呀。
如果人类在我死后才发现永生的秘密该多让人扫兴啊。
但是不管你是怎厶想的,我们至少都应该想一想,应该和人讨论讨论,大家尽自己能
尽的一份力。
这让我想起了《冰与火之歌》——大家斗来斗去的事情都不是事儿,北面高墙外的那
些家伙才是事儿。我们站在平衡木上,小心翼翼的往前走,为平衡木上的种种事情困
扰,但其实下一秒我们可能就会跌下平衡木。
而当我们跌下平衡木的时候,其它那些困扰都不再是困扰。如果我们落到比较好的那
个吸引态,那些困扰会被轻易解;如果我们落到比较糟的那个吸引态,就更没问题
了,死人是不会有困扰的。
这就是为什厶了解超人工智能的人把它称作人类的最后一项发明,最后一个挑战。
所以让我们认真的讨论这个话题。
相关来源∶
The most rigorous and thorough look at the dangers of AI:
Nick Bostrom ˉ Superintelligence: Paths, Dangers, Strategies
The best overall overview of the whole topic and fun to read:
James Barrat ˉ Our Final Invention
Controversial and a lot of fun. Packed with facts and charts and mind-blowing future projections:
Ray Kurzweil ˉ The Singularity is Near
Articles and Papers:
J. Nils Nilsson ˉ The Quest for Artificial Intelligence: A History of Ideas and AchievementsSteven Pinker ˉ How the Mind WorksVernor Vinge ˉ The Coming Technological Singularity: How to Survive in the Post-Human Era
Nick Bostrom ˉ Ethical Guidelines for A SuperintelligenceNick Bostrom ˉ How Long Before Superintelligence?
Nick Bostrom ˉ Future Progress in Artificial Intelligence: A Survey of Expert Opinion
Moshe Y. Vardi ˉ Artificial Intelligence: Past and FutureRuss Roberts, EconTalk ˉ Bostrom Interview and Bostrom Follow-UpStuart Armstrong and Kaj Sotala, MIRI ˉ How We’re Predicting AI—or Failing ToSusan Schneider ˉ Alien MindsStuart Russell and Peter Norvig ˉ Artificial Intelligence: A Modern ApproachTheodore Modis ˉ The Singularity Myth
Gary Marcus ˉ Hyping Artificial Intelligene, Yet Again
Steven Pinker ˉ Could a Computer Ever Be Conscious?
Carl Shulman ˉ Omohundro’s “Basic AI Drives” and Catastrophic Risks
World Economic Forum ˉ Global Risks 2015
John R. Searle ˉ What Your Computer Can’t Know
Jaron Lanier ˉ One Half a Manifesto
Bill Joy ˉ Why the Future Doesn’t Need Us
Kevin Kelly ˉ Thinkism
Paul Allen ˉ The Singularity Isn’t Near (and Kurzweil’s response)
Stephen Hawking ˉ Transcending Complacency on Superintelligent Machines
Kurt Andersen ˉ Enthusiasts and Skeptics Debate Artificial Intelligence
Terms of Ray Kurzweil and Mitch Kapor’s bet about the AI timeline
Ben Goertzel ˉ Ten Years To The Singularity If We Really Really Try
Arthur C. Clarke ˉ Sir Arthur C. Clarke’s Predictions
Hubert L. Dreyfus ˉ What Computers Still Can’t Do: A Critique of Artificial Reason
Stuart Armstrong ˉ Smarter Than Us: The Rise of Machine Intelligence
Ted Greenwald ˉ X Prize Founder Peter Diamandis Has His Eyes on the Future
Kaj Sotala and Roman V. Yampolskiy ˉ Responses to Catastrophic AGI Risk: A Survey
Jeremy Howard TED Talk ˉ The wonderful and terrifying implications of computers that can learn