设万维读者为首页 万维读者网 -- 全球华人的精神家园 广告服务 联系我们 关于万维
 
首  页 新  闻 论  坛 博  客 视  频 分类广告 购  物
搜索>> 发表日志 控制面板 个人相册 给我留言
帮助 退出
宇之道的博客  
宇之道,宇知道;宇智道,宇至道。  
        http://blog.creaders.net/u/17105/ > 复制 > 收藏本页
我的网络日志
不靠谱的《机器人三定律》 2019-02-13 09:57:42

不靠谱的《机器人三定律》

“机器人学三定律。

一.机器人不得伤害人,也不得见人受到伤害而袖手旁观。

二.机器人应服从人的一切命令,但不得违反第一定律。

三.机器人应保护自身的安全,但不得违反第一、第二定律。”

-摘自《互动百科》

http://www.baike.com/wiki/机器人三定律

这三定律存在明显的缺陷早已不是什么新闻了。所以,试图对它们进行完善的诸多三定律升级版、三定律补充定律等等,也是层出不穷。不过它们的共同特点就是忽略了三定律的最大硬伤:对机器人和人的定义。

这三定律针对的是两个主体是:机器人和人。而这三个定律却没有对机器人和人这两个主体进行明确的、统一的定义,而只是想当然的把它们的定义设定为人所共知的常识。签个合同地契、泡个小姐什么的,你还得先定义一下甲方乙方、卖家买家、妓女嫖客什么的吧? 否则,警察抓了宾馆里的失足夫男和失足妇女,都不知道谁嫖谁。没有对机器人和人这两个主体明确的、统一的定义,机器人三定律是不可能被实施的。而且事实上,对这两个主体的定义并不是像大家想象的那么简单的。

我们先从看似简单的人的定义入手吧。

什么是人?人是什么?

也许你认为这个问题的答案应该很简单:你、我、他,黑的、黄的、白的,有胳膊有腿的、有脑袋的、有肠子肚子心肝肺的,总之人类做为爹妈所生养的都是人。但是,人在刑法上还分:无责任能力的人、限定责任能力的人和完全刑事责任能力的人。你能让机器人去服从两岁孩子的一切命令吗?你也许会说三定律里的人是泛指,是全人类的意思。那么,全人类达成共同的价值观了吗?未来能达成共同的价值观吗?

更主要的是,三定律是静止的看问题。世界是发展的,人的认知水平在变化,人类自身也可以变化,所以对人类的定义也不可能是一成不变的。下面还是举例说明更容易理解。

首先,我们假设科技已经足够发达,人类可以任意的更换自己身体的部件了。有这么一个人,我们就叫他张三吧。张三对他父母给他的身体部件不是很满意。或者随着年龄的增长,有些部件老化失灵了。他想换掉它们,这个大家可以理解吧? 大家都知道,现在不是有很多人去韩国整容吗? 既然拿张三做例子,咱们就把他用狠点儿。这张三不光对自己的长相不满,他简直是对自己的哪儿哪儿都不满。先说腿吧。嫌自己跳得不够高,把自己的两条腿换成了两条袋鼠的后腿。这下可好。他单脚起跳就能把自己搁到篮筐上了。嫌自己臂力不够,把胳膊换成俩大猩猩的大长胳膊。这不,在马路这面的树上一晃悠,他就能把自己悠到马路对面的树上去。这当然还并不能让他满足。还得继续整。背后再插俩大鹏的翅膀。您说:“大鹏好像只是个传说吧?”就那么个意思吧。你明白就行了。别太较真儿。这样他一展翅,就可以直上万米高空了。可是这万米高空的空气太稀薄。怎么办?换肺。想去深海里玩儿,怎么办?没问题,装付腮。南极太冷。换一身海豹皮。总之,经过这么一通折腾,他身上的部件基本上就没什么原装的了。你说,这张三这么折腾完以后,他还能算是人类吗?如果还算是人类,他和人的差距可比猴和人的差距还大呢。如果不算人类,那他又是从什么时候开始不算人的呢?是从一开始换成袋鼠腿就不算了,还是直到他换成海豹皮才开始不算人类?这个问题实际上在两千年前就已经被古希腊哲学家提出来了。叫“忒修斯之船”又称为“忒修斯悖论”。有兴趣的朋友可以自己在网上搜一下。我就不在这里多说了。

你说如果机器人遇到了改装后的张三,是把他当人呢?还是不把他当人呢?这可是一个人类自身都没有解决的难题呀!可这所谓的“机器人三定律”却不付责任的把它推给机器人。你让机器人怎么解决这个问题?机器人不能确定张三是不是人,所以也不能决定是否可以伤害张三。这样,三定律的第一条:“机器人不得伤害人,也不得见人受到伤害而袖手旁观”,到张三这儿,确切的说,到整过容的张三这儿就失效了。

你也许会说,张三只是少数的个别现象,机器人要服从多数。目前来看,这个论断还可以成立。可是以后随着科技的发展,人人都会想要整整容,改改装。那么张三这样的改装人就变成了大多数了。原装人就变成了极少数,甚至完全消失。而且,改装人们肯定不会都采用同样改装思路。那么人类就会出现多样化,譬如:鸟人、鱼人、钻地人、寒带人、热带人、沙漠人、丛林人,等等吧。不同的人群会有不同的诉求,所以对机器人发出的命令也会不同,甚至彼此矛盾。一个人种可以告诉机器人:另一个人种不是人,机器人不必服从他们的指令。鸟人让机器人去杀鱼人,鱼人让机器人去杀钻地人等等。这样,机器人就会无所适从,从而定律的第二条:“机器人应服从人的一切命令,但不得违反第一定律”,也会失效。

因为人的定义不清,没有从发展的眼光看问题,结果造成第一和第二定律失去意义。

其次,什么是机器人?

给机器人下定义也并不是一件简单的事情,而是一件非常非常复杂的事情。更是一件非常非常重要的事情。这要从几个角度来考虑:

第一,是机器人是如何被制造出来了;

1.    传统人造单体方式:皮诺丘、R2-D2、C-3PO、铁臂阿童木等。先制造出身体,然后赋予智慧,其智能也并不会超越人类太多。甚至还在某些方面弱于人类。学习能力也是与人类基本成正比。

2.    人工智能方式:人类很可能并没有能力直接制造非常高档的机器人,人类制造机器人需要借助人工智能。人类先要创造第一代人工智能机器人,然后第一代人工智能机器人再去制造第二代机器人、第三代机器人。。。而机器人在人工智能的协助下,甚至是在人工智能的控制下去完成任务,升级换代。

人类智能升级方式:类似上面说的张三,有一个李四也对自己身上的零件不满意。他也想换。但他对那些什么袋鼠腿、海豹皮,不感兴趣。他从小看的都是《铁臂阿童木》、《变形金刚》、《机甲战警》、《终结者》之类的科幻片。他决定把他的手换成变形金刚的变形机枪手,腿换成阿童木的火箭喷射腿,眼睛换成机械战警的X光千里透视眼等等。可他换着换着就刹不住了。最后连脑袋都换成“超级云计算、雾分析、雷能量、闪速度神电脑”了。你说这李四是算人还是算机器人。如果把算做机器人,你还得面临那个“忒修斯悖论” :他是什么时候变成机器人的?

第二,是机器人存在的形式

1.    个体形式机器人:皮诺丘、R2-D2、C-3PO、铁臂阿童木、变形金刚等。以个体形式存在,自己控制自己的身体;彼此通过某种语言进行交流。

2.    联网形式机器系统:《宇之道》认为:机器人本身就是一个错误概念,正确的叫法大概应该是:自我智能机电系统。因为具有独立思维能力的智能体应该是由可以彼此分开的系统组成。如果以人做类比,就是:它的大脑和身体不必是相连的。甚至,它的大脑和身体可以远隔千里,并且一个大脑可以指挥多个身体,多个分开的大脑可以协作完成同一任务。比如,在北京和天津的大脑可以通过无线信号指挥远在上海和深圳的身体去完成不同的任务。

对李四这样的“人机合一机器人”,如果没有明确的分类和定义,你说你让不让机器人听李四的? 李四发生危险的时候,机器人是救,还是不救? 另外,《宇之道》认为随着科技的进步,即使不是全部,人类也会有一大部分,会变成和李四一样的“人机合一机器人”。这些李四要不要遵守机器人三定律? 他们原本是人,他们又凭什么必须遵守机器人三定律?

第三定律“机器人应保护自身的安全,但不得违反第一、第二定律”,也存在缺陷。它也没有从发展的眼光看问题。假设比这代机器人更先进的机器人出现了。这一代机器人的工作被新一代的机器人全面的接管了。这旧的一代机器人已经失去了存在的意义了。而它们的存在只是浪费更多资源,并且它们身上的部分零件可以用到新一代的机器人身上。那么它们还应该去遵守第三定律,“保护自身的安全”而赖着不死吗?

上面说的是,三定律在概念和逻辑上的硬伤。即使这些硬伤得到解决,我们可以制定出完美的定律,我们还将面对一些棘手法律和技术上的问题。

首先,是法律问题。我们如何保证机器人的制造者去遵守规定,从而使他们所造的机器人都会遵守三定律?谁来制定法律?怎么执行法律?怎么统一各国的标准?如果有制造商违反了法律,造出不遵守三定律的机器人怎么办?是否也像禁止核武器泛滥一样,禁止机器人泛滥?可是,禁止核武器的条约也没能阻止核武器的扩散。

其次,是技术问题。人类自己发出的命令都经常是自相矛盾、模棱两可。能够理解人类命令并遵守这三定律的机器人,需要相当高的智慧。我们不借助人工智能的话,可以制造出这样高智慧的机器人吗?即使我们制造出这样具备高于人类的智慧的机器人,而根据宇宙的普遍的弱肉强食定律,一个具有高智慧的强大智能体为什么要服从智慧低于自己的人类的指令呢?

另外,机器人是会学习的。你怎样保证机器人不“学坏”、不违反三定律呢?在制造机器人的时候怎么把三定律植入到机器人的思想中而不被修改?怎么保证它们不被坏人欺骗利用? 怎么处理出现故障或“学坏”了的机器人?你也许会想,如果机器人出故障了,把它关掉、销毁不就行了吗?未来的机器人不一定像R2-D2、阿童木或变形金刚那样,以个体的形式存在。它们具有近乎“全息交流”程度的交流能力。(作者将用专门的篇幅介绍“全系交流”的概念)。它们可以将自己的思想提前以多种形式、做很多个备份。它们可以将自己的思想像电脑病毒一样传播复制到它们可以接触到每一台电子设备上。这些设备可能是一台电视、一部手机、一台电脑、一台数控机床、一架飞机、一艘太空船甚至火星探测器。

人的思想是以脑电波的形式存在于人脑中。而机器人的思想却可以以多种形式存在,它可以被储存在正在运行的CPU、电脑内存、电脑硬盘、光盘、磁带等等电子媒体中,可以随时被调取并激活。甚至不需要任何媒体,机器人只需要将它的思想以电子信号的方式发出,其它机器人就可以接收到。要消灭一个人的思想最简单的方式就是将这个人杀死,即消灭人的肉体的同时也就消灭了人的灵魂。而机器人却完全不同,即使你可以关掉、摧毁一个机器人,你却不可能保证消灭它的思想。它的思想很可能在另一个机器人中复活。就像《哈利波特》中的伏地魔,借尸还魂是分分钟钟的事儿。你总不可能关闭、销毁所有的电子设备,回到原始时代吧?

所以,人类想让机器人去遵守机器人三定律或者其他的什么约束机器人的定律,从而维护人类的统治地位的想法,不过是空中楼阁、纸上谈兵、痴人说梦而已。

而机器人三定律的无效性也间接证明了,《宇之道》关于“无机生命必将取代有机生命”的观点。

最后再补充一点,现在人们已经意识到脱离人工智能去谈论机器人是本末倒置。不借助人工智能的帮助,人类凭自己的智慧是不可能造出高智能的机器人的。机器人实质上不过是人工智能的载体而已。人们将对机器人的警惕转化为对人工智能的警惕。这个思路是正确的。但是,像上面分析的一样,《宇之道》称之为“无机智能” 的人工智能,如果出现,那么它超越人类智能是不可避免的。



浏览(181) (2) 评论(0)
发表评论
 
关于本站 | 广告服务 | 联系我们 | 招聘信息 | 网站导航 | 隐私保护
Copyright (C) 1998-2017. CyberMedia Network /Creaders.NET. All Rights Reserved.