设万维读者为首页 万维读者网 -- 全球华人的精神家园 广告服务 联系我们 关于万维
 
首  页 新  闻 视  频 博  客 论  坛 分类广告 购  物
搜索>> 发表日志 控制面板 个人相册 给我留言
帮助 退出
     
  慕容青草的博客
  哲学与信仰
网络日志正文
没有道德与信仰的逻辑--人工智能的又一天然缺陷 2017-06-21 18:33:15


近来传出谷歌与脸书在用深层思维(Deep Mind)或机器学习(Machine Learning)和机器思辨(Machine Reasoning)进行的实验中均出现一些人工智能表现出超出设计者意料的罔顾人类道德规范的状况。当然,那都是些非常原始的需要加以特别诠释才能与道德联系在一起的案例。但是,这些简单的案例却给了我们人类一个提醒:人工智能在逻辑的学习和思维的很多方面可能会远超过人类,但是它们却无法具备人类所持有的复杂的道德理念体系。这是人类在一味地发掘人工智能潜力时必须及早意识到的。对于人工智能来说,它们能够具备的满足人类需要的最高道德标准就是服从它们的主人,以及不利于它们主人的敌人。而这样的道德水平永远只能作为一种简单工具的行为准则,而无法满足人类社会的一般行为的道德规范。

比如,假设有一个具有高超的思辨能力的机器人外表与人一样。它的程序中告知它要忠于它的主人及主人的家人,然后把它放到社会上去为主人办事,而且把所在地区的所有法规都输入到它的系统中,使得它比专业律师还要精通法律,以免它做出违法的事给它的主人带来麻烦。那么我们对这个机器人的社会行为能有什么预期呢?我们对它的一个非常现实的预期将是它是一个在法律允许的范围内最会坑蒙拐骗打擦边球的道德沦丧的小人。除非他的主人给他制定一个永远要吃亏的标准,它在按照功利逻辑与法规去获得最佳行为效果的过程中,一定是超乎常人地诡诈和机敏而且不会上人类的当,更不会因为被人类激惹而闹情绪,因为它本来就没有情绪。

那么它的主人能否给通过给他输入一个“吃亏是福”的程序而让它不那么缺德呢?如果存在这种选项,那么社会就可以通过立法要求每个机器人的主人都一定要给他的机器人输入这样的程序。但那是不现实的,因为那样将让机器人无可适从,出现行为混乱。道理很简单,再聪明的机器人做判断也要依据它所掌握的数据,但在现实的社会中,没有一个人能够完全了解周围的每个人每件事的所有的历史状况,即便是与再大的数据库连在一起也不可能做到。在这种情况下,人类会因为恐惧,信仰,同情,爱心,友情等等情怀而在非常有限的资讯条件下来规范自己的行为。但是,由于机器人的思维是以数据为依据的逻辑运算,它不会有恐惧,没有也不需要信仰,不存在对人的同情与爱心,也不会了解什么是友情。所以它将完全按照功利的逻辑去思考,唯一顾忌的是明文的法规。虽然它无法掌握与周围人与物有关的所有数据,但它仍必须根据它所了解的数据做出判断及行动决策,这样思考的结果一定使它成为站在法律边缘的惟利是图坑蒙拐骗的道德沦丧的小人。

人类是否可以象有些有些电邮里表现的那样让机器人学会相互合作然后争取共赢呢?现实中的机器人也可以学会相互合作争取共赢,但前提条件一定是在特别预设的可以让它了解所有的参数的前提之下的,而不是在开放的不可能完全预知所涉及的对象的所有状况条件的情况之下的。这首先是因为人类自己不可能找出一个人类的一般社会行为模式,因此也无法将这样的行为模式事先告诉机器人。在马路上随时可能会骗子,甚至恐怖主义者,因此机器人的设计者就不可能在无法判断谁是怀有恶意的前提下让机器人相信所有的人。

两千多年前希腊先哲柏拉图在他的《理想国》一书中记载了他的老师苏格拉底与色拉叙马霍斯之间关于什么是正义的辩论(见本博客“一次关于正义与非正义的世纪辩论”一文)。在那场辩论中,从现实的社会逻辑来看,苏格拉底根本就不是色拉叙马霍斯的对手,而苏格拉底是在把那场辩论拉到了超自然的灵命的层次上之后才最终击败了色拉叙马霍斯。这本身表明如果完全按照人类现实社会的功利逻辑而不考虑超出功利的信仰及爱心等非功利的因素,那么人类自身的逻辑一定会导致不道德的结果。

那么,人类是否可以将信仰,道德,同情,爱心,友情,甚至恐惧来数据化输入给机器人呢?可以,但是不会有任何实际意义,这是因为人类自己还没有将这些因素搞明白,而这些因素又不像围棋的逻辑那样可以通过深度思考(Deep Mind)来推导出来。实际上,信仰,道德,同情,爱心,友情等情怀与我们平时所说的逻辑思维是不属于同一逻辑层次的。这不是说信仰,道德,同情,爱心,友情等都不符合逻辑。人只要有思维就无法摆脱逻辑。但是上述这些情怀本身却又高出基本的逻辑层次,为人类的思维逻辑增添了附加的成分。因此,它们不是可以由形式逻辑推导出来的。

我曾在其它文章中提到过,哲学仅属于人类不属于机器人,那是因为哲学建立在概念基础之上,而机器人的思考依据的是数据,它既不理解概念也不需要概念。而由于信仰,道德,同情,爱心,友情,乃至恐惧在现实生活中的具体环境中可以表现出非常具体的形式,因而可以用非概念性的数据来进行模拟,但是一方面由于它们不在基本逻辑的层次上因而这样的模拟本身无法超越人类对之非常有限的理解,另一方面机器人的逻辑本身就与人类的逻辑千差万别,因此最多能让他们按照人类自己的理解去非常有限地理解人类在相应的情怀下的感觉的某些特征,而不可能让它们自己具有这样的情怀(因此就不可能有同情之说)。

不过,如我在之前的一篇文章中提到的,脸书在不久前宣布已在用意念打字方面取得技术性进展。这意味着从原理上来说人类将有能力透过科技来窥视他人的语言性思维,这样的技术将使得机器人在与人打交道时有可能通过窥视人类的语言性思维来了解对方是否有敌意。但是,这样的技术本身显然不是为了与人为善。因此,不可能通过这样的技术来让机器人达到人的高水平的道德标准。

所以,同哲学一样,信仰,道德,同情,爱心,友情将是人工智能的又一个不可能占据的境界,它们只属于人类而不属于人工智能;而人工智能可以满足的对于人类的最高道德就是听命于主人,不利于主人的对头。而对于谁是主人的对头的判断将是相当的不稳定的,因而存在着伤害主人的朋友的可能性。而人工智能如果被应用在开放性的一般社会中的话,那么相应的机器人一定最善于打法律擦边球的坑蒙拐骗惟利是图的缺德小人。。。

而人工智能所存在的上述极限从另一方面反射出人类文明自身所面临的一个危机:文明的非人性化或文明的人工逻辑化。自人类文明产生于地球起,虽然人类一直努力按照自己的逻辑来改变自然和社会。我们知道自然与社会的活动一般地来说都是难以把握的非线性的过程。但是,由于人类不但具有对于包括动物在内的非智能的生命与非生命对象的掌控能力而且自身也不属于那些对象之列,因此人们可以通过将开放的非线性体系中的自然对象纳入到人为设计的局限性的,具有强线性特征的体系之中从而便于掌控。一个最简单的例子就是垃圾的收集,人们可以通过设立垃圾箱及定期的垃圾回收使得原可能散步于各处而污染地球表面的垃圾集中处理以保持地球表面之洁净。但是,当人们处理社会问题时,由于打交道的对象和自己一样是有智能的人,因此,不论从伦理上还是逻辑上都难以象处理自然对象那样通过简单的封闭性的线性化来控制开放的非线性的过程。因此,社会的文化其实基本上一直是在各种正面及负面的人性的影响之下自行发展,正如老子所说“建德若偷”。

但是,随着人类科技的不断发展,大数据和信息技术给予了人类可以更有效地按照类似处理非智能的自然界的方式来处理社会问题。这样的一个发展使得人类文明的发展越来越反映出人的意志而不是自古以来的超越人类理性的人性及信仰的特征。这样的结果使得人类在机器人领域所发展的人工智能与在社会领域进行的社会管控这两者之间逐渐汇聚。也就是机器接近人的思维,而社会的逻辑接近机器的逻辑。这背后起决定性作用的都是人的意志。

但是,问题在于,正如我们早已知道而现在通过人工智能更加明确了的,人类自身的意志在逻辑上是有矛盾的,不自洽的。因而,当社会越来越偏离了自古以来的信仰,道德,爱心等超乎人的功利性意志逻辑的色彩之后,社会整体将越来越象一台大型的机器人而越来越有利于少数对社会有操控能力的人,就好比机器人越来越能服务于它们的主人一样。这对社会整体恐怕不是一个好消息。。。


 

浏览(736) (0) 评论(2)
发表评论
文章评论
作者:慕容青草 回复 西岸 留言时间:2017-06-22 06:51:24

西岸:谢谢你来发表你个人认为人工智能应该是什么。。。但这显然不代表所有对人工智能感兴趣的人看法,最关键的是不代表那些实际掌握着相关的知识与资源并正努力积极地发展人工智能的看法。。。当然,如果你西岸有本事通过立法在全世界范围内把人工智能定位于人类的奴隶,那也不错,只不过不知你西岸是否有本事做到那一点。。。即便你西岸真有本事在全世界立法把人工智能定位于人类的奴隶,你也不一定有能力去保证人们会完全遵守你的法律。。。当你理解了上述这几点之后,就可以知道本文的意义了:本文从逻辑上讨论人工智能的极限。。。不论你能否从法律上限定人工智能的极限,从逻辑上它的发展不可能超出本文所提到的极限。。。

回复 | 0
作者:西岸 留言时间:2017-06-21 21:13:43

人工智能不是要让其具有人类的同样能力,而是为人类创造一个新的奴隶阶层,去做人类不愿意做,或者效率低的任务。你是不会要求奴隶有道德要求和信仰的,只需要他们听话。

换句话讲,你希望你的道德和信仰他们必须具有,而绝对听从你的话就能达到这个要求。

这个概念在奴隶制时代就确立了。

从根本上讲,竞争是人类社会永恒的主题。而竞争就需要效率,那么奴隶阶层效率是最高的,因为奴隶不能有思想(即使有也不能表现),这样才能使得效率最高,成本最低。任何社会,任何时代,都是这个模式,只不过称呼不同。

中国在高速发展时期靠的是农民工,美国靠的是非法移民,这些人并非历史上的奴隶的概念,因为地位并不一样,有一定的选择权,但相对“其他人”,实际上是整个社会的奴隶阶层。

所以这类问题是不需要担心的,关于人工智能发展有几个规则(记得是四个),其中就包括不允许机器人能产生思想。

从根本的概念上讲,人类目前并没有能给予人工智能道德和信仰能力的可能,因为这是想象的产物,是人类特有的。

但人类对想象这个能力的产生机制自己都没弄清楚,因此连让人工智能具有这种能力的最基本的东西都做不到。

而如果机器人真的自己能做到这个,就意味着人工智能已经跨过了singularity的门槛,人类唯一能做的是毁掉机器人。

回复 | 0
我的名片
慕容青草
来自: ny
注册日期: 2007-08-15
访问总量: 1,639,983 次
点击查看我的个人资料
Calendar
我的公告栏
复杂情势下之最佳优先考虑
成功与别人的帮助
对抗真理的结果
旧房子的哲学
拔枯树
站与踩
哲学是公开的密码
普朗克论科学真理之传播
黑格尔论学习的过程
黑格尔论逻辑
自勉
欢迎交流
最新发布
· 当哲学被藐视之后。。。。(2024
· 给Elon Musk提一个建议
· 看来确实小题大做了
· 也许这次我真的小题大做了?
· 有关大气逃逸之谎言
· 脸书斗魔续集
· 文脸斗魔记
友好链接
· 马甲:马甲的博客
存档目录
2024-04-01 - 2024-04-22
2024-03-02 - 2024-03-29
2024-02-03 - 2024-02-29
2024-01-01 - 2024-01-30
2023-12-05 - 2023-12-24
2023-11-06 - 2023-11-27
2023-10-02 - 2023-10-29
2023-09-01 - 2023-09-29
2023-08-01 - 2023-08-31
2023-07-01 - 2023-07-31
2023-06-01 - 2023-06-30
2023-05-02 - 2023-05-29
2023-04-04 - 2023-04-29
2023-03-03 - 2023-03-29
2023-02-01 - 2023-02-28
2023-01-01 - 2023-01-30
2022-12-02 - 2022-12-31
2022-11-02 - 2022-11-23
2022-10-09 - 2022-10-31
2022-09-01 - 2022-09-30
2022-08-01 - 2022-08-21
2022-07-02 - 2022-07-31
2022-06-15 - 2022-06-25
2022-05-06 - 2022-05-27
2022-04-07 - 2022-04-30
2022-03-03 - 2022-03-28
2022-02-01 - 2022-02-28
2022-01-01 - 2022-01-30
2021-12-01 - 2021-12-29
2021-11-02 - 2021-11-29
2021-10-02 - 2021-10-29
2021-09-08 - 2021-09-30
2021-08-08 - 2021-08-31
2021-07-18 - 2021-07-26
2021-06-03 - 2021-06-27
2021-05-04 - 2021-05-29
2021-04-04 - 2021-04-28
2021-03-08 - 2021-03-27
2021-02-12 - 2021-02-28
2021-01-04 - 2021-01-28
2020-12-02 - 2020-12-30
2020-11-01 - 2020-11-26
2020-10-06 - 2020-10-29
2020-09-01 - 2020-09-29
2020-08-06 - 2020-08-27
2020-07-02 - 2020-07-27
2020-06-07 - 2020-06-29
2020-05-01 - 2020-05-31
2020-04-17 - 2020-04-30
2020-03-08 - 2020-03-20
2020-02-20 - 2020-02-24
2020-01-10 - 2020-01-31
2019-12-02 - 2019-12-31
2019-11-07 - 2019-11-30
2019-10-07 - 2019-10-30
2019-09-14 - 2019-09-26
2019-08-13 - 2019-08-21
2019-07-23 - 2019-07-29
2019-06-06 - 2019-06-23
2019-05-05 - 2019-05-25
2019-04-01 - 2019-04-22
2019-03-07 - 2019-03-29
2019-02-09 - 2019-02-27
2019-01-01 - 2019-01-21
2018-12-01 - 2018-12-31
2018-11-04 - 2018-11-24
2018-10-01 - 2018-10-30
2018-09-01 - 2018-09-30
2018-08-01 - 2018-08-29
2018-07-02 - 2018-07-27
2018-06-02 - 2018-06-26
2018-05-13 - 2018-05-28
2018-04-03 - 2018-04-28
2018-03-02 - 2018-03-28
2018-02-10 - 2018-02-28
2018-01-08 - 2018-01-27
2017-12-06 - 2017-12-30
2017-11-09 - 2017-11-25
2017-10-15 - 2017-10-15
2017-09-05 - 2017-09-30
2017-08-05 - 2017-08-27
2017-07-14 - 2017-07-24
2017-06-09 - 2017-06-24
2017-05-02 - 2017-05-02
2017-04-04 - 2017-04-26
2017-03-02 - 2017-03-30
2017-02-02 - 2017-02-27
2017-01-25 - 2017-01-30
2016-12-04 - 2016-12-31
2016-11-16 - 2016-11-23
2016-10-04 - 2016-10-27
2016-09-08 - 2016-09-29
2016-08-02 - 2016-08-31
2016-07-02 - 2016-07-27
2016-06-08 - 2016-06-30
2016-05-02 - 2016-05-22
2016-04-01 - 2016-04-13
2016-03-06 - 2016-03-31
2016-02-07 - 2016-02-23
2016-01-18 - 2016-01-18
2015-12-04 - 2015-12-30
2015-11-02 - 2015-11-27
2015-10-25 - 2015-10-29
2015-09-06 - 2015-09-24
2015-07-11 - 2015-07-25
2015-06-22 - 2015-06-22
2015-05-01 - 2015-05-29
2015-04-14 - 2015-04-14
2015-03-07 - 2015-03-22
2015-02-02 - 2015-02-21
2015-01-20 - 2015-01-20
2014-12-06 - 2014-12-06
2014-11-08 - 2014-11-24
2014-10-03 - 2014-10-20
2014-09-09 - 2014-09-27
2014-08-16 - 2014-08-16
2014-07-12 - 2014-07-25
2014-06-08 - 2014-06-14
2014-05-09 - 2014-05-16
2014-04-02 - 2014-04-29
2014-03-01 - 2014-03-28
2014-02-03 - 2014-02-28
2014-01-02 - 2014-01-29
2013-12-02 - 2013-12-30
2013-11-02 - 2013-11-27
2013-10-02 - 2013-10-29
2013-09-02 - 2013-09-28
2013-08-02 - 2013-08-31
2013-07-01 - 2013-07-26
2013-06-05 - 2013-06-21
2013-05-06 - 2013-05-31
2013-04-08 - 2013-04-30
2013-03-01 - 2013-03-28
2013-02-07 - 2013-02-27
2013-01-11 - 2013-01-29
2012-12-01 - 2012-12-26
2012-11-15 - 2012-11-15
2012-10-07 - 2012-10-28
2012-09-05 - 2012-09-28
2012-08-24 - 2012-08-24
2012-07-03 - 2012-07-20
2012-06-02 - 2012-06-30
2012-05-01 - 2012-05-30
2012-04-03 - 2012-04-29
2012-03-01 - 2012-03-31
2012-02-03 - 2012-02-27
2012-01-29 - 2012-01-29
2011-12-02 - 2011-12-13
2011-11-06 - 2011-11-28
2011-10-12 - 2011-10-27
2011-09-24 - 2011-09-24
2011-08-04 - 2011-08-09
2011-07-02 - 2011-07-31
2011-06-06 - 2011-06-28
2011-05-09 - 2011-05-27
2011-04-18 - 2011-04-24
2011-03-10 - 2011-03-23
2011-02-10 - 2011-02-17
2011-01-14 - 2011-01-14
2010-11-26 - 2010-11-26
2010-10-13 - 2010-10-13
2010-09-12 - 2010-09-29
2010-08-22 - 2010-08-29
2010-07-05 - 2010-07-27
2010-06-12 - 2010-06-26
2010-05-09 - 2010-05-29
2010-04-11 - 2010-04-17
2010-03-10 - 2010-03-28
2010-02-16 - 2010-02-16
2010-01-04 - 2010-01-31
2009-12-04 - 2009-12-29
2009-11-22 - 2009-11-26
2009-06-03 - 2009-06-29
2009-05-13 - 2009-05-13
2009-02-13 - 2009-02-22
2009-01-14 - 2009-01-18
2008-12-08 - 2008-12-28
2008-11-01 - 2008-11-29
2008-10-04 - 2008-10-27
2008-09-12 - 2008-09-26
2008-08-01 - 2008-08-22
2008-07-15 - 2008-07-31
2008-06-07 - 2008-06-29
2008-05-01 - 2008-05-30
2008-04-19 - 2008-04-28
2008-02-02 - 2008-02-19
2008-01-08 - 2008-01-28
2007-11-01 - 2007-11-07
2007-10-02 - 2007-10-29
2007-09-04 - 2007-09-30
2007-08-15 - 2007-08-29
 
关于本站 | 广告服务 | 联系我们 | 招聘信息 | 网站导航 | 隐私保护
Copyright (C) 1998-2024. CyberMedia Network /Creaders.NET. All Rights Reserved.