设万维读者为首页 万维读者网 -- 全球华人的精神家园 广告服务 联系我们 关于万维
 
首  页 新  闻 论  坛 博  客 视  频 分类广告 购  物
搜索>> 发表日志 控制面板 个人相册 给我留言
帮助 退出
 
丝丝的博客  
Coming soon  
网络日志正文
达沃斯论坛激辩,李开复老师发在朋友圈的纪要 2019-04-12 03:42:55



李开复老师嫌公开发布的达沃斯论坛激辩文章太温和,亲自斧正!



IMG_3091.jpg


thumbnail.jpg



达沃斯对于AI、道德、治理的辩论:1)AI 会进步太快,需要尽快治理吗?传统行业的两位认为Alpha Zero能自我学习,自己学会国际象棋,就代表可能过一阵就“管不住” AI 了,但是懂技术的两位告诉他们其实现在所有的AI都只是工具,而Alpha Zero在下棋方面的突破并不能延伸到真正社会的领域,因为社会没有一个问题是如下棋一样有100%正确的结局反馈的。


2)AI 时代的9大公司,会不会力量太强大?有一位作者的新书就是这个题目,当然站在正面。虽然我们都同意有些公司AI 十分强大。其它人都认为经过数据的分享和公开,可以降低垄断。我也提出AI 不只是移动互联网应用,领域很多,巨头并不能用数据优势碾压非相关领域的新创公司。


3)AI 需要治理吗?欧洲的代表表示必须治理,因为要把个人隐私还给个人,要尽快立法,否则和互联网一样,没管好就乱了。其它人都对此表示如果数据去中心化之后,AI提供的价值和方便就会消失。今天的用户不可能不要9大巨头提供的各种方便。我认为每个国家应该基于自己的国情,开始管理AI和数据中最严重的问题,比如说在中国出售他人数据是违法的并且严惩。印度的代表表示:印度的很多公众数据都可以脱敏后公开,而且加上全民智能身份证、生物识别技术,这些都能推动AI。如果过分治理,AI进步速度就会大大放缓,而付出的代价就是AI 对于医疗、脱贫的价值。


4)AI能够完美地自我解释每个决策吗吗?欧洲代表认为需要立法,要求所有AI都能解释自己的每个行为和决定。大家都同意尽量让AI能够解释自己,这也是很好的科研方向。我也提到能寻找漏洞和软件硬件的过失,数据的偏见都是需要的。但是让AI完美解释自己是很困难的,因为AI之所以强大就是可以再海量数据中找出一个很复杂的数学公式,这公式如果很容易解释,那人不就取代AI了。另外,我们解释人也未必能解释出每个行为决定,所以“尽量做”和“必须做到完美”是非常大的差距。


5)唯一比较能达到共识的就是在医疗数据方面,要做更多的(脱敏)数据共享,让更多从业者在大数据的基础上开发医疗AI。这是值得各个国家努力的目标。这些数据库的打造、公开,都是每个国家应该探讨的事情。


在达沃斯的讨论:1)科技是否让人类进步?虽然近年在欧美,很多公司被诟病。但是我认为出问题的情景(病毒、社交媒体分化社会)不是因为技术,而是少数人的恶意或错误。但是善意的人多余恶意的,而且有政府媒体监督。从Y2K 和病毒安全问题,我们一次又一次地看到技术被用来克服被恶意或错误的技术。所以我们要相信:技术一定是带来人类的进步。


2)科技是否会带来失业问题。短期和长期有很大的差别,短期因为AI和自动化,会大批取代人类的工作,长期科技会创造更多的工作,但是需要的技能是和被取代的这批人是不匹配的。虽然大家对长短期的严重度有不同的看法,大家一致同意再培训+企业责任感是关键。


3)再培训不是在已有岗位学习做得更好,而是面临工作被取代,去学习新的技能。一个例子就是埃森哲在印度有四万个做数据整理和录入的员工,将被大数据取代,埃森哲提供了机会给他们做大数据管理员、客服等工作,四万人里面一个也没有失业。HSBC提到他们会培训重复式工作的员工进入和客户接触,需要温度的工作。我也提到亚马逊提供每个员工40%的工资的培训费用,而且唯一要求是培训的领域是不会被取代的,是否在亚马逊有这个岗位反而不重要。


4)上面的例子可以看到:企业的社会责任感非常的重要。如果企业只在乎赚钱和股价,那么他们就直接裁员,把问题抛给政府。但是这几个公司认为公司不止对古董有责任,对员工和社会也有责任。所以他们提供了这些培训的课程。


5)到底工作会不会被取代?我的观点是AI 和自动化能做大部分的重复性的任务,而很多工作大部分的任务是重复性的,所以有三种方法取代:1)一对一的取代(比如说自动收银机取代收银员),2)间接取代(比如说互联网支付颠覆信用卡,因而带来信用卡员工的失业),3)部分取代形成人工池(比如说前台部分50%被取代,前台人员的人工池也可以减少50%)。这三种都是必然的现象。在这个问题上,很多传统公司和科技公司都不愿意承认,传统公司因为不想吓到员工,科技公司因为不想承担责任。

by 李开复



IMG_2948.JPG

-----------------------------------------------

达沃斯论坛激辩:如何为人工智能制定规则


创新工场                                                                                                 




人工智能技术的飞速发展,将有机会重新定义未来人类工作的意义以及财富的创造方式,带来前所未有的经济重塑,甚至改变全球的权力格局。正因如此,全球各地的经济体都在致力于制定相应的战略计划,以期在人工智能赛道的竞争占据优势。


当地时间 1 月 24 日晚,美国《连线》(Wired)杂志总编 Nicolas Thompson 在达沃斯世界经济论期间主持了一场围绕「为人工智能竞赛制定规则」的主题探讨,创新工场董事长兼 CEO 李开复印度国家发展改革研究院(NITI Aayog)CEO Amitabh Kant纽约大学斯特恩商学院助理教授 Amy Webb西门子主席监事会主席 Jim Hagemann Snabe 以及对冲基金 Tow Sigma 联合创始人 David Siegel 五位来自产学界前沿人士参与了这场激烈的讨论,分享了各自关于如何为人工智能制定规则、如何看待人工智能时代数据安全等问题的观点。



如何为人工智能制定规则?


李开复:当技术的出现带来一些问题时,我们需要制定相应的规则。


眼下人工智能技术曾经发生的一些问题基本属于意外或是某些公司的失误。人们在很大程度上对人工智能拥有误解,存在偏执和炒作现象,我们应该去看看人工智能的实际价值。


当我们在谈论人工智能时,其实谈论的是机器学习、深度学习,它本质上只是一个帮助人类的工具,出现问题的根源往往来是人为的错误。


在某种意义上,规则已经存在了——人工智能技术应用于银行,就有了新的银行规则;人工智能技术应用于车辆,就有了新的交通规则。在这里,数据规则是其中的核心。


在是否需要制定规则、制定什么样的规则问题上,不同的国家和文化对此有不同的看法。我希望世界经济论坛与 AI 委员会能够帮助大家分享想法,让更多的公司和国家直接进行沟通与对话,减少对彼此的误解。


创新工场董事长兼 CEO 李开复


Amy Webb:  目前,全世界有 9 家公司正在掌控人工智能的未来,其中 6 家来自美国,即 GMAFIA ,也就是谷歌、微软、亚马逊、Facebook、IBM、苹果,3 家来自中国,分别为百度、腾讯、阿里巴巴。我们应该关注这些巨型企业的动向,因为他们不仅仅编写软件,也在构建框架,甚至是消费者行为等方面都拥有话语权。


这里的挑战其实在于,能够代表我们去制定人工智能未来规则的人只是少数,其实我们都将受到人工智能影响力的辐射,几乎每一个消费者都会在某一个时间点接触到上面提到的几家公司。


纽约大学斯特恩商学院助理教授 Amy Webb


David Siegel:今天,人工智能只是在计算机中运行的一行行代码,我们其实很难区分人工智能软件和常规软件的区别。制定规则的重点在于,如何处理软件和大数据的交叉部分。在我看来,最重要的问题其实都集中在数据上面。


对冲基金 Tow Sigma 联合创始人 David Siegel


Jim Hagemann Snabe:人工智能是最具影响力的技术之一,我们必须给予其足够程度的关注。但我认为,现在我们在人工智能的应用上并不是很聪明,现在是时候利用这项技术来解决一些更为重要的问题了。


对我来说,制定规则的重点在于对数据的访问以及如何以开放的方式利用平台。如果我们不允许人们平等地访问数据和平台,那么未来将面临很严峻的问题。


西门子主席监事会主席 Jim Hagemann Snabe


Amitabh Kant:在印度,人工智能技术和数据都是政府公有的,在我看来,印度所面临的挑战与西方世界截然不同。


我们相信人工智能会改变人类的生活,我们的关注的重点是,如何通过人工智能技术最大程度挖掘数据的价值,以科学的方式来改变公民的生活,例如向医生提供更好的图像数据,帮助学生提高学习效果、在农业卫生等领域发挥作用等。


印度国家发展改革研究院(NITI Aayog)CEO Amitabh Kant


如何面对人工智能时代数据安全和伦理问题?


Amy Webb:  现在用来训练算法的数据通常都来自几个相同的数据集,这些系统会对我们的生活做出决策。大多数人是不知道他们的数据是如何被系统收集并商业化的。我们所迈向的未来里,可能会有一到两个组织持有我们的个人数据。


人们对人工智能的探讨将是一场长达数年的旅程,挑战在于我们无法推迟这件事的发生。我们现在能做的,就是把自己掌握的信息反馈给各自的组织机构,并努力推进自己对这些问题的思考。


David Siegel:可以先看看我们正在使用的旧规则。在谈到人工智能的工作方式时,人们可能会对计算机自动做出决策而感到不舒服。但事实上,计算机已经在很长一段时间里在做这样的事情了,例如,飞机在大部分时间里都是由机器接管的。


人工智能的发展进程要比大多数人想象的要慢,这不意味着我们不会取得进展,但我认为我们不可能在有生之年进入机器完全接管的恐怖状态。


Hagemann Snabe:我很担心人们对于人工智能技术的想法过于天真。在使用人工智能技术并将其用于某些极端情况时,访问个人数据和保护隐私安全之间的界限在哪里?在构建平台的同时避免垄断,如何实现?算法开始自主学习,相应地人类就要失去控制权,如何平衡?


我们需要了解数据的使用方式以及被用在哪里。消费者必须拥有对他们的个人数据处理、选择的权利,这是一个基本原则。在这样的原则之下,我们才会更好地使用这项技术,用人工智能帮助人类提升能力,而非取代人类。


人工智能可以解决世界上的许多问题,西门子愿意共享数据以避免形成垄断,例如分享西门子在医疗领域数据以改善治疗水平。我们没有理由去做数据垄断,这会扼杀所有的小型公司。


Amitabh Kant:我们需要规范,但是引入太多的规则会扼杀创新。我们的目标是利用人工智能技术给人们带来利好且不会带来威胁,那么建立一个全球联盟就非常重要,类似于欧洲核子研究组织(CERN)对粒子物理学的存在。通过联盟从实践中学习、从彼此身上学习,从而让人工智能技术变得更好。


数据就像一条公路,你要向公路公开所有的数据。我们相信,所有的数据都应由公共政府持有,这些数据都应被公开,最终的受益者会是消费者。


李开复:人工智能只是一项能够改善我们生活的工具。之前亚马逊的人工智能招聘工具曾经曝出性别歧视的情况,其实这些问题是可以通过大型数据集来解决的。可能有人会怀疑人工智能说它存在偏见,但我保证,如果在简单系统上使用正确的数据集,它的偏见会比人类要小。


在不侵犯个人数据隐私的前提下,共享数据是一件很好的事情,收集到更多的数据将有助于促进人工智能技术的研究与发展。我曾是一名癌症患者,我愿意将自己的相关数据贡献给研究人员,相信大多数癌症幸存者也都是一样的。


我们需要让人们知道人工智能可以做什么、不能做什么、在哪里能创造规则,在哪里不能。而不是盲目的对人工智能抱以恐惧或管制的态度。试图要找到一个普适性的方法并不是、也不可能是最终解决方案,关键在于分享彼此的实践经验。我很希望一年内,我们将有人愿意分享自己的实践成果,展开更多具有实质价值和指导方向的对话。





浏览(467) (0) 评论(8)
发表评论
文章评论
作者:嘎拉哈 留言时间:2019-04-13 15:15:55

【我们需要让人们知道人工智能可以做什么、不能做什么、在哪里能创造规则,在哪里不能。而不是盲目的对人工智能抱以恐惧或管制的态度。试图要找到一个普适性的方法并不是、也不可能是最终解决方案,关键在于分享彼此的实践经验。我很希望一年内,我们将有人愿意分享自己的实践成果,展开更多具有实质价值和指导方向的对话】

--- 自由民主的主观价值理念,与人工智能的客观价值,二者之间显然存在着不可调和的悖论。按照我个人的看法,人工智能给人类带来的好处就是科学的好处。每个个体都应当适当地放弃一部分自由。来获得更好的better off.

从这个角度说,如今的形式,已经不再是独裁怕民主,中国怕美帝,而是美帝怕中国。

回复 | 0
作者:嘎拉哈 回复 嘎拉哈 留言时间:2019-04-12 20:59:30

【AI唯一不能模拟的东西是目的。】

--- 更正一下,AI可以模拟目的,但不能产生独立于人类的新目的。退一万步将,就算AI通过学习,有了某种看似独立的目的,但是这种目的仍然不具备人类目的自然内在(intrinsic)特征。

关于这一点,约翰-瑟尔(John Searle) 的解释非常到位。人类目的的主观性,属于本体性主观(ontologically subjective)。相比之下,AI的所有的能力或者目的,都只能停留在知识的范畴。而一切知识的本质,都具有本体客观性。

回复 | 0
作者:嘎拉哈 回复 嘎拉哈 留言时间:2019-04-12 20:33:56

(续)数数也好,计算也罢,都是为某个目的服务的。原则上说,一切同数数和算计有关的思维内容,都可以被AI成功模拟。AI唯一不能模拟的东西是目的。以Alphazero为例,AI即不懂下棋的目的是什么,也不懂围棋的规则。围棋的规则和“赢”,都是人类通过“算法”形式告诉AI的。

表面上看,下围棋是一种智慧,其实是数数。

回复 | 0
作者:嘎拉哈 回复 嘎拉哈 留言时间:2019-04-12 20:17:42

【但是懂技术的两位告诉他们其实现在所有的AI都只是工具,而Alpha Zero在下棋方面的突破并不能延伸到真正社会的领域】

--- 不仅现在,AI永远都将是人类工具。以波音737max为例,AI的一切错误,其实通通都是人的错误。就算AI真的有“智慧,”也将永远是人类最忠实的奴仆。

Alphazero 给人们带来的各种担心其实是一个误区。首先,人类大脑的意识只可能被AI所模拟(simulate),而不能被创造(duplicate)。

大脑的思维可以分为截然不同的两大部分。1数数(non-creative counting) 2创新(creative thingking). 其实,在人的一生中,大脑百分之九十的思维活动都属于前者。数数部分其实是不需要智慧的。

“数数型思考”的例子非常多。,典型的诸如高考复习,背英语单词,下围棋等。

回复 | 0
作者:嘎拉哈 回复 嘎拉哈 留言时间:2019-04-12 19:48:41

江青曾经有一个说法,宁可不要卫星上天,也不能让红旗落地。宁要社会主义的草,也不要资本主义的苗。

现在的情况似乎有颠倒过来的趋势。西方民主社会正在蔓延着这样一种情绪,宁要自由的草,也不要AI的苗。

回复 | 0
作者:嘎拉哈 留言时间:2019-04-12 19:42:48

【达沃斯对于AI、道德、治理的辩论:1)AI 会进步太快,需要尽快治理吗?传统行业的两位认为Alpha Zero能自我学习,自己学会国际象棋,就代表可能过一阵就“管不住” AI 了,但是懂技术的两位告诉他们其实现在所有的AI都只是工具,而Alpha Zero在下棋方面的突破并不能延伸到真正社会的领域,因为社会没有一个问题是如下棋一样有100%正确的结局反馈的】

---- 李开复说的好。其实,百分之九十九的担优都是来自西方民主国家。这本身就说明,这些担忧都是建立在诸如市场经济,个人的自由权利,等一系列主观预设立场的基础上的。而真正的问题是谁到底应当适应谁?是让AI无条件服从于某个既定体制,还是找到一个同AI更适应的体制?从这个角度说,中国的现行体制要比西方民主体制灵活的多。

回复 | 0
作者:丝丝 回复 花蜜蜂 留言时间:2019-04-12 15:53:16

【工业革命过后发生过二次世界大战,再来一场AI革命的大战?!】

工业革命不是必然带来世界大战,世界竞争大战倒是可能

回复 | 0
作者:花蜜蜂 留言时间:2019-04-12 06:38:43

到底工作会不会被取代?我的观点是AI 和自动化能做大部分的重复性的任务,而很多工作大部分的任务是重复性的,所以有三种方法取代:1)一对一的取代(比如说自动收银机取代收银员),2)间接取代(比如说互联网支付颠覆信用卡,因而带来信用卡员工的失业),3)部分取代形成人工池(比如说前台部分50%被取代,前台人员的人工池也可以减少50%)。这三种都是必然的现象。在这个问题上,很多传统公司和科技公司都不愿意承认,传统公司因为不想吓到员工,科技公司因为不想承担责任。

~~~~~~~~~~~~~~~~~~~

人工智能发展的速度,会造成取代员工大大超过培训员工的速度。结果,在人工智能发达和应用最先行的国家,首先就会造成社会大量人员失业,社会闲散人口暴增的现象。这些人活着还不会马上消失,这些国家就可能会率先引发大规模社会动乱。而那时候的再生产能力会发生爆发性增长,就只能开拓更加广泛的市场,大量向外输出产品产能。

工业革命过后发生过二次世界大战,再来一场AI革命的大战?!

回复 | 0
 
关于本站 | 广告服务 | 联系我们 | 招聘信息 | 网站导航 | 隐私保护
Copyright (C) 1998-2017. CyberMedia Network /Creaders.NET. All Rights Reserved.