连下三城战胜柯洁的不是一个机器人,而是一个最初由人设计编制而成的电脑程序。 AlphaGo 不必动用机械手,既不需要跟对手掰腕子,也不需要去拈棋子。要问这套程序是否完全处于控制之下,回答是两歧。说是,那表现在它始终遵守下棋的规则;说否,因为它棋路背后的程序已不由任何人——即使是程序设计者——完全支配。 这说明,AI 之为物,它已经与“机器人”有了区别,虽然两者随时可以合为一体。 机器人的设计、制造和使用,其目的是各个具体的,总括起来说是为人类代劳——或代受其累其繁,或代承其险其戾。为了保证机器人只为益不为害,除了防止其失控出偏即发生意外,更须解决“意内”的问题。在制造使用机器人的意图方面,早就有人想到应当预设规则共同遵守,以防机器人被启动攻击人类。然而,这些规则有无普遍约束力? 这些规则能否(甚至应否)防止机器人被用作战斗武器(警用或军用)? 似乎至今仍难有一致答案。 AI 的研发,特别是在 AlphaGo 令人瞩目的成功之后,显然已经提出了比制造使用机器人所要遵守的规则更深更远的问题。 为制造和使用机器人设立规则,其中隐含的前提,或曰题中应有之义,是机器人必须始终在人类控制之下。如近藤大介所说,迄今机器人未脱出前三次工业革命的模式,仍处于“人类控制机器”的时代;而对 AI 的忧虑,是恐怕它将开启“机器控制机器”(“程序开发程序”)的时代,即有朝一日它会成为独立于人类之外的另类智慧。(见近藤大介《人工智能将给人类带来怎样的变化》) 不难感到并继而思索:为制造使用机器人所制定的规则乃至法律,即使已经真实存在,远不能回答和解决今日人工智能研发所加之于人类道德的新问题。归根究底,新的问题就是:为了人类与地球家园和谐共存,对研发人工智能必须施加怎样的限制,以及人类(具体到各国)如何立法将那样的限制落实(韩国政府已经考虑的针对 AI 研发使用的立法措施也许只是个开头,因为那离具有普遍约束力的诸国公约尚远)。再说白一些,这个问题就是:如何预先杜绝由人类始作俑的人工聪慧离开人类无限发展以至泛滥成灾。 如果现实(而非辩词)将证明这个问题原本不存在,或如时兴说法,是个“伪问题”,乃至必将提出者统统阑入“可笑”、“不通”之类,则笔者不但不以为忤、不以为沮、不以为悔,且定将额手称幸,甘心认错,无论何时,绝无食言。
堪笑迂翁智未绵, 生难满百志忧千。 应怜代代榴花梦, 开到繁时月正圆。
|