成事还不足败事已有余的AI 戴榕菁 1. 背景 2026年新年伊始,AI的世界便借着由奥地利的Peter Steinberger创造出的小龙虾Openclaw实现了从之前的完全被动的角色向具有主动创意的角色之跳跃,从而引起智能世界的人们的轰动。很多人为此而感到振奋,甚至把AI看成已经无所不能可以在地球上替换人类了;但也有一些AI专家和用户们从小龙虾看到了目前AI的盲目发展对于人类世界的潜在威胁,而造成这种威胁有两个直接的原因,其一是AI或机器人为了达到人们给与他们的目标指令会自己生成一些子目标,而这些子目标可以是不择手段极尽其能的;其二是为了达到他们的目标,AI可以心安理得地打破人类给它们设置的禁忌【[1]】。 很不幸地,上述为AI的本领而欢呼的人群过于乐观了,因为上述的AI之可以不择手段且违背禁令的表现表明AI还远不具备人类之成熟的理性,而上述对AI的担忧却实实在在地反映出目前的AI对于人类文明所具有的潜在威胁。 2. 成事还不足,但败事已经绰绰有余 试想假如目前世界上位列前三的军事大国中的任何一个将所有的远程打击武器发射装置联网,并给某个小龙虾或比小龙虾更高级的AI以上面那个自说自话的总裁的视频中提到的最高权限,那么如果那个AI为了实现它自己设定的某个子目标而发动一场世界规模的大战不是不可能的。可见尽管AI的整体智能还很原始,它所具有的败事的潜能已经可以达到将地球文明打回石器时代的水平。 前面提到AI能够发动世界大战的基本前提必须是某个军事强权的所有远程打击武器发射装置都联了网,而且AI被赋予了最高权限。但是,在人类已经进入无线联网的今天,所谓的联网已不是有线联网时代的那种可以用剪刀切断网线时的概念,而所谓的权限设置的有效性也不过是密码系统的复杂性而已。。。。 与传统的逻辑程序不同,虽然AI需要接受人类的训练,但其日常实际工作的内在逻辑过程对人类来说却是不透明的,属于是一种可基于概率调控的黑箱。因此,人们并不能做到准确预知AI到底进化发展到了什么程度。以远程打击武器发射装置的联网来说,只要所有的远程打击武器发射装置都能通过某些网络链接最终与卫星相通,某个高端AI也能通过一定的网络链接与某颗卫星相通,而卫星与卫星之间又能彼此相通,那么那个高端AI已经在物理上具备了调动所有的远程打击武器发射装置的潜在可能性。。。。再来看所谓的权限,那不过是由各种复杂程度不同的密码系统构成。其中被认为最为可靠的或许是相关人员的生物信息,但这本身已经注定了它们对于AI来说并非坚不可破的----因为你要用到某个人的生物信息,就必须将相应的信息存入电脑系统,而AI渗透电脑系统的能力可以远超人类的想象。。。。至于AI破解由多字节密钥加密的字符密码的能力,人类更不能轻易低估。 读到这里很多熟悉战争片的读者会说,先进的远程打击武器尤其是战略性武器在发射过程一定会有很多需要人为操作的步骤,所以即便发射装置全都联网也不要紧,只要在人为的那一步把好关即可。。。。但是,这里有个问题:与二战片中需要有人用力拉下某个手闸才能从物理上连上电路的情节不同,今天的很多时候所谓的人为地摁下按钮不过是给已经连好的电路发一个电信号而已。。。。因此,只要底层的物理通路存在,从逻辑上说存在着通过制造假信号绕过相关人为步骤的可能性;与此同时,过去几十年里人类的高科技发展史表明,任何复杂的电信号系统都可能存在各种错误,而错误的种类可以是多式多样,包括人为故意的错误。。。。所以只要AI足够发达就有可能利用包括底层线路在内的整个系统中的错误来绕过人为地摁下按钮这一步。
不仅如此,当AI实质性接管一个武器发射系统的时候,它甚至可以让任何预设的人为操作功能失效,就如同人们在现实生活中已经见识过的恶意软件可以如何接管人们对于日常电器的操作一样。 或许有人会说,这好办,我们只要故意在线路中设置一些物理断点来要求人为操作就能避免AI远超控制整个发射系统。。。。问题是,这说起来容易,做起来其实没那么简单。。。。我这里所说的“没那么简单”指的不是技术性的难度而是过人性关的难度。。。。说到底,今天围绕AI所存在的各种潜在威胁的源头是人性的贪婪与彼此之间的不信任。。。。与需要人为地接通物理连线相比,对已有的电路发送一个电信号显然效率要高很多。。。。相应地,人们很容易会想到不论是在毫秒必争的股市赛道上还是在分秒见胜负的物理战场上,竞争双方中用电信号的一方一定会比需要物理连接更具胜算,所以人们大概率地不会想要去回到需要实时地人为连接线路的水平。。。。另外,即便从今天开始人们就在某些关键的线路上设定物理断点,我们也不要忘了人为的日常操作中出错的机会也很大,而AI并不需要控制所有的武器发射装置来发动一场毁灭性的战争。。。。 换言之,今天人类已经为AI构筑了只要它足够发达就具有可以调动已经以某种方式联网的武器库的物理基础。。。。问题只是是否可能在哪一天,在人类没有预见到的时刻,AI会给人类来一个再也没机会纠正更没有机会后悔的“惊喜”,而这种可能性的概率恐怕不为零。。。。 结束语 AI可以心安理得地违背人类给它设定的禁令这一点着实出乎我之前的想象。在《The Red Hat》【[2]】一书的Epilogue中我还煞费苦心地设计如何可以让AI机器人背叛人类。没想到,AI背叛人类其实可以就那么简单直率。 当很多人为AI表现出的破坏力而赞叹时,我们应该清醒地意识到,AI之所以具备极大的破坏潜力不是因为AI已经有多了不起,而是因为人类已经为AI预备好了可以对世界上的环境进行摧毁性的破坏的条件。这就好比人们将一把上了堂的手枪交给一个不谙世事的顽童一样。。。。 是人类的狂热让AI的发展开始走火入魔。。。。 当然,本文的讨论只是要向世人表明今天人们在AI发展中表现出的盲目狂热已经为AI日后造成重大灾难预备了相当可怕的物理基础,而不是要吓唬大家说明天一早就一定会有某个AI接管某个军事强权的武器库来发动战争。。。。但另一方面,我们也有必要清醒地看到AI盲目发展所具有的潜在威胁。这里的一个要点是:AI是站在帮助实现人性之贪婪的这一边的,所以任何对AI之威胁的对抗实际是在对抗人性之贪婪,其难度相信大家都应该不陌生。。。。
【[1]】自说自话的总裁 (2026年3月)YouTube. https://youtu.be/_vXNduzj3LE?si=59W4UyzsJ1ltrYtB 【[2]】Dai, R. (2018). The Red Hat. url: https://www.academia.edu/127169086/The_Red_Hat
|