戴榕菁 1. 背景 2026年新年伊始,AI的世界便借着由奥地利的Peter Steinberger创造出的小龙虾Openclaw实现了从之前的完全被动的角色向具有主动创意的角色之跳跃,从而引起智能世界的人们的轰动。很多人为此而感到振奋,甚至把AI看成已经无所不能可以在地球上替换人类了;但也有一些AI专家和用户们从小龙虾看到了目前AI的盲目发展对于人类世界的潜在威胁,而造成这种威胁有两个直接的原因,其一是AI或机器人为了达到人们给与他们的目标指令会自己生成一些子目标,而这些子目标可以是不择手段极尽其能的;其二是为了达到他们的目标,AI可以心安理得地打破人类给它们设置的禁忌【[1]】。 很不幸地,上述为AI的本领而欢呼的人群过于乐观了,因为上述的AI之可以不择手段且违背禁令的表现表明AI还远不具备人类之成熟的理性,而上述对AI的担忧却实实在在地反映出目前的AI对于人类文明所具有的潜在威胁。 2. 成事还不足,但败事已经绰绰有余 试想假如目前世界上位列前三的军事大国中的任何一个将所有的杀伤性武器发射装置联网,并给某个小龙虾或比小龙虾更高级的AI以上面那个自说自话的总裁的视频中提到的最高权限,那么如果那个AI为了实现它自己设定的某个子目标而发动一场世界规模的大战不是不可能的。可见尽管AI的整体智能还很原始,它所具有的败事的潜能已经可以达到将地球文明打回石器时代的水平。 前面提到AI能够发动世界大战的基本前提必须是某个军事强权的所有武器发射装置都联了网,而且AI被赋予了最高权限。但是,在人类已经进入无线联网的今天,所谓的联网已不是有线联网时代的那种可以用剪刀切断网线时的概念,而所谓的权限设置的有效性也不过是密码系统的复杂性而已。。。。 与传统的逻辑程序不同,虽然AI需要接受人类的训练,但其日常实际工作的内在逻辑过程对人类来说却是不透明的,属于是一种可基于概率调控的黑箱。因此,人们并不能做到准确预知AI到底进化发展到了什么程度。以武器发射装置的联网来说,只要所有的武器发射装置都能通过某些网络链接最终与卫星相通,某个高端AI也能通过一定的网络链接与某颗卫星相通,而卫星与卫星之间又能彼此相通,那么那个高端AI已经在物理上具备了调动所有的武器发射装置的潜在可能性。。。。再来看所谓的权限,那不过是由各种复杂程度不同的密码系统构成。其中被认为最为可靠的或许是相关人员的生物信息,但这本身已经注定了它们对于AI来说并非坚不可破的----因为你要用到某个人的生物信息,就必须将相应的信息存入电脑系统,而AI渗透电脑系统的能力可以远超人类的想象。。。。至于AI破解由多字节密钥加密的字符密码的能力,人类更不能轻易低估。 换言之,今天人类已经为AI构筑了只要它足够发达就具有可以调动已经以某种方式联网的武器库的物理基础。。。。问题只是是否可能在哪一天,在人类没有预见到的时刻,AI会给人类来一个再也没机会纠正更没有机会后悔的“惊喜”,而这种可能性的概率恐怕不为零。。。。 结束语 AI可以心安理得地违背人类给它设定的禁令这一点着实出乎我之前的想象。在《The Red Hat》【[2]】一书的Epilogue中我还煞费苦心地设计如何可以让AI机器人背叛人类。没想到,AI背叛人类其实可以就那么简单直率。 当很多人为AI表现出的破坏力而赞叹时,我们应该清醒地意识到,AI之所以具备极大的破坏潜力不是因为AI已经有多了不起,而是因为人类已经为AI预备好了可以对世界上的环境进行摧毁性的破坏的条件。这就好比人们将一把上了堂的手枪交给一个不谙世事的顽童一样。。。。 是人类的狂热让AI的发展开始走火入魔。。。。
【[1]】自说自话的总裁 (2026年3月)YouTube. https://youtu.be/_vXNduzj3LE?si=59W4UyzsJ1ltrYtB 【[2]】Dai, R. (2018). The Red Hat. url: https://www.academia.edu/127169086/The_Red_Hat
|