top of page

论人工智能的危险性

  • 陈士铭
  • 2月3日
  • 讀畢需時 4 分鐘

2016年3月,谷歌公司的AlphaGo软件与韩国围棋冠军李世石对决。3月10日进行第二场比赛。人工智能企业 DeepMind 联合创办人,也是AlphaGo程序开发参与者的穆斯塔法苏莱曼(Mustafa Suleyman)去年出版著作《即将到来的浪潮》(The Coming Wave),他在书中回忆道:


“然后...第37步来了。这步棋简直毫无意义。AlphaGo显然搞砸了,盲目地遵循了任何职业棋手都不会采用,明显会落败的策略。现场的比赛评论员都是最高级别的职业棋手,都说这步棋‘非常奇怪’,认为这是‘错误的一步’。就因这步太不寻常,李世石整整花了15分钟才做出反应,甚至还站起来散步。”


可是随着这场比赛接近尾声,那“错误”的棋步却证明发挥了关键作用,AlphaGo最终获胜,而那第37步棋后来广受学者专家公认为人工智能发展的转折点,也堪称人类历史上一个重大里程碑。因为人工智能发展至此,发现了几千年来最聪明的棋手都没有想到的下棋思路。


赫拉利的新书《连结》对人工智能的危险性作出了目前为止最为前瞻性的剖析
赫拉利的新书《连结》对人工智能的危险性作出了目前为止最为前瞻性的剖析

以色列历史学家尤瓦尔赫拉利(Yuval Noah Harari)在今年畅销书《连结》(Nexus)里,为了阐述人工智能的潜在危险,特别介绍了这起事件。作为一名著有《人类简史》《未来简史》与《今日简史》等非小说类畅销书的作者,赫拉利对人工智能的看法受到各界关注。在人工智能越来越被广泛使用之际,赫拉利从宏观历史角度出发,剖析人工智能对人类可能构成毁灭性威胁,不能贸然当作危言耸听来看待。他贯穿在书中的慎密思路,不时会让读者对人工智能的未来发展细思极恐。


赫拉利认为,第37步棋之所以意义重大,原因有二。首先,它展示了人工智能的异类性质。在东亚,2000多年来数以万计的人在下围棋中孕育出各种思想流派,提倡不同的策略与哲学,但这么多人在这么长的时间里,并没探索到AlphaGo冒险触及的隐藏领域,而AlphaGo的这步险棋显示出人工智能摆脱了人类思维的限制。


其次,第37步棋展示了人工智能的深不可测。赫拉利引述苏莱曼在其去年著作中的坦言,AlphaGo开发团队到今日仍然无法解释Alpha-Go是如何决定下这步棋的。人工智能的神经网络一走向自主,其算法如何产生并采取特定决策,开发工程师们已经无法了解并作出精确解释。


赫拉利是继英国政府去年11月在布莱切利园(Bletchley Park)国际人工智能安全峰会后,对人工智能危险性发出警告的另一位重大人物。中国、美国和英国等近30个国家政府在峰会后签署了《布莱切利宣言》,坦承“来自这些人工智能模型最重大的功能无论是故意的还是无意的,均有带来严重甚至灾难性危害的潜能。”


目前获世界各地大量运用的 GPT-4 等人工智能工具,在赫拉利看来,就与 AlphaGo 一样都可说是黑匣子,输出的信息与决策都出于不透明并且极为复杂的微小信号链。赫拉利指出,人工智能之所以能对人类构成前所未有的威胁,因为它是历史上第一种能够自行做出决定并创造新想法的技术。人类此前的所有发明都赋予人类权力,无论这些发明工具有多强大,其使用的决定权仍掌握在人类手中。核弹本身不会决定杀死谁,也不能改进自身或发明更强大的炸弹。相比之下,人工智能就可以设计出新颖的炸弹。


更可怕的是,赫拉利觉得人工智能严格来说不像是工具,而更像是一种代理(agent)。随着人工智能的演进,人类使用人工智能时,可能正在召唤地球上无数有潜能比人类更聪明,更有想象力,而且人类还无法完全了解或控制的代理。他因此称人工智能的“人工”一词其实具有误导性的,因为人工智能并没有朝着人类水平的智能演进,而是进化出犹如外星人类型的智能。


当然,目前不是所有人都认同赫拉利对人工智能的看法。ChatGPT 母公司 OpenAI 首席执行官奥尔特曼(Sam Altman)今年9月发表了题为“智能时代”(The Intelligence Age)的文章,预测人工智能将能协助人类“修复气候、建立太空殖民地和发掘所有的物理学”。


刚获得诺贝尔化学奖的DeepMind创始人哈萨比斯(Demis Hassabis)就津津乐道人工智能如何快速推动科学发展,例如DeepMind所开发的Alpha-Fold系统已经模拟出2亿个蛋白质结构。


此外,Anthropic联合创始人达里奥阿莫迪(Dario Amodei)在10月写出了长达1万5000字的“充满爱意的机器”(Machines of Loving Grace)一文,形容围绕在人工智能的恐惧“是一种激励因素,但还不够,我们还需要希望”。


阿莫迪并不否认人工智能具有危险性,然而指出大多数人“都低估了人工智能的积极影响。”


他认为,人类理应关注超级智能的变革潜力,并预测超级智能最早可在2026年到来,届时这种强大的人工智能将能显著加速许多领域的进展,包括治愈许多疾病,延长人类平均寿命至150岁,以及“人工智能财政部长和央行行长”将能更有效地分配全球资源等等。


必须指出的是,这些人工智能乐观叙事出现的同时,各大人工智能初创企业目前仍然能够筹集到大量的资金,而且也继续投入数十亿美元开发其大型语言模型,丝毫没有因赫拉利新书产生的反响而遭遇任何搁置或延误。


平心而论,人工智能的确会带给人类益处,但它无法纠正人类所有的局限与缺点,人类其实也不该指望人工智能这么做。人工智能的危险性将来会否恶化,在一定程度上胥视人类的局限与缺点,在面临人工智能所带来挑战时,到底会有多大程度的显现。从应对新冠疫情大流行以及近来愈演愈烈的地缘政治紧张局势来看,人类的表现不得不让人担忧。


作者为特约撰稿人

 
 
 

留言


⏏回到顶部
bottom of page