今年年初,ChatGPT的横空出世点爆了科学界和舆论,让AI这个此前人们还觉得比较科幻的话题真正走进了我们的生活。
5月,中国启动了大模型标准化工作。8月31日,百度、字节跳动、中国科学院等8家企业和机构的大模型产品成为首批通过《生成式人工智能服务管理暂行办法》备案的AI大模型,可以正式上线,向公众提供服务。
AI的发展为我们带来了机遇,也造成了挑战。一时间,关于AI,在舆论场引发了一场广泛的争论。支持“AI拥有意识会威胁人类”的一派对此持有悲观的态度。他们纷纷发出警告,声称像GPT(基于转换器的生成式预训练模型,generative pre-trained transforme)这样的AI工具可能会对人类构成威胁。他们中的一些人认为,GPT 可 能 是 点 燃 通 用 人 工 智 能(artifificial general intelligence)诞生之势的第一个“火花”,而通用人工智能是一种能感知、有意识的机器,它们的智慧可以超越人类。与它们相比,我们人类将变得微不足道。而反对者则认为,目前还没有任何科学依据可以证明,大型语言模型现在具有或者将来会具有主观体验、感知能力这样人类或智力较高的动物才拥有的能力。换句话说,AI悲观者们似乎有些杞人忧天了。技术乐观者们觉得,AI完全不具备我们的生命特征——我们通过感官来感知周边的世界,进而形成意识,而AI只是机器,不能同世界产生类似的互动,因而完全不会形成意识。正如“人工智能之父”、法国计算机科学家杨立昆(Yann LeCun)所说,现今的AI不太可能发展成通用AI,所以它们对人类没有严重的威胁。不过,这些持有乐观观点的人也确实过于乐观了——AI对人类的威胁确实存在。现在的AI即便不拥有意识,但也让一些人放弃了AI不擅长,但人类所特有的一部分能力,比如,创作小说。现在,一些AI经过训练,已经能够帮助人类创作小说。因此,有些作者把创作情节推进部分的工作交给了AI,这样他们就能从费脑的创意性工作中解放出来。长此以往,人类引以为傲的“思考”就完全可由AI取代,而我们也将越来越缺乏思考能力。
我们亲测的由“文心一言”生成的小说梗概
双方都有各自的道理:悲观者的担心不是没有道理,比较AI如何处理数据和信息,做出决策,对于我们来说还是一个“黑盒”,我们现在也无法确认未来AI到底会不会拥有意识;而乐观者的观点更有现实意义,指出了AI与我们人类的本质差别,也指出了现阶段我们依赖AI存在的问题。
至于AI会不会像《黑客帝国》讲述的那样,成为统治我们人类的“主宰”,还需要科学家进一步的研究。未雨绸缪,一些科学家在应对拥有意识的AI方面已经走在了前列。近日,一个由19位计算机科学家、神经科学家和哲学家组成的研究团队发表文章(未经同行评议)指出,根据一些人类意识理论,他们提出了用于判断人工智能是否拥有意识的14项标准。
这是论文中列出的14项标准。AI匹配的标准越多,那么它们拥有意识的可能性就越大。(P. Butlin et al.,2023)
要判断AI是否拥有意识,首先要给意识下一个定义。科学家决定采用纽约大学的心理学家内德·布洛克(Ned Block)提出的“现象的意识”来定义意识,简单来说,意识就是主观感受的体验,比如你看到了红色的花,或是感觉到疼痛。那么怎么去探究AI的意识呢?和人类不同,人类可以通过脑电图或是磁共振成像来检测大脑信号,进而探究人类的意识。科学家总不能给AI做磁共振成像吧?科学家反而选择从人类的意识理论出发,发掘出意识最基本的一些标准,然后再在AI的底层架构中寻找符合这些标准的特征,以此判断AI是否拥有意识。利用这些标准,科学家对目前一些主流的AI工具,比如ChatGPT、PaLM-E,进行了测试。他们发现,目前,没有任何一个AI可以同时满足多个标准,因此它们都没有拥有意识,至少现在是这样。