×
加载中...
人工智能教父称DeepSeek的进步可能会增加安全风险
鞭牛士 2025-01-30 00:52

鞭牛士报道,1月30日消息,据卫报报道,根据人工智能专家的一份具有里程碑意义的报告,人工智能系统被用于恶意行为的可能性正在增加,该研究的主要作者警告说,DeepSeek和其他破坏者可能会增加安全风险。


被誉为现代人工智能教父之一的约书亚·本吉奥 (Yoshua Bengio) 表示,中国初创公司 DeepSeek 的进步可能是一个令人担忧的发展,因为该领域近年来一直由美国主导。


他说:这意味着一场竞争将更加激烈,从人工智能安全的角度来看 ,这通常不是一件好事。


本吉奥表示,美国公司和 DeepSeek 的其他竞争对手可以专注于重新夺回领先地位,而不是关注安全问题。ChatGPT 的开发商 OpenAI本周承诺将加快产品发布速度。DeepSeek 曾通过推出自己的虚拟助手向 OpenAI 发起挑战。


「想象一下两个实体之间的竞争,如果其中一方认为自己遥遥领先,那么他们就可以更加谨慎,并且仍然知道自己将保持领先地位。」Bengio 说。「而如果两个实体之间有竞争,而他们认为另一方处于同一水平,那么他们需要加速。那么他们可能不会那么关注安全。」


在一份有关人工智能安全的广泛报告发布之前,Bengio 是以个人身份发表此番言论的。


第一份完整的国际人工智能安全报告由包括诺贝尔奖得主杰弗里·辛顿在内的 96 位专家编写。本吉奥是 2018 年图灵奖(被称为计算机界的诺贝尔奖)的共同获奖者,他受英国政府委托主持这份报告,该报告于 2023 年在布莱切利园举行的全球人工智能安全峰会上公布。小组成员由 30 个国家以及欧盟和联合国提名。下一届全球人工智能峰会将于 2 月 10 日至 11 日在巴黎举行。


报告指出,自去年5月发布中期研究报告以来,聊天机器人等通用人工智能系统在可能被恶意使用的领域的能力已经增强,例如使用自动化工具突出软件和IT系统中的漏洞,以及对生物和化学武器的生产提供指导。


该公司表示,新的人工智能模型可以生成制造病原体和毒素的分步技术说明,其能力超出了博士专家的能力。


OpenAI 承认,其先进的 o1 模型可以协助专家规划如何制造生物威胁。


然而,报告称,不确定新手是否能够按照指导采取行动,而且该模型也可以用于医学等有益的用途。


本吉奥在接受《卫报》采访时表示,目前已经出现了一些模型,利用智能手机摄像头,理论上可以指导人们完成危险任务,比如尝试制造生物武器。


「这些工具越来越容易被非专业人士使用,因为它们可以将复杂的任务分解成每个人都能理解的小步骤,然后它们可以以交互方式帮助你正确完成任务。这与使用谷歌搜索等工具有很大不同。」他说。


报告称,自去年以来,人工智能系统在无需人工干预的情况下自主发现软件缺陷的能力方面取得了显著进步。这可以帮助黑客策划网络攻击。


然而,报告指出,自主发起现实世界的攻击目前超出了人工智能系统的能力范围,因为它们需要极高的精度。


在对人工智能带来的风险进行分析时,该报告指出,深度伪造内容数量大幅增加,这种技术被用来制作令人信服的人物肖像——无论是图像、声音还是两者兼有。


报告称,深度伪造已被用来诱骗公司交出钱财、进行敲诈勒索以及制作色情图片。报告称,由于缺乏全面可靠的统计数据,很难衡量此类行为的确切增长水平。


此外,还存在恶意使用的风险,因为所谓的闭源模型(其底层代码无法修改)可能容易受到越狱的影响,从而绕过安全护栏;而诸如 Meta 的 Llama 之类的开源模型可以免费下载并可由专家进行调整,这存在促进不良行为者恶意或误导使用的风险。


在 Bengio 撰写的报告的最后一分钟补充中,这位加拿大计算机科学家指出,在 12 月(报告定稿后不久)OpenAI 推出了一种名为 o3 的新型高级推理模型。


Bengio 表示,该模型能够在关键的抽象推理测试中取得突破,这是许多专家(包括他自己)直到最近才认为遥不可及的成就。


Bengio 写道:o3 所显示的趋势可能对 AI 风险产生深远影响,他还提到了 DeepSeek 的 R1 模型。「阅读本报告中的风险评估时,应该理解自报告撰写以来,AI 已经获得了能力。」


本吉奥告诉《卫报》,推理技术的进步可能会对就业市场产生影响,因为它可以创造出能够执行人类任务的自主智能体,但也可能为恐怖分子提供帮助。


「如果你是恐怖分子,你会希望拥有一个高度自主的人工智能。」他说。「随着我们增加自主权,人工智能的潜在好处也随之增加,风险也随之增加。


然而,Bengio 表示,人工智能系统尚未实现长期规划,无法创造出完全自主的工具来逃避人类的控制。「如果人工智能无法进行长期规划,那么它很难逃脱我们的控制。」他说。


此外,这份近 300 页的报告还提到了人们对人工智能的普遍担忧,包括生成诈骗和儿童性虐待图像、有偏见的输出以及隐私侵犯(例如泄露与聊天机器人共享的敏感信息)。报告称,研究人员尚未能够完全解决这些担忧。


人工智能可以宽泛地定义为执行通常需要人类智能的任务的计算机系统。


该报告的全名是《先进人工智能安全性国际科学报告》,报告指出人工智能通过使用数据中心对环境产生迅速增长的影响,以及人工智能代理对就业市场产生深远影响的可能性。


报告称,人工智能的未来充满不确定性,在不久的将来可能会出现各种各样的结果,包括非常积极和非常消极的结果。报告称,社会和政府仍有机会决定该技术的发展道路。


报告称:这种不确定性可能会引发宿命论,让人工智能看起来像是发生在我们身上的事情。但社会和政府如何应对这种不确定性的决定将决定我们将走哪条路。

扫码下载app 最新资讯实时掌握