×
加载中...
谷歌等硅谷巨头集体撕毁「AI不杀人」承诺
创头条 2025-02-07 08:21

彭博社一则短讯在科技圈投下震撼弹——谷歌悄悄移除了官网"不开发用于武器或监视的AI"的承诺。


这个曾被视为科技界道德底线的宣言,如今像被删除的代码般消失无踪。

在被要求就此置评时,谷歌向TechCrunch提供了一篇关于“负责任的AI”的博客文章。

文章内容提到:“我们相信,秉持共同价值观的公司、政府和组织应合作开发保护人类、促进全球发展并支持国家安全的AI技术。”

但回避态度并不能否认谷歌在背离“不作恶”价值观的事实。

近年来,谷歌与美国和以色列军方签订了在云服务领域合作的合同。此举,还引发了公司员工的抗议。

尽管谷歌一直坚称,其AI不会用于伤害人类。但很快被打脸的是,美国国防部AI主管最近在接受TechCrunch采访时表示,一些公司的AI模型确实加速了美军的“杀伤链”进程。

这种言行割裂的场面,不由得让人联想到《1984》里"战争即和平"的双重思想在数字时代的重演。

不将AI用于军事和武器,是此前行业的一个共识。除了谷歌,如Meta、Anthropic、OpenAI也都有过类似的禁止条款。

不过现在都取消了。

OpenAI是在2024年1月之前删除了该条款。

Anthropic则没有明确禁止AI用于军事用途,而是有一些自我约束,比如不用于虚假宣传、武器设计或部署等。他们允许AI用于一些防御目的,比如情报分析。

这些公司似乎都在逐渐放宽对AI的伦理限制,这不禁让人担忧。

而在该议题上,美国政府并没有相关的强制性约束文件。

可查询到的相关文件,包括美国国防部《自主性武器系统指令》,美国国务院《关于负责任地军事使用人工智能和自主技术的政治宣言》等,但都没有相关的禁止条款。

比如,《宣言》主要是强调在军事领域使用AI要负责任,符合国际人道法,确保人类在决策中发挥关键作用等。

但正如AI伦理学者凯特·克劳福德在《纽约时报》撰文指出:"当'负责任'成为军事AI的修饰词,就意味着我们已接受用算法决定生死。"

关于 AI 伦理问题,联合国教科文组织(UNESCO)在2021年通过了一个全球性的AI伦理协议,这是第一次全球共识。

它定义了一些共同的价值观和原则,以确保AI的健康发展。这个协议强调透明度、隐私保护、禁止用AI进行社会评分和大规模监控等,协议还呼吁各国建立必要的法律基础设施来确保AI的伦理发展。

颇具讽刺意味的是,就在科技公司删除"不开发致命AI"条款的同时,硅谷风投正疯狂涌入军事科技赛道。

Crunchbase数据显示,2023年国防AI初创企业融资额同比暴涨300%,其中75%资金流向自主武器相关项目。

这种吊诡的资本狂欢,恰似《终结者》里天网系统启动前的序曲。

在这个算法即权力的时代,对岸科技公司撕毁的不仅是一纸承诺,更是数字时代的《日内瓦公约》。

我们或许该重温计算机之父图灵的警示:"我们只能前瞻不远未来,但能看到足够多的危险。"(转载自创头条)

扫码下载app 最新资讯实时掌握