财联社 2 月 5 日讯(编辑 潇湘)继 OpenAI、Meta 等美国人工智能领军企业放任自家模型用于军事目的后,谷歌近来也 " 偷偷摸摸 " 地加入了这一阵营。

据当地媒体周二发现,谷歌已从其人工智能原则中删除了一段承诺避免将 AI 技术用于武器等潜在有害应用的承诺。

该公司似乎更新了其公开的 AI 原则页面,删除了上周还存在的名为 " 我们不会追求的应用 " 的部分——例如 " 造成或可能造成整体伤害的技术 ",包括武器。

谷歌高级副总裁 James Manyika 和人工智能实验室 DeepMind 负责人 Demis Hassabis 随后在一篇博客文章中,为这一举措进行了辩护。他们认为,企业和政府需要在 " 支持国家安全 " 的人工智能方面进行合作。

该博客文章表示,随着技术的发展,该公司于 2018 年发布的最初的人工智能原则,需要进行更新。

" 数十亿人在日常生活中使用人工智能。人工智能已经成为一种通用技术,也是无数组织和个人用来构建应用程序的平台," 文章称,"AI 已经从实验室的一个小众研究课题,转变为一种像手机和互联网一样普及的技术。"

值得一提的是,这篇博客文章是在 Alphabet 周二发布 Q4 报告之前不久发布的。最终财报显示,谷歌去年四季度的业绩弱于市场预期,并导致其股价在盘后下跌。

又一家 " 撕毁承诺 "

毫无疑问,此番谷歌在人工智能原则上措辞变动,将令其成为最新一家放任向 AI 军事化靠拢的美国人工智能公司。

正如财联社去年曾报道过的那样,硅谷在数年前还对五角大楼避之不及,但如今随着 AI 技术的发展,两者之间却似乎正在建立更为深层次的联系。

Meta 在去年 11 月初已表示,将允许从事国家安全工作的美国政府机构和承包商,将该公司的人工智能模型 Llama 用于军事目的。此举无疑改变了 Meta 此前禁止将其 AI 技术用于军事领域的方针政策。

OpenAI 与美国国防科技初创公司 Anduril Industries 在去年 12 月则共同宣布,双方将建立战略合作伙伴关系,以开发和负责任地部署用于国家安全任务的先进 AI 解决方案。这是 OpenAI 正式向军事领域迈出了实质性的一步 ……

而此番谷歌的转变则更为令人们感到唏嘘。

事实上,早在人们对人工智能引发伦理问题的兴趣高涨之前,谷歌创始人谢尔盖 · 布林和拉里 · 佩奇就曾表示,他们的公司座右铭是 " 不作恶 "。当该公司于 2015 年重组为 Alphabet 时,他们的口号也依然是 " 做正确的事 "。

前谷歌道德人工智能团队的联合负责人、现任人工智能初创公司 Hugging Face 首席伦理科学家 Margaret Mitchell 表示,删除 " 伤害 " 条款可能会对谷歌开展的工作类型产生影响。

她说:"删除该条款将抹去谷歌许多人在人工智能道德领域所做的工作,更成问题的是,这意味着谷歌现在可能会致力于直接部署可以杀人的技术。"

长期以来,谷歌员工一直在争论如何平衡人工智能领域的道德问题和竞争态势,尤其是 OpenAI 的 ChatGPT 的推出让这家搜索巨头倍感压力之际。2023 年,一些谷歌员工便曾对外表达了担忧,认为该公司在人工智能领域重振雄风的动力可能导致道德失范。