吴恩达力挺:AI技术应用需谨慎,拒绝让智能武器横行
2月8日消息,谷歌最近移除了其AI准则中“不开发用于武器的AI系统”的承诺,这一举动引起了诸多争议。谷歌大脑(Google Brain)的创始人兼前任负责人吴恩达(Andrew Ng)在旧金山的一次军事退伍军人创业大会上公开表示支持谷歌的这一决定。
“我很高兴谷歌调整了立场,”周四晚上在大会上接受TechCrunch采访时,吴恩达在台上表示。
在本周早些时候,谷歌从其 AI 原则网页中删除了这一 7 年前的承诺。与此同时,谷歌发布了一篇由 DeepMind 首席执行官德米斯・哈萨比斯(Demis Hassabis)撰写的博客文章,强调公司和政府应携手打造能够“支持国家安全”的 AI 系统。
谷歌曾在2018年宣布不开发武器人工智能,这一决定源于公司内部数千名员工对“Maven项目”的抗议。这个项目旨在为美国军方提供AI技术支持,以解析视频图像,这可能提高无人机攻击的精确度。然而,这一决定却引起了争议。有人认为,许多老兵愿意为国家流血牺牲,保护我们的安全,因此,美国公司为何不能支持那些为国家战斗的军人呢?尽管吴恩达在Maven项目抗议期间并未在谷歌任职,但他曾是谷歌AI和神经网络领域的关键人物。目前,他领导着一家专注于AI的风险工作室和AI基金,并经常就AI政策发表见解。 从我的角度来看,谷歌的这一决策反映了公司在道德和社会责任方面的进步。然而,这也引发了关于技术发展与国家安全之间平衡的问题。吴恩达的观点强调了技术工作者在支持国防方面的作用,这提示我们应当更加谨慎地考虑技术应用的伦理边界。无论立场如何,确保技术的安全性和正当使用是所有利益相关者共同的责任。
吴恩达还曾表示,他很高兴看到加州 SB 1047 法案被否决以及拜登政府的 AI 行政令被推翻,因为他认为这两项措施会阻碍美国开源 AI 的发展。他认为,美国 AI 安全的关键在于确保美国在技术上能够与中国竞争,他还指出 AI 无人机将“彻底改变战场”。
注意到,谷歌内部对于人工智能在军事领域的应用一直存在争议。谷歌前AI研究员、现任Signal公司总裁梅雷迪思·惠特克(Meredith Whittaker)曾于2018年主导了Maven项目的抗议活动。当时,当谷歌决定不再延长Maven项目合同时,她表示支持,认为公司“不应该参与战争”。此外,谷歌前AI研究员、诺贝尔奖得主杰弗里·辛顿(Geoffrey Hinton)也曾呼吁全球政府禁止并监管AI在武器中的使用。谷歌资深高管、现DeepMind首席科学家杰夫·迪恩(Jeff Dean)也签署了一封反对将机器学习应用于自动化武器的公开信。
近年来,谷歌和亚马逊因与以色列政府的“Nimbus项目”合同而再次受到关注。该项目涉及为以色列国防军提供云计算服务。去年,两家公司的员工曾组织静坐抗议活动,反对这一合作。 这项合作不仅引发了公众对技术公司在军事领域角色的新一轮讨论,也凸显了企业社会责任在国际政治背景下的复杂性。尤其在当前全球地缘政治紧张的背景下,科技巨头的行为更需谨慎,以避免成为冲突的工具。谷歌和亚马逊作为行业领导者,在追求商业利益的同时,也需要更多地考虑其决策可能带来的道德和社会影响。
美国国防部的最高AI负责人曾指出,世界各国军队对采用人工智能技术的兴趣正逐渐增强。随着谷歌、亚马逊、微软等科技巨头在AI基础设施方面投入了数千亿美元,众多企业期望通过与军方的合作来回收成本。
免责声明:本站所有文章来源于网络或投稿,如果任何问题,请联系648751016@qq.com
页面执行时间0.00841秒