谷歌的AI军事武器禁令能让“不作恶”准则走多远?

发布时间:2018-06-12 16:47:12

谷歌的AI军事武器禁令能让“不作恶”准则走多远?

  新浪财经讯 美国东部时间6月8日,在四千余名员工的抗议压力下,Alphabet旗下公司谷歌宣布将禁止使用人工智能(AI)技术被用作军用武器或者提供不合理的监视措施。声明中还表示:“虽然我们不会开发用于武器的AI技术,但我们仍将继续在其他很多领域中与政府和军方展开合作”。

  在谷歌“不作恶”的准则推动下,AI技术军用抗议浪潮不断在员工内部上演。对于这个新兴领域的开发和使用,谷歌的一举一动也被整个行业密切关注着。这封由谷歌CEO 桑达尔-皮查伊(Sundar Pichai)发出的声明中列出了七项有关人工智能技术的开发准则和开发底线,其中包括 “如一项技术可能造成伤害,我们只会在其好处大大超过伤害的情况下进行研发,并提供安全保护措施”、以及不会“用其收集使用信息,以实现违反国际规范的监控的技术”等。但谷歌表示将持续与政府和军方合作,为其提供包括“网络安全、培训和征兵”等服务。

  这份声明起源于谷歌员工对于公司和五角大楼签订的一份人工智能军用计划“Maven program”的抗议。该项目旨在展示五角大楼如何通过利用已经在科技公司发展起来的人工智能技术,特别是无人机技术,来改变军事行动方式。该计划是通过部署互联网公司用来区分“猫”和“汽车”的机器学习技术,来发现和跟踪军事目标,如人、车和建筑物。

  这个计划引发了大量谷歌员工们对于 AI 技术用于战争的担忧。有 4000余名员工在今年 4 月的内部请愿书中表示反对 Maven 项目,要求谷歌立刻停止合作并制定新政策,以防止未来再次参与军事任务,与此同时,目前已经有十余名谷歌员工辞职表示抗议。

  人工智能技术的不断成熟使得科技公司的开发不断在“优化算法”和“科技战争”中游走,一不小心就可能触及到“危害安全”的警戒线。发表在网络上的“谷歌员工请愿书”写道:我们认为谷歌不应涉及“战争业务”。因此,我们要求取消相关计划,恳请谷歌拟定、公开并执行明确的政策,表明谷歌与承包商绝对不会参与战争科技。一些员工也担心谷歌在人工智能军用上的协议会影响公司的政治决策,并对用户信任造成致命危害。

  谷歌声明发出后, 谷歌云CEO戴安-格林(Diane Greene)也在官方博客上发布了一篇文章,她特别提到,谷歌将不再延续和军方的 Maven 合同。但《纽约时报》在评论中指出,谷歌此前一再强调的与国防部的合作并非处于 “进攻目的”,听起来也附和这些声明。所以,尽管谷歌停止了Maven合同,但未来是否将与政府进行其它合作也尚不清楚。

  谷歌的业务发展部门预测,与“军事无人机”等相关的人工智能项目带来的收入有望从每年 1500 万美元增加至 2.5 亿美元。尽管在谷歌Maven项目上暂停了续约,被认为是员工抗议的一个正面回应,但在未来与军方的合作依然让人们对于人工智能技术转向战争技术的趋势忧虑重重。

  值得注意的是,“不作恶”是谷歌最有名的座右铭和非正式准则,在今年四月底五月初的员工行为准则页面上,之前一直在最初排版的三个“不作恶”消失了,取而代之的是谷歌对于“价值观”的说明。(新浪财经北美站记者 刘硕 发自纽约)