美国一委员会建议不应禁止发展AI武器,理由是“道德义务”

人工智能
美国政府的一个委员会提交报告草案称,美国不应禁止使用或开发由人工智能(AI)驱动的自动武器。该委员会给出的理由是“道德义务”,即预计人工智能比人类犯的错误更少,因此可以减少伤亡人数。

[[378901]]

美国政府的一个委员会提交报告草案称,美国不应禁止使用或开发由人工智能(AI)驱动的自动武器。该委员会给出的理由是“道德义务”,即预计人工智能比人类犯的错误更少,因此可以减少伤亡人数。

据路透社1月27日报道,美国人工智能国家安全委员会26日结束了为期两天的公开讨论。该委员会副主席、美国前国防部副部长罗伯特·沃克表示,预计自动武器在战斗中犯的错误会比人类少,这样能够减少因错误识别目标导致的伤亡或小规模冲突。沃克表示:“至少(要)追求这一假设,这是一种道德义务(moral imperative)。”

同时,该委员会承认了自动武器的风险。委员会中一名来自微软公司的成员警告,制造这种能快速反应武器的压力可能会使冲突升级。

路透社报道指出,自动武器已经有数十年的研发历史。但随着人工智能用来支持自动武器系统、研究发现人工智能含有偏见、出现人工智能软件滥用现象,人们的担忧也与日俱增。

也有一些人反对人工智能武器。一些非政府组织近年来发起了名为“停止机器人杀手行动”(Campaign to Stop Killer Robots)的活动,希望推动出台禁止“机器人杀手”的条约。他们认为,在判断攻击是否正当以及认定战争罪责过程中,人类的控制十分必要。

路透社援引“停止机器人杀手行动”网站的信息称,巴西、巴基斯坦等30个国家希望制定相关禁令,联合国下属的一个机构至少在2014年就举行了相关会议。

除了人工智能驱动的武器之外,美国人工智能国家安全委员会还建议情报机构使用人工智能,以提高收集和审查数据的效率;呼吁联邦政府每年为人工智能研究提供320亿美元(约合人民币2067.5亿元)的资助等。

该委员会将于3月向国会提交最终报告,不过这些建议并不具法律效力。据该委员会网站信息,其成员由美国国会和国防部、商务部指派,谷歌公司前首席执行官埃里克·施密特担任主席。

 

责任编辑:姜华 来源: 网易科技
相关推荐

2010-01-18 23:06:24

KoolPoint项目IT管理摩卡软件

2021-04-08 11:17:59

网络攻击恶意软件网络安全

2012-07-30 15:10:39

方案商

2009-01-08 09:04:40

AMD拆分AMD晶圆工厂

2024-01-10 13:48:54

2017-11-09 18:27:38

大数据 产业

2010-06-07 10:47:16

IEEE 802标准委

2023-08-09 13:26:21

2023-03-31 15:11:26

OpenAIAI

2019-12-05 14:01:40

华为架构开发

2014-07-22 13:35:18

移动互联网

2023-04-02 13:46:26

人工智能OpenAI漏洞

2022-10-31 10:50:05

2012-12-10 11:40:11

SDN网络技术

2015-06-30 21:25:47

国际云计算咨询委员会云创新

2010-08-24 11:33:45

OpenSolarisOracle

2018-04-19 15:03:24

华为云

2023-07-26 13:30:48

2009-04-28 07:59:56

奥巴马谷歌微软
点赞
收藏

51CTO技术栈公众号