美国 AI 政策组织状告 OpenAI,称其 GPT-4 模型威胁公共安全

人工智能
美国一 AI 政策组织指控 OpenAI 发布的 GPT-4 模型违反了消费者保护规则,要求美国联邦贸易委员会立即阻止 OpenAI 推出新的 GPT 模型,并进行独立评估。

3 月 31 日消息,美国一 AI 政策组织指控 OpenAI 发布的 GPT-4 模型违反了消费者保护规则,要求美国联邦贸易委员会立即阻止 OpenAI 推出新的 GPT 模型,并进行独立评估。

这个名为 AI 和数字政策中心(CAIDP)的组织今天提交了投诉,认为 OpenAI 推出的 AI 文本生成工具是“有偏见的、欺骗性的和对公共安全有风险的”,违反了消费者保护规则。

IT之家注意到,此前一封备受关注的公开信呼吁暂停大规模的生成式 AI 实验。CAIDP 主席马克・罗滕伯格也是这封信的签署者之一,其他签署者还包括一些 AI 研究人员和 OpenAI 联合创始人埃隆・马斯克。与这封信类似,此次投诉也呼吁放慢生成式 AI 模型的发展,并实施更严格的政府监管。

CAIDP 指出 OpenAI 在 3 月中旬宣布的 GPT-4 生成式文本模型可能带来的威胁。这些威胁包括 GPT-4 可能产生恶意代码,以及由于训练数据存在偏见而导致固化刻板印象或在招聘等方面不公平地区分种族和性别。投诉还指出了 OpenAI 产品界面存在的严重隐私问题 —— 比如最近发现的一个漏洞,导致 OpenAI ChatGPT 的历史聊天记录和可能的支付信息被其他用户看到。

OpenAI 此前已经公开承认了 AI 文本生成可能带来的威胁,但 CAIDP 认为 GPT-4 超出了对消费者产生伤害的界限,应该引起监管行动。CAIDP 试图以其违反联邦贸易委员会法第 5 条为由,追究 OpenAI 的责任,该法禁止不公平和欺骗性的贸易行为。投诉声称,“OpenAI 在充分了解这些风险的情况下,将 GPT-4 向公众开放用于商业目的。”CAIDP 还将生成式模型自信地编造不存在的事实称为一种欺骗。

在投诉中,CAIDP 要求联邦贸易委员会停止任何进一步的 GPT 模型的商业部署,并要求在任何未来的模型推出之前进行独立评估。它还要求建立一个类似于消费者可以提交欺诈投诉的公开可访问的报告工具。并且寻求联邦贸易委员会对生成式 AI 系统的规则进行明确的制定,以建立在该机构正在进行的但仍相对非正式的 AI 工具的研究和评估之上。

美国联邦贸易委员会此前已经表达了对监管 AI 工具的兴趣,该委员会警告称,有偏见的 AI 系统可能引发执法行动,而且在本周与司法部联合举办的一次活动中,联邦贸易委员会主席莉娜・汗说,该机构将寻找大型现有科技公司试图排挤竞争的迹象。

责任编辑:庞桂玉 来源: IT之家
相关推荐

2023-04-02 13:46:26

人工智能OpenAI漏洞

2023-04-09 16:17:05

ChatGPT人工智能

2020-06-24 07:43:59

公共安全IOT

2023-05-04 06:28:51

GPT-4OpenAI

2023-07-07 09:32:57

GPT-4OpenAI

2020-10-21 10:16:03

AI保护公共安全?

2023-07-20 12:16:31

GPT-4AI

2024-04-07 07:36:30

OpenAIGPT-4大型语言模型

2024-04-02 07:27:38

ReALM人工智能iOS 18

2023-06-14 14:57:38

模型AI

2023-04-13 14:34:22

OpenAI人工智能

2023-03-16 17:28:59

技术AI

2023-09-22 09:00:00

人工智能安全

2023-05-05 10:17:00

计算机开源

2023-12-09 14:30:50

2023-06-19 08:19:50

2023-06-08 08:09:43

2023-12-09 13:24:40

OpenAIChatGPT人工智能

2023-12-16 09:45:56

论文GPT-4AI

2023-11-07 11:11:33

OpenAIGPT-4AI大模型
点赞
收藏

51CTO技术栈公众号