可信AI人工智能四大支柱和评测要素 原创

发布于 2025-9-11 12:51
浏览
0收藏

一、可信AI为什么重要

当前,可信人工智能(Trustworthy AI)的重要性远超技术本身,它直接关系到人工智能能否安全、健康、可持续地融入人类社会,并真正为人类造福。其重要性可以从以下几个核心维度来深入理解:

1. 建立社会信任:AI被广泛接受的基石

  • 核心问题:如果公众不信任AI,他们就会抵制它,无论其技术多么先进。不信任会扼杀创新和市场应用。
  • 为什么重要:

     a.用户接纳度: 人们不会愿意使用一个他们认为是“黑箱”、有偏见或不安全的系统。例如,患者不会接受一个无法解释诊断依据的AI医疗建议;消费者不会购买一辆他们认为不安全的自动驾驶汽车。

     b.社会许可: AI的大规模应用(如人脸识别、社会评分系统)需要获得社会的“许可”。缺乏信任会导致公众强烈反对、舆论批评和监管叫停,使有益的技术无法推行。

2. 管理风险与规避灾难:防范“灰犀牛”与“黑天鹅”事件

  • 核心问题:不可信的AI会带来巨大的、甚至不可逆的现实世界危害。
  • 为什么重要:

     a.安全风险: 一个不稳健的AI系统可能出错,导致物理伤害。例如,自动驾驶汽车的误判可能导致严重车祸;医疗AI的误诊可能延误治疗。

     b.公平与正义风险: 带有偏见的AI会放大和固化社会不公。例如,在招聘、贷款审批、司法量刑中,如果AI对特定性别、种族群体有歧视,会严重损害社会公平,侵犯基本权利。

     c.金融与声誉风险: 对于企业而言,一次因AI偏见或错误引发的公关危机(例如,算法被曝光歧视特定用户)会带来巨大的经济损失和难以修复的品牌声誉损害。

3. 满足合规要求:应对全球日益收紧的监管环境

  • 核心问题:全球范围内,AI正在从“野蛮生长”进入“强监管”时代。不可信就意味着不合法。
  • 为什么重要:

     a.法律合规: 欧盟的《人工智能法案》(AI Act)、中国的《生成式人工智能服务管理暂行办法》等法律法规都已将“可信”原则(如人类监督、透明度、公平性)写入法律条文。不符合这些要求的企业将面临巨额罚款、产品下架甚至市场禁入的风险。

     b.前瞻性布局: 提前构建可信AI体系,是企业为未来更严格全球监管标准所做的必要准备,可以避免日后昂贵的合规改造成本。

4. 驱动商业成功与创造长期价值

  • 核心问题:可信不是成本,而是投资,它能直接创造商业价值。
  • 为什么重要:

     a.品牌差异化: 在AI产品同质化竞争中,“负责任”和“可信赖”可以成为一个强大的品牌优势,吸引更多注重伦理的客户和合作伙伴。

     b.降低长期成本: “从一开始就做对”比“事后修补”成本低得多。在开发初期就嵌入可信原则,可以避免因算法故障、偏见诉讼、数据泄露等问题导致的巨额善后成本和重构费用。

     c.吸引投资与人才: 投资者越来越关注ESG(环境、社会和治理),可信AI是良好公司治理的体现。顶尖人才也更愿意为有社会责任感、爱惜羽毛的公司工作。

5. 确保技术可控与人类主体性

  • 核心问题: 确保AI始终服务于人类,而不是相反。
  • 为什么重要:

     a.人类自主权: 可信AI强调“人类监督”,确保最终决策权牢牢掌握在人类手中,防止人类过度依赖或被迫服从机器决策,维护了人类的主体性和尊严。

     b.技术可控性: 通过可解释性、稳健性和安全性研究,我们才能更好地理解和控制越来越强大的AI系统,防止其出现不可预测的、有害的行为,这是迈向超级智能时代必须打好的基础。

可信人工智能的重要性可以用一个简单的比喻来理解:AI技术是“引擎”,而“可信”则是方向盘、刹车和安全带。 一台只有强大引擎却没有安全装置的跑车是极度危险的,它无法上路,更无法抵达目的地。因此,推动可信人工智能的发展,是为了确保AI这辆“快车”能够安全、平稳、正确地行驶在为人类造福的轨道上。它不仅是技术专家的责任,也是企业家、政策制定者和整个社会共同的责任。

美国国家标准与技术研究院(NIST)于2023年发布AI风险管理框架1.0(AI RMF 1.0),作为指导组织识别和管理AI风险的自愿性框架。AI RMF提出了“地图-测评-管理-治理”四大职能支柱,用于构建可信AI。框架强调一系列信任特征,包括有效性、可靠性、安全性、抗干扰性、可问责与透明性、可解释性、隐私增强、公平性等,以帮助企业平衡创新与风险,归纳为AI系统的生命周期、四大支柱和评测要素。

二、AI系统的生命周期

AI系统的生命周期包括系统规划设计、数据采集与处理、模型训练与构建、模型验证与确认、系统部署与使用、系统运行与监控、系统使用与影响这七个阶段,在整个生命周期需要关注应用场景、数据&输入、AI模型、任务&输出、人类社群这五大关键维度。

可信AI人工智能四大支柱和评测要素-AI.x社区

每个阶段的主要工作内容、相关参与方以及测试评估维度(TEVV)如下表所示:

阶段一:系统规划与设计(Plan and Design)
TEVV:审计与影响评估
工作内容:明确并记录系统的概念与目标、基本假设和背景,并结合法律法规与伦理要求进行说明。
参与方:系统运营者、终端用户、领域专家、AI设计师、影响评估员、TEVV专家、产品经理、合规专家、审计员、治理专家、组织管理层、高管、受影响的个人或社区、评估人员。

阶段二:数据采集与处理(Collect and Process Data)
TEVV:内部与外部验证
工作内容:收集、验证和清洗数据,记录数据集的元数据和特征,并结合目标、法律和伦理要求。
参与方:数据科学家、数据工程师、数据提供者、领域专家、社会文化分析师、人因专家、TEVV 专家。

阶段三:模型训练与构建 (Build and Use Models)
TEVV:模型测试
工作内容:创建或选择算法,训练模型。
参与方:建模人员、模型工程师、数据科学家、开发人员、领域专家,并咨询熟悉应用背景的社会文化分析师和TEVV专家。

阶段四:验证与确认 (Validate and Verify)
TEVV:模型测试
工作内容:验证与确认、校准并解释模型输出。
参与方:系统集成商、开发人员、系统工程师、软件工程师、领域专家、采购专家、第三方供应商、高管,并咨询人因专家、社会文化分析师、治理专家、TEVV专家。

阶段五:部署与使用 (Deploy and Use)
TEVV:集成、合规测试与验证
工作内容:试点运行,检查与旧系统的兼容性,验证法规合规性,管理组织变更,并评估用户体验。
参与方:系统运营者、终端用户和从业者、领域专家、AI设计师、影响评估员、TEVV 专家、系统资助方、产品经理、合规专家、审计员、治理专家、组织管理层、受影响的个人或社区、评估人员。

阶段六:运行与监控 (Operate and Monitor)
TEVV:审计与影响评估
工作内容:运行AI系统,并持续评估其建议和影响(包括预期和非预期影响),结合目标、法律法规和伦理要求。
参与方:终端用户、运营者和从业者、受影响的个人或社区、公众、政策制定者、标准组织、行业协会、倡导团体、环保组织、民间社会组织、研究人员。

阶段七:使用与影响 (Use or Be Affected)
TEVV:审计与影响评估
工作内容:使用系统/技术;监控与评估影响;寻求影响缓解并倡导权利。
参与方:公众、受影响的个人或社区、政策制定者、标准制定组织、社会团体、环保组织、研究人员等。

tips:

  • TEVV:Testing(测试)、Evaluation(评估)、Verification(验证)、Validation(确认)的缩写,代表AI生命周期各阶段的质量与安全保障环节。

三、可信AI四大支柱

AI RMF Core 是NIST提出的AI风险管理核心框架,由治理(GOVERN)、地图(MAP)、测评(MEASURE)和管理(MANAGE)四大功能构成,每个功能细分为类别、子类别,再落到具体的行动与成果,旨在为组织提供共同语言和实践指南,支持在 AI 全生命周期内持续、及时地识别、评估与应对风险。

可信AI人工智能四大支柱和评测要素-AI.x社区

下表是对框架四大功能的解读,方便大家理解四个功能的含义:

1. 治理(GOVERN):定规则、立规矩

  • 先定好“公司文化”和“风险态度”,告诉大家做事的原则,比如:AI 不能歧视、不能泄露隐私。
  • 设好流程和文档,让每个人都知道该怎么发现、报告、处理风险。
  • 把技术和公司价值观绑在一起,确保技术团队和业务团队方向一致。

💡 示例:
你准备上线一个大模型客服系统,先要制定“客服不回应个人隐私问题”的原则,并且在开发、测试、上线环节都有人负责检查。

2. 地图(MAP):看全局、找风险

  • 弄清楚AI系统在哪用、谁会用、可能影响谁。
  • 找出上下游环节的依赖,比如训练数据从哪来、部署环境限制是什么。
  • 想明白用错的后果,比如模型被拿去做诈骗的风险。

💡 示例
你要做一个医疗诊断AI,要先弄清楚它面对的病人群体、医生使用的方式,以及可能带来的法律和伦理风险。

3. 测评(MEASURE):做检测、量指标

  • 用各种方法(定量、定性或混合)去检测 AI 是否安全、好用、可靠。
  • 不只是在上线前测,还要上线后定期测,避免它“跑偏”。
  • 测试要有标准、有记录,确保别人能复现结果。

💡 示例:
你定期用一批“安全测试集”去问模型一些敏感问题,看它会不会回答违规内容,并记录拒答率、准确率等指标。

4. 管理(MANAGE):持续管、能修复

  • 根据测量出来的风险,分配人力和资源去解决问题。
  • 制定应急方案,比如 AI 出了事故怎么沟通、怎么恢复服务。
  • 持续改进,保证它一直处在可控范围内。

💡 示例:
你发现模型拒答率突然飙升,就要立刻排查最近的版本更新、回滚模型、通知用户,并调整策略防止再次发生。

四、可信AI评测要素

“可信人工智能”作为人工智能系统的设计、开发、部署和使用的整个生命周期都应符合伦理、法律和技术标准,从而赢得用户、患者、消费者、监管机构和社会公众的信任。它不是单一的功能,而是一个涵盖多个维度的系统性工程,包含以下七个关键要素:

  1. 人类自主性和监督
  • 核心思想:AI不应削弱人类的自主权,而应增强之。人类应始终对AI系统保持最终控制权和决策权。
  • 实践:设计“人在回路”的交互机制,确保人类可以干预、否决AI的决定,尤其是在关键领域(如医疗诊断、司法判决)。
  1. 技术稳健性和安全性
  • 核心思想:AI系统必须足够安全、可靠和稳健,能够抵御错误、故障和攻击。
  • 实践:确保系统具有弹性(能处理意外输入)、准确性可重复性,并具备网络安全故障恢复机制。
  1. 隐私和数据治理
  • 核心思想:在整个AI生命周期中,必须充分尊重用户隐私,并对数据的管理和使用负责。
  • 实践:遵循数据最小化原则(只收集必要数据)、实施严格的数据安全措施、确保数据质量,并遵守如GDPR等数据保护法规。
  1. 透明性
  • 可解释性:能够向用户解释AI是如何得出某个特定结论或决策的(即“黑箱”问题)。
  • 可追溯性:系统的设计、开发和部署过程都有详细记录,可供审计。
  • 核心思想:AI系统的决策过程和其本身应该是可理解和透明的。
  • 实践:包括两个方面:
  1. 多样性、非歧视性和公平性
  • 核心思想:AI系统应避免偏见和歧视,服务于所有用户, regardless of their background.
  • 实践:识别和缓解数据集中和算法中存在的偏见;确保系统对不同的性别、种族、年龄、残疾等群体都是公平的;促进多样性参与AI的开发过程。
  1. 社会和环境福祉
  • 核心思想:AI技术应为社会带来积极影响,并考虑其对环境的可持续性。
  • 实践:评估AI对社会、民主和环境的广泛影响;促进AI在可持续发展目标(如应对气候变化)中的应用;避免对社会结构产生负面影响。
  1. 问责制
  • 核心思想:必须建立明确的机制,确保对AI系统及其成果负责。
  • 实践:明确开发者、部署者和使用者的责任;建立审计和问责流程;为AI可能造成的损害提供补救措施(如赔偿机制)。

国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,强调“发展负责任的人工智能”。中国的法规,如《生成式人工智能服务管理暂行办法》,也明确要求提供者承担内容责任、进行数据训练合规、并采取有效措施提升透明度、公平性和安全性。总而言之,可信人工智能是确保人工智能技术健康、可持续发展的基石。它不是一个可选项,而是开发和应用AI系统的必要前提。它将伦理、法律和社会考量融入技术发展的全过程,目标是构建一个“以人为本”、值得信赖的AI未来。


本文转载自数智飞轮  作者:蓝田

©著作权归作者所有,如需转载,请注明出处,否则将追究法律责任
已于2025-9-11 12:51:02修改
收藏
回复
举报
回复
相关推荐