可信AI的七大特征和数据可信空间 原创

发布于 2025-9-19 10:06
浏览
0收藏

早期AI发展主要关注“能不能做”(能力),例如:“算法准确率能否更高?”“模型能否处理更大数据?”。但随着AI深度融入社会,人们发现仅仅有能力是不够的,还必须关注“应不应该做”(责任)。

不可信的AI会带来巨大风险:

  • 偏见与歧视:招聘AI可能歧视女性,司法评估AI可能对特定种族更苛刻。
  • 黑箱决策:AI拒绝你的贷款申请,却无法给出令人信服的理由。
  • 安全漏洞:自动驾驶汽车因一个不起眼的贴纸(对抗性攻击)而误判,引发事故。
  • 隐私侵犯:训练数据包含个人敏感信息,导致隐私泄露。
  • 责任不清:AI医疗诊断出错,责任在医生、医院还是开发者?

为了解决这些问题,“可信AI”的概念应运而生,它将AI的发展重心从纯粹的“能力”拓展到了“责任”。

一、可信AI的典型特征

可信人工智能 指的是人工智能系统的设计、开发、部署和使用的整个生命周期都符合伦理、法律和技术标准,从而能够赢得用户、消费者、监管机构和社会公众信任的一系列方法和实践。

简单来说,它回答了一个关键问题:“我们为什么要相信这个AI系统?” 可信AI的目标是确保AI不仅是强大的、高效的,更是负责任、可靠且有益于人类的。

可信AI七大特征

可信AI的七大特征和数据可信空间-AI.x社区

▎有效性与可靠性(Valid and Reliable)

有效性是指通过提供客观证据,确认AI系统是否满足预期的使用需求。如果AI系统不准确、不可靠或在新的数据和环境下表现差,就会增加AI的风险,降低其可信度。可靠性是指AI系统在一定时间和条件下,是否能够持续、无故障地按要求工作。可靠性意味着系统在预期使用条件下,以及在一段时间内,是否能稳定运行。除此之外,准确性鲁棒性对系统的可信度也非常重要:准确性指的是AI的预测或计算结果与真实值或公认正确值的接近程度;鲁棒性是指AI系统在各种不同条件下,是否能稳定运行并保持功能。这四个特性相辅相成,共同决定了AI系统的性能和可信度:有效性确保系统能够实现其设计目标,可靠性确保系统能够在实际应用中持续有效地工作,准确性确保系统的输出是正确的,鲁棒性确保系统在变化的环境中依然能够稳定表现。

▎安全性(Safe)

AI系统的安全性要求它们在预定条件下不会对人类生命、健康、财产或环境造成威胁。安全的AI系统应该:

  • 通过负责任的设计和开发保证安全;
  • 为部署者提供清晰的使用指南;
  • 部署者和用户做出负责任的决策;
  • 提供基于证据的风险评估和说明。

AI系统的安全性管理要根据具体的风险类型和严重性,采取不同的管理方法。对于潜在的严重风险,如可能危及生命的安全问题,应该优先采取最严格的安全措施。

▎安全与韧性(Secure and Resilient)安全指AI系统在面临攻击或不当使用时,能够保护机密性、完整性和可用性。AI系统的安全和韧性是密切相关的,但也有不同。韧性侧重于恢复功能,而安全则包括避免、应对或恢复攻击的策略。

韧性是指AI系统及其生态系统在遭遇意外事件或环境变化时,能否保持正常运作,或者在需要时能够安全地退化。

▎可问责与透明(Accountable and Transparent)

AI的可信度离不开可问责性,而可问责性又依赖于透明性。透明性意味着AI系统的工作过程和输出信息应对用户开放,帮助用户理解系统如何做出决策。透明性越高,用户对AI系统的信任度也会越高。透明性不仅包括系统设计和训练数据,还包括系统部署的过程和决策者的责任。

AI系统的透明性应当根据不同角色的需求进行定制,确保适当的信息可以被相关人员理解。在一些情况下,透明性有助于及时纠正系统的错误,减少负面影响。

▎可解释与可理解(Explainable and Interpretable)

可解释性指的是能够解释AI系统内部的工作机制,可理解性则是让用户理解系统输出的意义。两者结合,有助于提高系统的可信度,使得用户能够理解AI系统的决策过程。

  • 可解释性可以帮助开发者和监管者调试、监控系统,并做好文档记录和治理。
  • 可理解性可以帮助用户明白AI系统的决定为何会如此,及其对用户的意义。

透明性、可解释性和可理解性是相互支持的特性,它们共同帮助用户理解AI系统的决策过程。

▎隐私增强(Privacy-Enhanced)

隐私增强指的是保护个人信息和身份的规范和措施,隐私增强技术(PETs)可以帮助设计更加保护隐私的AI系统。隐私保护和安全、偏见、透明性之间存在权衡,因此需要平衡这些特性。例如,隐私增强技术可能会影响系统的准确性,进而影响某些领域的公平性决策。

▎公平—有害偏见管理(Fair – with Harmful Bias Managed)

公平性是AI中的一个重要议题,涉及到如何处理偏见和歧视等问题。公平性标准很复杂,因文化和应用的不同而有所差异。AI系统中的有害偏见可能会放大不平等和歧视,影响不同群体。偏见可以表现为系统性偏见、计算偏见和人类认知偏见等形式。AI系统可能加速偏见的传播,但我们也可以通过改善透明性和公平性来减轻这些负面影响。

tips:

在AI可信度的讨论中,“Safe”和“Security”这两个词都涉及到系统的保护和避免风险,但它们的含义和关注点有所不同:

  1. Safe(安全性)更侧重于AI系统在特定条件下是否会导致对人类生命、健康、财产或环境的威胁。它强调的是系统在使用过程中避免造成直接的伤害或危险。简单来说,“safe”关注的是系统运行是否会带来不可接受的风险,特别是对生命、健康等方面的威胁。
  • 例如,一个自动驾驶系统必须是“safe”的,因为它不能在行驶过程中对乘客或行人构成危险。
  • 关注点:如何设计、开发和使用AI系统,以确保其操作过程中不会对人类或环境造成危害。
  1. Security(安全)则更多关注防止外部攻击、滥用或非法访问。它涵盖了保护系统的机密性、完整性和可用性,确保数据不会被未经授权的用户访问或篡改。安全性还涉及应对黑客攻击、数据泄露、系统入侵等风险。
  • 例如,AI系统的安全性确保它不会被黑客攻破,避免数据泄露或不当使用。
  • 关注点:防止恶意攻击或外部干扰,保护系统不受攻击、破坏或非法访问。

二、什么是数据可信空间

数据可信空间 是一个技术和治理框架,其核心目标是在互不信任的多方之间,实现数据的安全、合规、可控的共享和融合计算,而不需要共享原始数据本身

您可以把它想象成一个“数据交易市场”或“数据协作平台”,但这个市场有非常严格的规则和安保措施:

  • 规则:所有参与者必须遵守共同的技术标准和法律法规。
  • 安保:利用隐私计算等技术,确保数据“可用不可见”。

数据可信空间的三大核心技术支柱是:

  1. 隐私计算:这是实现“数据可用不可见”的关键技术,主要包括:
  • 联邦学习:各方在不交换原始数据的情况下,共同训练一个机器学习模型。只有模型的参数更新(而非数据本身)被加密交换。
  • 安全多方计算:通过密码学技术,多方共同计算一个函数,各方除了自己的输入和最终结果,无法获知其他任何一方的输入信息。
  • 可信执行环境:在一个硬件隔离的安全“飞地”中处理加密数据,保证即使云平台运营商也无法看到数据内容。
  1. 区块链技术:用于构建信任机制。
  • 存证与审计:记录所有数据使用、访问和计算的行为,确保过程可追溯、不可篡改,实现有效的问责。
  • 智能合约:自动执行数据使用的规则。例如,只有付费后,智能合约才授权访问计算结果。
  1. 数据治理与确权
  • 明确数据的来源、所有权、使用权和收益权。
  • 确保数据流通符合法律法规要求。

数据可信空间的典型应用场景:

  • 联合风控:几家银行想联合建立一个更精准的反欺诈模型,但又不能直接共享客户的交易数据。他们可以接入“数据可信空间”,在加密环境下联合建模。
  • 医疗研究:多家医院希望共同研究某种疾病,但患者病历极度敏感。他们可以在空间内进行联合分析,得出统计结论,而病历数据始终留在各自医院。
  • 政务数据开放:政府在不暴露公民隐私的前提下,向研究机构或企业开放脱敏后的数据价值。

三、两者的关系:相辅相成

数据可信空间是实现可信AI的重要基础设施和前提保障。

  1. 数据可信空间为可信AI提供“高质量的燃料”
  • 可信AI的“公平性”和“可靠性”需要大量高质量、多样化的数据来训练模型,以避免偏见。数据可信空间使得跨组织、跨行业的数据安全融合成为可能,极大地丰富了训练数据源。
  1. 数据可信空间为可信AI的“隐私”和“问责”支柱提供技术解决方案
  • 它通过隐私计算技术从根本上解决了AI训练和应用中的隐私泄露问题。
  • 它通过区块链技术实现了数据流通过程的可审计、可问责,满足了监管要求。
  1. 可信AI是数据可信空间价值实现的“终极输出”
  • 建立数据可信空间的最终目的,往往是为了产出更强大、更可靠、更可信的人工智能模型和服务,从而创造更大的业务价值和社会价值。

总结一下:

  • 可信AI是一个目标,关注的是AI系统本身应具备的伦理属性和技术特性(公平、可靠、透明等)。
  • 数据可信空间是一个工具和平台,关注的是如何安全地让数据流动起来以释放价值,是实现可信AI(尤其是其隐私和问责要求)的关键路径

两者共同构成了未来数据要素化和人工智能健康发展不可或缺的基石。


本文转载自​数智飞轮  作者:天涯咫尺TGH

©著作权归作者所有,如需转载,请注明出处,否则将追究法律责任
收藏
回复
举报
回复
相关推荐