
发布
一家金融机构使用 Vertex AI 上的 PaLM 2 模型进行信贷风险评估,监管要求必须解释“为何拒绝该用户申请”。需量化输入特征(如收入、负债比、信用历史)对预测结果的影响。技术挑战包括:如何在部署模型时启用 explanationConfig
(如 SampledShapley
或 IntegratedGradients
);通过 explain()
API 获取 attributions
列表并解析 outputDisplayName
, approximationError
, outputIndex
等字段;将特征归因值可视化为“影响权重条形图”返回给风控人员;以及处理文本输入特征(如用户说明)的 token 级归因分析。应如何构建可解释、合规的 AI 决策支持系统?