唯一《可解释机器学习》中文书来了:复旦研究生翻译,原作者点赞

新闻 人工智能
最近,一位来自复旦大学的研究生朱明超,将一本少有的书《Interpretable Machine Learning》(可解释机器学习)翻译成了中文。

 本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。

新冠疫情的出现,让许多AI医疗技术浮出水面。

但是AI一直黑箱问题存在,如果AI对过程都不能做到可解释,又怎么能放心让它来诊断病患呢。而关于机器学习可解释问题的书籍少之又少。

最近,一位来自复旦大学的研究生朱明超,将一本少有的书《Interpretable Machine Learning》(可解释机器学习)翻译成了中文。

这本书最初是由德国慕尼黑大学博士Christoph Molnar耗时两年完成的,长达250页,是仅有的一本系统介绍可解释性机器学习的书籍。

唯一《可解释机器学习》中文书来了:复旦研究生翻译,原作者点赞

朱明超近期完成了这本书的翻译和校对工作,目前已经开源放到GitHub网页上。朱同学在翻译过程中还和原作者进行了多次讨论,中文版还得到了Christoph Molnar本人在Twiter上的推荐。

唯一《可解释机器学习》中文书来了:复旦研究生翻译,原作者点赞

“可解释”是这本书的核心论题。作者认为,可解释性在机器学习甚至日常生活中都是相当重要的一个问题。建议机器学习从业者、数据科学家、统计学家和任何对使机器学习模型可解释的人阅读本书。

《可解释的机器学习》该书总共包含 7 章内容:

  • 第一章:前言
  • 第二章:可解释性
  • 第三章:数据集
  • 第四章:可解释的模型
  • 第五章:模型无关方法
  • 第六章:基于样本的解释
  • 第七章:水晶球

Molnar表示,虽然数据集与黑盒机器学习解决了很多问题,但这不是最好的使用姿势,现在模型本身代替了数据成为了信息的来源,但可解释性可以提取模型捕捉到的额外信息。

当我们的日常生活中全都是机器和算法时,也需要可解释性来增加社会的接受度。毕竟要是连科学家都研究不透“黑盒”,怎样让普通人完全信任模型做出的决策呢?

这本书的重点是机器学习的可解释性。你可以从这本书中学习简单的、可解释的模型,如线性回归、决策树和决策规则等。

后面几章重点介绍了解释黑盒模型的模型无关的一般方法,如特征重要性和累积局部效应,以及用 Shapley 值和 LIME 解释单个实例预测。

对各种解释方法进行了深入的解释和批判性的讨论。它们是如何工作的?优点和缺点是什么?如何解释它们的输出?本书使你能够选择并正确应用最适合你的机器学习项目的解释方法。

这本书结合了各类现实生活中的例子来介绍相关的概念,同时搭配参考链接帮助读者进一步学习了解。

另外朱同学的GitHub上还一直在坚持翻译Goodfellow的《机器学习》,还在翻译中配上了自己编写的Python代码供参考。有兴趣的同学也可以顺带去参考学习。

最后附上《可解释机器学习》一书的项目地址:https://github.com/MingchaoZhu/InterpretableMLBook

 

责任编辑:张燕妮 来源: 量子位
相关推荐

2014-05-09 10:12:57

2048移动应用

2020-08-19 09:20:00

机器学习人工智能Python

2019-08-29 18:07:51

机器学习人工智能

2020-08-25 10:30:59

TensorFlow数据机器学习

2023-09-20 11:42:44

人工智能AI

2021-12-27 11:08:14

微软MIT协议

2024-01-08 13:49:00

2019-05-13 09:22:21

微软开源机器学习

2021-12-30 20:20:46

机器学习销售语言

2017-10-27 18:20:59

程序员

2021-01-08 10:47:07

机器学习模型算法

2019-04-23 10:30:23

机器学习人工智能计算机

2009-05-12 16:11:00

求职面试招聘

2022-06-07 10:25:45

机器学习Shapash

2022-06-06 07:52:41

反欺诈技术AI

2018-05-23 09:20:12

人工智能机器学习技术

2022-01-06 10:21:56

自动驾驶数据人工智能

2010-08-30 14:25:04

2009-08-16 21:09:15

恶意代码湖南科技大学研究生处木马
点赞
收藏

51CTO技术栈公众号