社区编辑申请
注册/登录
信息抽取里程碑式突破!NLP要迎来大规模落地了?
人工智能 新闻
信息抽取是一个行业应用价值很高的技术,却因为任务难度大,落地成本居高不下。

AI领域的工作突破通常有三类:

  1. 屠爆了学术界榜单,成为该领域学术层面的新SOTA
  2. 实现了大一统,用一个架构实现对该领域诸多子任务的统一建模,刷新建模认知
  3. 将NB的学术界新SOTA变成一件人人可傻瓜式使用的开源工具利器,带领该领域大规模落地开花

要单独实现其中的任何一点,都是一件很有挑战的事情。如果我说,在信息抽取领域,不久前的一个工作同时做到了这三种突破呢?这次,先倒着讲。先讲第三点——

一个刷新认知的信息抽取开源工具

信息抽取是一个行业应用价值很高的技术,却因为任务难度大,落地成本居高不下。像金融、政务、法律、医疗等行业,有大量的文档信息需要人工处理,比如政务人员处理市民投诉,工作人员需要从中快速提取出被投诉方、事件发生地点、时间、投诉原因等结构化信息,非常费时费力。若信息抽取技术能低成本、高性能的实现落地,可以大大提升诸多行业的生产效率,节约人力成本。如今这个想法,迎来了史无前例的可能性。话不多说,直接上代码,上效果!

# 实体抽取
from pprint import pprint
from paddlenlp import Taskflow
schema = ['时间', '选手', '赛事名称'] # Define the schema for entity extraction
ie = Taskflow('information_extraction', schema=schema)
pprint(ie("2月8日上午北京冬奥会自由式滑雪女子大跳台决赛中中国选手谷爱凌以188.25分获得金牌!")) # Better print results using pprint
>>>
[{'时间': [{'end': 6, 'probability': 0.9857378532924486, 'start': 0, 'text': '2月8日上午'}],
'赛事名称': [{'end': 23,'probability': 0.8503089953268272,'start': 6,'text': '北京冬奥会自由式滑雪女子大跳台决赛'}],
'选手': [{'end': 31,'probability': 0.8981548639781138,'start': 28,'text': '谷爱凌'}]}]

仅用三行代码就实现了精准实体抽取?

再来试试更困难的事件抽取任务:

事件抽取
schema = {'地震触发词': ['地震强度''时间''震中位置''震源深度']} # Define the schema for event extraction
ie.set_schema(schema) # Reset schema
ie('中国地震台网正式测定:5月16日06时08分在云南临沧市凤庆县(北纬24.34度,东经99.98度)发生3.5级地震,震源深度10千米。')
>>> 
[{'地震触发词'
  [{'end'58,'probability'0.9987181623528585,'start'56,'text''地震',
    'relations'
      {'地震强度': [{'end'56,'probability'0.9962985320905915,'start'52,'text''3.5级'}],
      '时间': [{'end'22,'probability'0.9882578028575182,'start'11,'text''5月16日06时08分'}],
      '震中位置': [{'end'50,'probability'0.8551417444021787,'start'23,'text''云南临沧市凤庆县(北纬24.34度,东经99.98度)'}],
      '震源深度': [{'end'67,'probability'0.999158304648045,'start'63,'text''10千米'}]}
    }]
}]

同样易用而精准!感兴趣的小伙伴可以通过以下传送门自行安装体验。

欢迎大家提前码住链接,建议访问Github点个Star ​https://github.com/PaddlePaddle/PaddleNLP

当然,我们在自行测试的时候可能会觉得,短短的三行代码就可以任意DIY抽取了,这未免有点夸大?

并不是,该接口实际上是向大家展示了一个通用的开放域信息抽取范式,即一个开放域信息抽取的API接口,也就是说,给定任意要抽取的实体、关系、事件等类型(schema),“提示”模型从文本中抽取出对应的目标。

例如在第一个示例中,我们希望从文本中抽取出时间、选手和赛事名称这三种实体,将其作为schema参数传给Taskflow后,将“提示”模型从文本中精准抽取这三类实体。这样,就做到了对任何信息抽取需求都能够应对自如。

这波操作放在2022年还是让人感觉有点梦幻了。要知道,市面上的信息抽取工具大多只能做特定领域的封闭域(有限预定义的schema)抽取,效果还很难保证,更不必说打造成三行代码即可完成调用的开放域工具了。

这不禁让人好奇,这个开源工具的背后是怎么做到的呢?我找PaddleNLP内部人士了解到,关键有二:

  1. 一个发表在ACL2022,屠遍信息抽取榜单的大一统信息抽取诸多子任务的技术UIE
  2. 首个知识增强语言模型——ERNIE 3.0

关于第一点,本文的下一章会做重点阐述,在此稍留作悬念。关于第二点,我们知道,知识对于信息抽取任务至关重要,而ERNIE 3.0不仅参数量大,还吸纳了千万级别实体的知识图谱,可以说是中文NLP方面最有“知识量”的SOTA底座。在ERNIE 3.0的基础上,如果再构造一个面向开放域信息抽取的二阶段SOTA预训练上层建筑呢?强强联合,便是这个工具带来梦幻体验的密码。

需要注意的是,这个包含强大知识储备的NLP基座和梦幻的信息抽取架构均集成到了PaddleNLP中,PaddleNLP却又不止是一个SOTA收纳箱,其还提供了非常易用的模型压缩部署方案、大模型加速技术、产业场景应用范例,做了扎实的易用性优化和性能优化。一句话总结,打造中文NLP应用的神器。

值得关注的是,UIE不仅具备惊艳的zero-shot开放域信息抽取能力,还有强大的小样本定制训练能力。

作者在互联网、医疗、金融三个行业关系、事件抽取任务上测试了小样本定制训练效果:

在金融场景,仅仅加了5条训练样本,uie-base模型F1值提升了25个点。也就是说,即使工具在某些case或某些场景下表现欠佳,人工标几个样本,丢给模型后就会有大幅的表现提升。这个强大的Few-Shot能力则是工具在大量长尾场景落地的最后一公里保障。

挖掘该工具更多的潜力和惊喜,请进传送门:

https://github.com/PaddlePaddle/PaddleNLP/tree/develop/model_zoo/uie

接下来还有第2点——

一个大一统信息抽取诸多子任务的架构

信息抽取领域的任务繁多,从大的任务类型上,可分为实体抽取、关系抽取、事件抽取、评价维度抽取、观点词抽取、情感倾向抽取等,而若要具体到每个任务类型下的抽取domain和schema定义,则更是无穷无尽了。

因此,以往信息抽取的落地是非常困难、成本高昂的,公司不仅要为每个细分的任务类型和domain标数据、开发模型、专人维护,而且部署起来也非常费力且消耗大量机器资源。

此外,各个子任务也不是完全割裂的,传统的子任务专用设计使得任务之间的通用知识难以共享,一座座“信息孤岛”的力量总是有限的,甚至有偏的。但现在不是了。由中科院软件所和百度共同提出的一个大一统诸多任务的开放域信息抽取技术UIE,发表在ACL 2022的SOTA技术,直接上图:

简单来说,UIE借鉴近年来火热的Prompt概念,将希望抽取的Schema信息转换成“线索词”(Schema-based Prompt)作为模型输入的前缀,使得模型理论上能够适应不同领域和任务的Schema信息,并按需抽取出线索词指向的结果,从而实现开放域环境下的通用信息抽取。

例如上图中,假如我们希望从一段文本中抽取出“人名”的实体和“工作于”的关系,便可以构造[spot] person [asso] work for的前缀,连接要抽取的目标文本[text] ,作为整体输入到UIE中。

那么这里关键的UIE模型是如何训练得到的呢?

UIE作者在预训练模型MLM loss的基础上又巧妙的构造了2个任务/loss:

  • 文本-结构预训练$L_{pair}$:给定一个<文本,结构>对,基于抽取出的schema通过随机采样spots和asso的方式来构造schema负例,将schema负例与原始的schema(正例)拼接得到meta-schema,最后再拼接上文本,来预测结构。作者表示这样可以避免模型在预训练阶段暴力记忆三元组,得到通用的文本-结构的映射能力

  • 结构生成预训练$L_{record}$:这个任务是为了训练decoder的结构输出能力,将输出结构SEL作为decoder的优化目标,来学到严谨的SEL规则

通过2个loss的联合预训练,便得到了强大的UIE模型。值得注意的是,尽管原论文使用了T5模型作为backbone,基于生成架构。实际上为了发挥模型在中文任务上的最大潜力,且让模型的推理效率变得可接受(毕竟生成任务还是太重了),在本文第一章提到的PaddleNLP信息抽取方案中,使用了强大的ERNIE 3.0模型+抽取式(阅读理解)架构。

因此在中文任务上效果更佳,推理速度更快。对更多细节感兴趣的小伙伴,可以看原论文或在文末扫码海报预约UIE讲解直播~论文链接:​https://arxiv.org/pdf/2203.12277.pdf

最后讲第1点——

不小心,刷了13个SOTA

UIE在各类IE任务的数据集上表现怎么样呢?

首先是常规设定下,4类抽取任务,13个经典测试集与SOTA的对比:

表格右数第二列是未经过UIE预训练的结果(基于T5+SEL直接微调),右数第一列是UIE预训练后微调的结果,可以看出SEL+强大生成模型就可以在信息抽取的统一建模方面取得很强的效果,而经过UIE预训练后则进一步提升了模型表现。

我们知道,模型经过微调,其实会弱化不同预训练策略带来的模型差异。因此UIE预训练的价值在小样本方面得到了更加酣畅淋漓的体现:

经过UIE预训练后,模型的小样本学习能力得到了极大的提升,这便是UIE工具具备强大定制化能力,进而实现中长尾行业落地的关键。

责任编辑:张燕妮 来源: DataFunTalk
相关推荐

2022-06-20 22:37:25

Linux操作系统命令

2022-06-15 11:02:40

网络安全运营

2022-06-27 17:46:53

PythonFlask

2022-06-30 10:22:26

K8s可观测Prometheus

2022-06-14 23:34:10

Linux安全服务器

2022-06-24 10:16:59

Python精选库

2022-07-01 14:25:27

机器学习人工智能工业4.0

2022-06-24 11:14:00

美团开源

2022-06-17 18:49:25

pythonexcel

2022-06-24 10:52:47

人工智能作业帮T前线

2022-06-23 11:42:22

MySQL数据库

2022-06-28 10:58:35

勒索软件攻击事件

2022-06-03 09:41:03

DockerKubernetes容器

2022-06-28 10:03:56

CentOSLinux

2022-06-29 09:19:09

静态代码C语言c代码

2022-06-17 09:47:04

Linux命令

2022-07-05 19:19:11

tcpdumpLinux命令

2022-06-27 19:01:04

Python应用程序数据

2022-07-05 12:00:18

编程语言JavascriptPython

2022-07-01 15:46:20

网络安全数字化智能制造

同话题下的热门内容

新出生的机器狗,打滚1小时后自己掌握走路,吴恩达大弟子成果在我的世界中,B站UP主搭建世界首个纯红石神经网络,图灵奖得主Yann LeCun转赞从机器学习中受益最大的四个行业2022年Nature年度指数出炉,涨幅最快50机构,中国占31席!科技巨头几百亿研发AI被质疑吹嘘:曾击败人类的AI要被卖了芯片巨头正在偷偷研发这些新AI技术,不比拍照有意思人工智能在网络安全中的作用人工智能技术在语言学领域的应用

编辑推荐

转转公司架构算法部孙玄:AI下的微服务架构Facebook开源相似性搜索类库Faiss,超越已知最快算法8.5倍运维:对不起,这锅,我们不背快消品图像识别丨无人店背后的商品识别技术最全面的百度NLP自然语言处理技术解析
我收藏的内容
点赞
收藏

51CTO技术栈公众号