知识图谱学习记录_玛卡巴卡小朋友的博客-爱代码爱编程
知识图谱
实体识别
实体识别又称为实体抽取;主要目标是从文本中识别出代表实体的边界,并进一步判断类别。
传统的实体识别方法:CRF,基于深度学习的模型:BiLSTM+CRF
实体识别的方法:
1、定义模板或规则
通过定义正则表达式来描述这类规则。优点:抽取准确,有些实体识别也只能依据人工定义的规则来抽取
2、机器学习算法
实体识别任务可以定义为一个序列标注问题(给定一个句子,通过一个分类器给每个词打一个标签),通过机器学习训练一个分类算法,完成整个句子的序列标注。需要设计各种类型的特征来训练分类器,首先需要做的就是确定实体识别的标签体系。
*标签体系越复杂,语料标注成本越高 *
实体识别模型
基于CRF的实体识别
条件随机场模型(CRF):它以路径为单位,考虑的是路径的概率。
概念
1.随机场:含有多个位置,每个位置按某种分布随机赋予一个值,其全体就叫做随机场
2.马尔科夫随机场:假设随机场中某个位置的复制仅与它相邻位置的赋值有关,和不相邻位置的赋值无关。
3.条件随机场:加设马尔科夫随机场中只有X和Y两种变量,X一般是给定的,而Y一般是在给定X的条件下的输出。目标是求解P(Y|X)的最大值。
模型
对比一下普通的逐帧 softmax 和 CRF 的异同。
CRF 主要用于序列标注问题,可以简单理解为是给序列中的每一帧都进行分类,既然是分类,很自然想到将这个序列用 CNN 或者 RNN 进行编码后,接一个全连接层用 softmax 激活,如下图所示:
条件随机场:
然而,当我们设计标签时,比如用 s、b、m、e 的 4 个标签来做字标注法的分词,目标输出序列本身会带有一些上下文关联,比如 s 后面就不能接 m 和 e,等等。逐标签 softmax 并没有考虑这种输出层面的上下文关联,所以它意味着把这些关联放到了编码层面,希望模型能自己学到这些内容,但有时候会“强模型所难”。 而 CRF 则更直接一点,它将输出层面的关联分离了出来,这使得模型在学习上更为“从容”
模型概要
假如一个输入有 n 帧,每一帧的标签有 k 中可能性,那么理论上就有k^n中不同的输入。我们可以将它用如下的网络图进行简单的可视化。在下图中,每个点代表一个标签的可能性,点之间的连线表示标签之间的关联,而每一种标注结果,都对应着图上的一条完整的路径。
在序列标注任务中,我们的正确答案是一般是唯一的。比如“今天天气不错”,如果对应的分词结果是“今天/天气/不/错”,那么目标输出序列就是 bebess,除此之外别的路径都不符合要求。
换言之,在序列标注任务中,我们的研究的基本单位应该是路径,我们要做的事情,是从 k^n 条路径选出正确的一条,那就意味着,如果将它视为一个分类问题,那么将是 k^n 类中选一类的分类问题。
这就是逐帧 softmax 和 CRF 的根本不同了:前者将序列标注看成是 n 个 k 分类问题,后者将序列标注看成是 1 个 k^n 分类问题。
在 CRF 的序列标注问题中,我们要计算的是条件概率:
为了得到这个概率的估计,CRF 做了两个假设:
假设一:该分布是指数族分布。
这个假设意味着存在函数 f(y1,…,yn;x),使得:
其中 Z(x) 是归一化因子,因为这个是条件分布,所以归一化因子跟 x 有关。这个 f 函数可以视为一个打分函数,打分函数取指数并归一化后就得到概率分布。
假设二:输出之间的关联仅发生在相邻位置,并且关联是指数加性的。
这个假设意味着 f(y1,…,yn;x) 可以更进一步简化为:
这也就是说,现在我们只需要对每一个标签和每一个相邻标签对分别打分,然后将所有打分结果求和得到总分。
线性链CRF
尽管已经做了大量简化,但一般来说,(3) 式所表示的概率模型还是过于复杂,难以求解。于是考虑到当前深度学习模型中,RNN 或者层叠 CNN 等模型已经能够比较充分捕捉各个 y 与输出 x 的联系,因此,我们不妨考虑函数 g 跟 x 无关,那么:
这时候 g 实际上就是一个有限的、待训练的参数矩阵而已,而单标签的打分函数 h(yi;x) 我们可以通过 RNN 或者 CNN 来建模。因此,该模型是可以建立的,其中概率分布变为:
这就是线性链 CRF 的概念。
归一化因子
为了训练 CRF 模型,我们用最大似然方法,也就是用:
作为损失函数,可以算出它等于:
其中第一项是原来概率式的分子的对数,它目标的序列的打分,虽然它看上去挺迂回的,但是并不难计算。真正的难度在于分母的对数 logZ(x) 这一项。
归一化因子,在物理上也叫配分函数,在这里它需要我们对所有可能的路径的打分进行指数求和,而我们前面已经说到,这样的路径数是指数量级的(k^n),因此直接来算几乎是不可能的。
事实上,归一化因子难算,几乎是所有概率图模型的公共难题。幸运的是,在 CRF 模型中,由于我们只考虑了临近标签的联系(马尔可夫假设),因此我们可以递归地算出归一化因子,这使得原来是指数级的计算量降低为线性级别。
具体来说,我们将计算到时刻 t 的归一化因子记为 Zt,并将它分为 k 个部分:
分别是截止到当前时刻 t 中、以标签 1,…,k 为终点的所有路径的得分指数和。那么,我们可以递归地计算:它可以简单写为矩阵形式:
其中
而 G 是对 g(yi,yj) 各个元素取指数后的矩阵,即
而:
是编码模型(RNN、CNN等)对位置 t+1 的各个标签的打分的指数,即也是一个向量。式 (10) 中,ZtG 这一步是矩阵乘法,得到一个向量,而 ⊗ 是两个向量的逐位对应相乘。
动态规划
写出损失函数 −logP(y1,…,yn|x) 后,就可以完成模型的训练了,因为目前的深度学习框架都已经带有自动求导的功能,只要我们能写出可导的 loss,就可以帮我们完成优化过程了。
那么剩下的最后一步,就是模型训练完成后,如何根据输入找出最优路径来。跟前面一样,这也是一个从 k^n 条路径中选最优的问题,而同样地,因为马尔可夫假设的存在,它可以转化为一个动态规划问题,用 viterbi 算法解决,计算量正比于 n。
动态规划在本博客已经出现了多次了,它的递归思想就是:一条最优路径切成两段,那么每一段都是一条(局部)最优路径。在本博客右端的搜索框键入“动态规划”,就可以得到很多相关介绍了,所以不再重复了。
实现
经过调试,基于 Keras 框架下,笔者得到了一个线性链 CRF 的简明实现,这也许是最简短的 CRF 实现了。这里分享最终的实现并介绍实现要点。
实现要点
前面我们已经说明了,实现 CRF 的困难之处是 −logP(y1,…,yn|x) 的计算,而本质困难是归一化因子部分 Z(x) 的计算,得益于马尔科夫假设,我们得到了递归的 (9) 式或 (10) 式,它们应该已经是一般情况下计算 Z(x) 的计算了。
那么怎么在深度学习框架中实现这种递归计算呢?要注意,从计算图的视角看,这是通过递归的方法定义一个图,而且这个图的长度还不固定。这对于 PyTorch这样的动态图框架应该是不为难的,但是对于TensorFlow或者基于 TensorFlow 的 Keras 就很难操作了(它们是静态图框架)。
不过,并非没有可能,我们可以用封装好的 RNN 函数来计算。我们知道,RNN 本质上就是在递归计算:新版本的 TensorFlow 和 Keras 都已经允许我们自定义 RNN 细胞,这就意味着函数 f 可以自行定义,而后端自动帮我们完成递归计算。于是我们只需要设计一个 RNN,使得我们要计算的 Z 对应于 RNN 的隐藏向量。
这就是 CRF 实现中最精致的部分了。
CRF部分来自简明条件随机场CRF介绍 | 附带纯Keras实现 | 机器之心 https://www.jiqizhixin.com/articles/2018-05-23-3 (分享自 @机器之心Pro)
原文链接:https://www.jiqizhixin.com/articles/2018-05-23-3