



本书从机器学习的角度系统地讨论自然语言处理,提供了对NLP解决方案更深入的数学理解。学生可以利用这些知识来解决NLP任务,并建立更好的NLP模型。
第一部分 基础知识
第1章 绪论 2
1.1 自然语言处理的概念 2
1.2 自然语言处理任务 3
1.3 机器学习视角下的自然语言处理任务 18
第2章 相对频率 35
2.1 概率建模 35
2.2 n元语言模型 41
2.3 朴素贝叶斯文本分类器 49
第3章 特征向量 57
3.1 文本在向量空间中的表示 57
3.2 多分类 66
3.3 线性判别式模型 70
3.4 向量空间与模型训练 72
第4章 判别式线性分类器 78
4.1 对数线性模型 78
4.2 基于随机梯度下降法训练支持向量机 85
4.3 广义线性模型 88
4.4 模型融合 92
第5章 信息论观点 101
5.1 最大熵原理 101
5.2 KL散度与交叉熵 108
5.3 互信息 111
第6章 隐变量 121
6.1 期望最大算法 121
6.2 基于期望最大算法的隐变量模型 127
6.3 期望最大算法的理论基础 138
第二部分 结构研究
第7章 生成式序列标注任务 146
7.1 序列标注 146
7.2 隐马尔可夫模型 147
7.3 计算边缘概率 153
7.4 基于期望最大算法的无监督隐马尔可夫模型训练 158
第8章 判别式序列标注任务 168
8.1 局部训练的判别式序列标注模型 168
8.2 标注偏置问题 171
8.3 条件随机场 172
8.4 结构化感知机 181
8.5 结构化支持向量机 184
第9章 序列分割 189
9.1 基于序列标注的序列分割任务 189
9.2 面向序列分割的判别式模型 193
9.3 结构化感知机与柱搜索 203
第10章 树结构预测 210
10.1 生成式成分句法分析 210
10.2 成分句法分析的特征 218
10.3 重排序 225
10.4 序列和树结构总结及展望 228
第11章 基于转移的结构预测模型 233
11.1 基于转移的结构化预测 233
11.2 基于转移的成分句法分析 239
11.3 基于转移的依存句法分析 242
11.4 句法分析联合模型 247
第12章 贝叶斯网络 254
12.1 通用概率模型 254
12.2 贝叶斯网络的训练 257
12.3 推理 266
12.4 潜在狄利克雷分配 269
12.5 贝叶斯IBM模
第三部分 深度学习
第13章 神经网络 282
13.1 从单层网络到多层网络 282
13.2 构建不依赖人工特征的文本分类器 292
13.3 神经网络的训练优化 298
第14章 表示学习 305
14.1 循环神经网络 305
14.2 注意力机制 312
14.3 树结构 315
14.4 图结构 319
14.5 表示向量的分析 323
14.6 神经网络的训练 324
第15章 基于神经网络的结构预测模型 334
15.1 基于图的局部模型 334
15.2 基于转移的局部贪心模型 342
15.3 全局结构化模型 349
第16章 两段式文本任务 361
16.1 序列到序列模型 361
16.2 文本匹配模型 372
第17章 预训练与迁移学习 386
17.1 神经网络语言模型与词
17.2 上下文相关的词表示 398
17.3 迁移学习 403
第18章 深度隐变量模型 412
18.1 将隐变量引入神经网络 412
18.2 使用类别隐变量 413
18.3 使用结构化隐变量 418
18.4 变分推理 422
18.5 神经主题模型 431
18.6 面向语言模型的变分自编码器 432
点击下载