注册 | 登录读书好,好读书,读好书!
读书网-DuShu.com
当前位置: 首页出版图书科学技术计算机/网络人工智能会话式AI:自然语言处理与人机交互

会话式AI:自然语言处理与人机交互

会话式AI:自然语言处理与人机交互

定 价:¥79.00

作 者: 杜振东,涂铭 著
出版社: 机械工业出版社
丛编项: 智能系统与技术丛书
标 签: 暂缺

购买这本书可以去


ISBN: 9787111664192 出版时间: 2020-09-01 包装: 平装
开本: 16开 页数: 284 字数:  

内容简介

  这是一部讲解如何基于NLP技术和人机交互技术实现聊天机器人的著作。 两位作者聊天机器人领域均有多年大型项目的实战经验,这本书不仅讲解了NLP和人机交互的核心技术,而且从技术、算法、实战3个维度讲解聊天机器人的原理、实现与工程实践。 本书有3个特点: 前瞻性强,专注于NLP和人机交互的前沿技术,以及会话式AI技术在热门场景中的工程实践。 实战性强,每章都提供实战代码,大部分代码简单修改后便可在实际场景中使用;数据集并非简单构造,而是具有真实性。 对比性强,结合应用场景,对比不同技术的优劣,既能指导读者进行技术选型,又能加深读者对不同技术的理解。 本书一共12章,分为三大部分: 第壹部分 基础篇(第1-2章) 首先系统介绍了人机交互技术和聊天机器人技术的必备基础,然后讲解了深度学习工具的使用以及NLP开发环境的搭建 第二部分 算法篇(第3-8章) 这部分是核心内容,主要讲解中文自然语言处理的各种算法,包括分词技术、数据预处理、词向量技术、序列标注与中文 NER、文本深度学习、循环神经网络等。 第三部分 实战篇(第9-12章) 主要讲解了语言模型与对话生成、知识图谱问答、自然语言推理、实体语义理解这4种人机交互方面的高阶技术,涵盖信息抽取、槽位填充、语义理解、聊天机器人、问答系统、多轮对话技术等知识点。

作者简介

  作者简介 杜振东 国家标准委人工智能技术专家和AIIA(中国人工智能产业发展联盟)技术专家。拥有8年机器学习与文本挖掘相关技术经验,6年中文自然语言处理相关项目实战经验,擅长PyTorch、TensorFlow等主流深度学习框架,擅长运用NLP前沿技术解决真实项目的难题。 在意图识别、新闻推荐、多轮人机交互领域有数年实战经验。参与百万级用户金融资讯新闻推荐项目,作为算法主要负责人及整体框架设计者,主导全新智能新闻推荐系统的落地,并优化线上推荐算法,相较原有系统精度提高10%。 曾在AIIA和国家人工智能标准化总体组参与了多个人工智能标准的制定和人工智能报告的撰写。 涂铭 数据架构师和人工智能技术专家,曾就职于阿里,现就职于腾讯。对大数据、自然语言处理、图像识别、Python、Java等相关技术有深入的研究,积累了丰富的实践经验。 在工业领域曾参与了燃煤优化、设备故障诊断以及正泰光伏电池片和组件EL图像检测项目;在自然语言处理方面,曾担任导购机器人项目的架构师,主导开发机器人的语义理解、短文本相似度匹配、上下文理解,以及通过自然语言检索产品库,在项目中构建了NoSQL+文本检索等大数据架构,也同时负责问答对的整理和商品属性的提取,带领NLP团队构建了语义解析层。 合著有畅销书《Python自然语言处理实战:核心技术与算法》和《深度学习与图像识别:原理与实践》。

图书目录

前言
第1章 人机交互导论 1
1.1 图灵测试 1
1.1.1 图灵测试相关背景 1
1.1.2 图灵测试的定义 2
1.1.3 图灵测试引发的思考 3
1.2 专家系统 3
1.2.1 专家系统的定义 3
1.2.2 专家系统的框架 4
1.2.3 专家系统的发展 6
1.3 人机交互 6
1.3.1 人机交互简介 6
1.3.2 人机交互模块的发展 7
1.3.3 自然语言理解 9
1.3.4 对话管理 10
1.3.5 自然语言生成 10
1.4 机器人形态 11
1.4.1 聊天机器人 12
1.4.2 任务型机器人 13
1.4.3 面向FAQ的问答机器人 13
1.4.4 面向KB的问答机器人 14
1.5 本章小结 14
第2章 人机对话前置技术 15
2.1 深度学习框架 15
2.1.1 Theano 15
2.1.2 TensorFlow 16
2.1.3 Keras 17
2.1.4 PyTorch 17
2.2 搭建NLP开发环境 18
2.2.1 下载和安装Anaconda 18
2.2.2 conda的使用 21
2.2.3 中文分词工具——Jieba 22
2.2.4 PyTorch的下载与安装 24
2.2.5 Jupyter Notebook远程访问 25
2.3 TorchText的安装与介绍 26
2.4 本章小结 29
第3章 中文分词技术 30
3.1 分词的概念和分类 30
3.2 规则分词 31
3.2.1 正向最大匹配 31
3.2.2 逆向最大匹配 32
3.2.3 双向最大匹配 33
3.3 统计分词 35
3.4 混合分词 44
3.5 Jieba分词 44
3.6 准确率评测 47
3.6.1 混淆矩阵 48
3.6.2 中文分词中的P、R、F1计算 49
3.7 本章小结 51
第4章 数据预处理 52
4.1 数据集介绍 52
4.2 数据预处理 53
4.3 TorchText预处理 55
4.3.1 torchtext.data 55
4.3.2 torchtext.datasets 56
4.3.3 构建词表 57
4.3.4 构建迭代器 58
4.4 本章小结 60
第5章 词向量实战 61
5.1 词向量的由来 61
5.1.1 one-hot模型 61
5.1.2 神经网络词向量模型 63
5.2 word2vec 67
5.2.1 初探word2vec 67
5.2.2 深入CBOW模型 68
5.2.3 Skip-gram模型介绍 69
5.2.4 word2vec模型本质 70
5.3 glove 71
5.3.1 初探glove 71
5.3.2 glove模型原理 72
5.4 word2vec实战 74
5.4.1 预处理模块 74
5.4.2 模型框架 78
5.4.3 模型训练 79
5.4.4 模型评估 82
5.5 glove实战 83
5.5.1 预处理模块 83
5.5.2 模型框架 85
5.5.3 模型训练 86
5.5.4 模型评估 87
5.6 本章小结 87
第6章 序列标注与中文NER实战 88
6.1 序列标注任务 88
6.1.1 任务定义及标签体系 88
6.1.2 任务特点及对比 90
6.1.3 任务应用场景 92
6.2 序列标注的技术方案 94
6.2.1 隐马尔可夫模型 94
6.2.2 条件随机场 94
6.2.3 循环神经网络 96
6.2.4 Bert 97
6.3 序列标注实战 99
6.3.1 中文NER数据集 99
6.3.2 数据预处理 100
6.3.3 模型训练框架 102
6.3.4 模型评估 103
6.4 BiLSTM 104
6.4.1 参数介绍 104
6.4.2 BiLSTM模型框架 104
6.4.3 模型效果评估 106
6.5 BiLSTM-CRF 107
6.5.1 参数介绍 107
6.5.2 BiLSTM-CRF模型框架 107
6.5.3 模型评价 112
6.6 本章小结 112
第7章 文本分类技术 113
7.1 TFIDF与朴素贝叶斯 113
7.1.1 TFIDF 113
7.1.2 朴素贝叶斯 115
7.1.3 实战案例之新闻分类 116
7.2 TextCNN 118
7.2.1 TextCNN网络结构解析 118
7.2.2 实战案例之新闻分类 121
7.3 FastText 129
7.3.1 模型架构 129
7.3.2 层次softmax 130
7.3.3 n-gram子词特征 130
7.3.4 安装与实例解析 131
7.4 后台运行 134
7.5 本章小结 134
第8章 循环神经网络 135
8.1 RNN 135
8.1.1 序列数据 135
8.1.2 神经网络需要记忆 136
8.1.3 RNN基本概念 136
8.1.4 RNN的输入输出类型 138
8.1.5 双向循环神经网络 139
8.1.6 深层循环神经网络 140
8.1.7 RNN的问题 141
8.1.8 RNN PyTorch实现 141
8.2 LSTM 143
8.2.1 LSTM网络结构解析 143
8.2.2 LSTM PyTorch实现 147
8.3 GRU 149
8.3.1 GRU网络结构解析 149
8.3.2 GRU PyTorch实现 151
8.4 TextRNN 152
8.4.1 基本概念 152
8.4.2 实战案例之新闻分类 153
8.5 TextRCNN 154
8.5.1 基本概念 154
8.5.2 实战案例之新闻分类 155
8.6 实战案例之诗歌生成 155
8.6.1 数据预处理 156
8.6.2 模型结构 158
8.6.3 模型训练 158
8.6.4 诗歌生成 159
8.7 本章小结 161
第9章 语言模型与对话生成 162
9.1 自然语言生成介绍 162
9.2 序列生成模型 163
9.2.1 seq2seq的基本框架 164
9.2.2 Encoder-Decoder框架的缺点 165
9.3 经典的seq2seq框架 166
9.3.1 基于RNN的seq2seq 166
9.3.2 基于CNN的seq2seq 167
9.4 Attention机制 169
9.4.1 序列模型RNN 169
9.4.2 Attention机制的原理 170
9.4.3 Self-Attention模型 171
9.4.4 Transfomer模型介绍 171
9.5 Bert——自然语言处理的新范式 173
9.5.1 Bert结构 174
9.5.2 预训练任务 175
9.6 聊天机器人实战 1

本目录推荐