4.23文创礼盒,买2个减5元 读书月福利
欢迎光临中图网 请 | 注册
> >
TRANSFORMER自然语言处理实战:使用HUGGING FACE TRANSFORMERS库构建NLP应用

TRANSFORMER自然语言处理实战:使用HUGGING FACE TRANSFORMERS库构建NLP应用

出版社:机械工业出版社出版时间:2024-01-01
开本: 16开 页数: 343
中 图 价:¥98.7(7.1折) 定价  ¥139.0 登录后可看到会员价
加入购物车 收藏
运费6元,满69元免运费
?快递不能达地区使用邮政小包,运费14元起
云南、广西、海南、新疆、青海、西藏六省,部分地区快递不可达
本类五星书更多>

TRANSFORMER自然语言处理实战:使用HUGGING FACE TRANSFORMERS库构建NLP应用 版权信息

  • ISBN:9787111741923
  • 条形码:9787111741923 ; 978-7-111-74192-3
  • 装帧:平装-胶订
  • 册数:暂无
  • 重量:暂无
  • 所属分类:>

TRANSFORMER自然语言处理实战:使用HUGGING FACE TRANSFORMERS库构建NLP应用 本书特色

自Transformer在2017年发布以来,自然语言处理领域就迈入了 一个全新的时代。以Transformer为基础的模型,不断推动着自 然语言处理技术的进步与革新。如今随着ChatGPT的发布与流行,Transformer也被越来越多的人所了解和使用。
本书以Hugging Face Transformers库为基础,旨在向读者介绍Transformer模型的基础知识和快速入门方式,帮助读者完成训练和扩展。三位作者都是Hugging Face Transformers的创建者,深谙Transformer的原理与架构,将通过实际案例“手把手”地帮助读者构建各种自然语言处理任务,并不断挖掘Transformer的无限潜力,从而实现更广泛的应用和创新。
通过本书,你将:
? 以NLP领域*具代表性的任务(文本分类、命名实体识别和问答系统)为例,学习构建、调试和优化Transformer模型。
? 了解Transformer如何应用于跨语言迁移学习。
? 学习如何在标注数据稀缺的场景中应用Transformer。
? 使用蒸馏、剪枝和量化等技术优化Transformer。
? 学习如何对Transformer做分布式并行训练。

TRANSFORMER自然语言处理实战:使用HUGGING FACE TRANSFORMERS库构建NLP应用 内容简介

本书涵盖了Transformer在NLP领域的主要应用。首先介绍Transformer模型和Hugging Face 生态系统。然后重点介绍情感分析任务以及Trainer API、Transformer的架构,并讲述了在多语言中识别文本内实体的任务,以及Transformer模型生成文本的能力,还介绍了解码策略和度量指标。接着深入挖掘了文本摘要这个复杂的序列到序列的任务,并介绍了用于此任务的度量指标。之后聚焦于构建基于评论的问答系统,介绍如何基于Haystack进行信息检索,探讨在缺乏大量标注数据的情况下提高模型性能的方法。*后展示如何从头开始构建和训练用于自动填充Python源代码的模型,并总结Transformer面临的挑战以及将这个模型应用于其他领域的一些新研究。

TRANSFORMER自然语言处理实战:使用HUGGING FACE TRANSFORMERS库构建NLP应用 目录

目录
序1
前言3
第1章 欢迎来到Transformer的世界11
1.1 编码器-解码器框架12
1.2 注意力机制14
1.3 NLP的迁移学习15
1.4 Hugging FaceTransformers库:提供规范化接口18
1.5 Transformer应用概览19
1.6 Hugging Face生态系统23
1.7 Transformer的主要挑战27
1.8 本章小结27
第2章 文本分类29
2.1 数据集30
2.2 将文本转换成词元36
2.3 训练文本分类器44
2.4 本章小结60
第3章 Transformer架构剖析62
3.1 Transformer架构62
3.2 编码器64
3.3 解码器79
3.4 认识Transformer81
3.5本章小结87
第4章 多语言命名实体识别88
4.1 数据集89
4.2 多语言Transformer93
4.3 多语言词元化技术94
4.4 命名实体识别中的Transformers96
4.5 自定义Hugging Face Transformers库模型类98
4.6 NER的词元化103
4.7 性能度量105
4.8 微调XLM-RoBERTa106
4.9 错误分析108
4.10 跨语言迁移114
4.11 用模型小部件进行交互120
4.12 本章小结121
第5章 文本生成122
5.1 生成连贯文本的挑战123
5.2 贪婪搜索解码125
5.3 束搜索解码129
5.4 采样方法132
5.5 top-k和核采样134
5.6 哪种解码方法*好136
5.7 本章小结137
第6章 文本摘要138
6.1 CNN/DailyMail数据集138
6.2 文本摘要pipeline139
6.3 比较不同的摘要143
6.4 度量生成文本的质量144
6.5 在CNN/DailyMail数据集上评估PEGASUS150
6.6 训练摘要模型152
6.7 本章小结158
第7章 构建问答系统160
7.1 构建基于评论的问答系统161
7.2 评估并改进问答pipeline183
7.3 生成式问答196
7.4 本章小结199
第8章 Transformer模型调优201
8.1 以意图识别为例201
8.2 创建性能基准203
8.3 通过知识蒸馏减小模型大小208
8.4 利用量化技术使模型运算更快220
8.5 基准测试量化模型225
8.6 使用ONNX和ONNX Runtime进行推理优化226
8.7 使用权重剪枝使模型更稀疏231
8.8 本章小结235
第9章 零样本学习和少样本学习236
9.1 构建GitHub issue标记任务238
9.2 基线模型—朴素贝叶斯245
9.3 零样本学习248
9.4 少样本学习256
9.5 利用无标注数据272
9.6 本章小结278
第10章 从零训练Transformer模型280
10.1 如何寻找大型数据集281
10.2 构建词元分析器290
10.3 从零训练一个模型301
10.4 结果与分析315
10.5 本章小结319
第11章 未来发展趋势321
11.1 Transformer的扩展321
11.2 其他应用领域329
11.3 多模态的Transformer334
11.4 继续前行的建议342
展开全部

TRANSFORMER自然语言处理实战:使用HUGGING FACE TRANSFORMERS库构建NLP应用 作者简介

Lewis Tunstall是Hugging Face机器学习工程师,致力于为NLP社区开发实用工具,并帮助人们更好地使用这些工具。
Leandro von Werra是Hugging Face机器学习工程师,致力于代码生成模型的研究与社区推广工作。
Thomas Wolf是Hugging Face首席科学官兼联合创始人,他的团队肩负着促进AI研究和普及的使命。

商品评论(0条)
暂无评论……
书友推荐
本类畅销
编辑推荐
返回顶部
中图网
在线客服