MARC状态:审校 文献类型:中文图书 浏览次数:2
- 题名/责任者:
- 精通Transformer:从零开始构建最先进的NLP模型/(土) 萨瓦斯·伊尔蒂利姆, (伊朗) 梅萨姆·阿斯加里-切纳格卢著 江红, 余青松, 余靖译
- 出版发行项:
- 北京:北京理工大学出版社,2023.04
- ISBN及定价:
- 978-7-5763-2227-9/CNY99.00
- 载体形态项:
- 11, 266页:图;24cm
- 并列正题名:
- Mastering Transformers:build state-of-the-art models from scratch with advanced natural language processing techniques
- 其它题名:
- 从零开始构建最先进的NLP模型
- 个人责任者:
- 伊尔蒂利姆 (Yildirim, Savas) 著
- 个人责任者:
- 阿斯加里-切纳格卢 (Asgari-Chenaghlu, Meysam) 著
- 个人次要责任者:
- 江红 译
- 个人次要责任者:
- 余青松 译
- 个人次要责任者:
- 余靖 译
- 学科主题:
- 自然语言处理
- 中图法分类号:
- TP391
- 一般附注:
- 颉腾科技
- 提要文摘附注:
- 本书通过展示如何编写第一个hello-world程序, 介绍了Transformers。然后将了解分词器的工作原理以及如何训练您自己的分词器。随着学习的深入, 将探索自动编码模型 (如BERT) 和自回归模型 (如GPT) 的架构。还将了解如何针对各种自然语言理解 (NLU) 和自然语言生成 (NLG) 问题训练和微调模型, 包括文本分类、标记分类和文本表示。本书还可以帮助学习解决具有挑战性问题的有效模型, 如计算能力有限的长上下文NLP任务。还将处理多语言和跨语言问题, 通过监控模型的性能来优化模型, 并了解如何解构这些模型以实现可解释性和可解释性。最后, 将能够在生产环境中部署您的转换器模型。读完这本NLP书籍, 将学会如何使用Transformers使用高级模型解决高级NLP问题。
全部MARC细节信息>>
索书号 | 条码号 | 年卷期 | 馆藏地 | 书刊状态 | 还书位置 |
TP391/Y275 | 004312651 | 计算机科学书库 | 可借 | 计算机科学书库 | |
TP391/Y275 | 004312652 | 计算机科学书库 | 可借 | 计算机科学书库 |
显示全部馆藏信息