机读格式显示(MARC)
- 010 __ |a 978-7-121-46705-9 |d CNY109.00
- 099 __ |a CAL 012024008476
- 100 __ |a 20240119d2024 em y0chiy50 ea
- 200 1_ |a 大规模语言模型 |A da gui mo yu yan mo xing |e 从理论到实践 |f 张奇 ... [等] 著
- 210 __ |a 北京 |c 电子工业出版社 |d 2024
- 215 __ |a xiv, 306页 |c 图 (部分彩图) |d 24cm
- 225 2_ |a 通用智能与大模型丛书 |A tong yong zhi neng yu da mo xing cong shu
- 225 2_ |a 博文视点 |A bo wen shi dian
- 320 __ |a 有书目 (第 [284] -302页) 和索引
- 330 __ |a 本书介绍了构建大语言模型的四个主要阶段:预训练、有监督微调、奖励建模和强化学习。每个阶段都有算法、代码、数据、难点及实践经验的讨论。书中以大语言模型的基础理论开篇,探讨了大语言模型预训练数据的构建方法,以及大语言模型如何理解并服从人类指令,介绍了大语言模型的扩展应用和评估方法。
- 410 _0 |1 2001 |a 通用智能与大模型丛书
- 606 0_ |a 自然语言处理 |A zi ran yu yan chu li
- 701 _0 |a 张奇 |A zhang qi |4 著
- 801 _0 |a CN |b ZJU |c 20240119
- 905 __ |a AUSTL |d TP391/Z649-2