机读格式显示(MARC)
- 010 __ |a 978-7-115-64440-4 |d CNY59.80
- 100 __ |a 20241023d2024 em y0chiy50 ea
- 200 1_ |a MindSpore大语言模型实战 |A MindSpore da yu yan mo xing shi zhan |f 陈雷编著
- 210 __ |a 北京 |c 人民邮电出版社 |d 2024
- 215 __ |a 161页 |c 图 |d 26cm
- 225 2_ |a MindSpore计算与应用丛书 |A MindSpore ji suan yu ying yong cong shu
- 314 __ |a 陈雷, 加拿大滑铁卢大学计算机博士。现担任香港科技大学 (广州) 信息枢纽院长, 数据科学与分析学域讲座教授, 广州市大数据智能重点实验室主任。研究方向包括数据驱动的人工智能、大数据分析、知识图谱、众包、区块链、图数据库、概率和不确定数据库, 以及时空和时间序列数据库。
- 330 __ |a 本书首先详细讲解Transformer的基本原理、架构及实现方法; 然后介绍由Encoder-Only到Decoder-Only的技术路线发展过程中对应的BERT、GPT等大模型; 接下来介绍大模型在部署、训练、调优过程中涉及的各种关键的技术, 如自动并行、预训练与微调、RLHF等, 并提供相应的实践指导; 最后以开源大模型BLOOM、LLaMA为样例介绍整个架构和实现过程, 帮助读者理解并构建、部署自己的大模型。
- 410 _0 |1 2001 |a MindSpore计算与应用丛书
- 606 0_ |a 自然语言处理 |A zi ran yu yan chu li
- 701 _0 |a 陈雷 |A chen lei |4 编著
- 801 _0 |a CN |b 湖北三新 |c 20241023
- 905 __ |a AUSTL |d TP391/C476