机读格式显示(MARC)
- 000 01754nam0 2200289 450
- 010 __ |a 978-7-5763-2893-6 |d CNY99.00
- 099 __ |a CAL 012024008372
- 100 __ |a 20231201d2023 ekmy0chiy50 ea
- 200 1_ |a 深入理解Transformer自然语言处理 |A Shen Ru Li Jie Transformer Zi Ran Yu Yan Chu Li |e 使用Python、PyTorch、TensorFlow、BERT、RoBERTa为NLP构建深度神经网络架构 |f (法) 丹尼斯·罗思曼著 |d = Transformers for natural language processing |e build innovative deep neural network architectures for NLP with Python, PyTorch, TensorFlow, BERT, RoBERTa, and more |f Denis Rothman |g 马勇 ... [等] 译 |z eng
- 210 __ |a 北京 |c 北京理工大学出版社有限责任公司 |d 2023
- 215 __ |a 14, 267页 |c 图 |d 24cm
- 330 __ |a 本书采用边学边应用的方法,研究了Transformer在机器翻译、语音转文本、文本转语音、语言建模、问答等众多NLP领域中的深度学习技术。
- 500 10 |a Transformers for natural language processing : build innovative deep neural network architectures for NLP with Python, PyTorch, TensorFlow, BERT, RoBERTa, and more |A Transformers For Natural Language Processing : Build Innovative Deep Neural Network Architectures For Nlp With Python, Pytorch, Tensorflow, Bert, Roberta, And More |m Chinese
- 517 1_ |a 使用Python、PyTorch、TensorFlow、BERT、RoBERTa为NLP构建深度神经网络架构 |A shi yong Python 、 PyTorch 、 TensorFlow 、 BERT 、 RoBERTa wei NLP gou jian shen du shen jing wang luo jia gou
- 606 0_ |a 自然语言处理 |A Zi Ran Yu Yan Chu Li
- 701 _1 |a 罗思曼 |A luo si man |g (Rothman, Denis) |4 著
- 702 _0 |a 马勇 |A ma yong |4 译
- 801 _0 |a CN |b NUL |c 20240117
- 905 __ |a AUSTL |d TP391/L724