机读格式显示(MARC)
- 000 01463nam0 2200277 450
- 010 __ |a 978-7-302-64872-7 |d CNY99.80
- 035 __ |a (A100000NLC)012714273
- 049 __ |a A100000NLC |b UCS01012371685 |c 012714273 |d NLC01
- 100 __ |a 20231226d2024 em y0chiy0110 ea
- 200 1_ |a 基于GPT-3、ChatGPT、GPT-4等Transfomer架构的自然语言处理 |9 ji yu GPT-3 、 ChatGPT 、 GPT-4 deng Transfomer jia gou de zi ran yu yan chu li |b 专著 |f (法)丹尼斯·罗斯曼(Denis Rothman)著 |g 叶伟民译
- 210 __ |a 北京 |c 清华大学出版社 |d 2024
- 215 __ |a 17,353页 |c 图 |d 24cm
- 312 __ |a 封面英文原名:Transformers for natural language processing: build, train, and fine-tune deep neural network architectures for NLP with Python, Hugging Face, and OpenAl's GPT-3, ChatGPT, and GPT-4
- 330 __ |a 本书共17章,内容包括:Transfomer模型介绍、微调BERT模型、从头开始预训练RoBERTa模型、机器翻译、数据集预处理和词元分析器、情绪分析、可解释AI、ChatGPT和GPT-4等。
- 510 1_ |a Transformers for natural language processing: build, train, and fine-tune deep neural network architectures for NLP with Python, Hugging Face, and OpenAl's GPT-3, ChatGPT, and GPT-4 |z eng
- 606 0_ |a 生成式人工智能 |x 应用 |x 自然语言处理 |x 研究
- 701 _0 |c (法) |a 罗斯曼 |9 luo si man |c (Rothman, Denis) |4 著
- 702 _0 |a 叶伟民 |9 ye wei min |4 译