机读格式显示(MARC)
- 000 00882nam0 2200217 450
- 010 __ |a 978-7-302-68561-6 |d CNY99.00
- 049 __ |a O320113FHC |b UCS01013174284 |c 013174284
- 100 __ |a 20250427d2025 em y0chiy0110 ea
- 200 1_ |a 从零构建大模型 |9 cong ling gou jian da mo xing |b 专著 |e 算法、训练与微调 |f 梁楠著
- 210 __ |a 北京 |c 清华大学出版社 |d 2025
- 215 __ |a 284页 |c 图 |d 24cm
- 330 __ |a 本书共12章,涵盖了Transformer模型的基础理论,如Seq2Seq模型、分词、嵌入层和自注意力机制等关键概念,并深入剖析了GPT模型的核心实现与文本生成过程,以及BERT模型的预训练和微调技术。同时,也对ViT(视觉Transformer)模型的架构、训练方法,以及高阶微调策略如Adapter Tuning和P-Tuning进行了详尽讲解。
- 701 _0 |a 梁楠 |9 liang nan |4 著