机读格式显示(MARC)
- 000 02257nam0 2200325 450
- 010 __ |a 978-7-5763-2893-6 |d CNY99.00
- 100 __ |a 20231130d2023 em y0chiy50 ea
- 200 1_ |a 深入理解Transformer自然语言处理 |A shen ru li jie Transformer zi ran yu yan chu li |e 使用Python、PyTorch、TensorFlow、BERT、RoBERTa为NLP构建深度神经网络架构 |f (法) 丹尼斯·罗思曼著 |d = Transformers for natural language processing |e build innovative deep neural network architectures for NLP with Python, Pytorch, TensorFlow, BERT, RoBERTa, and more |f Denis Rothman |g 马勇 ... [等] 译 |z eng
- 210 __ |a 北京 |c 北京理工大学出版社 |d 2023.10
- 215 __ |a 14, 267页 |c 图 |d 24cm
- 304 __ |a 题名页题: 马勇, 曾小健, 任玉柱, 梁理智译
- 314 __ |a 丹尼斯·罗思曼 (Denis Rothman), 毕业于索邦大学和巴黎狄德罗大学, 设计了第一个word2matrix专利嵌入和向量化系统。
- 330 __ |a 本书将向你展示如何提高语言理解能力。每一章都将带你从Python、PyTorch和TensorFlow中从零开始了解语言理解的关键方面。例如, 在媒体、社交媒体和研究论文等许多领域, 对语言理解的需求与日俱增。在数百项AI任务中, 我们需要总结大量数据进行研究, 为各个经济领域翻译文档, 并出于道德和法律原因扫描所有社交媒体帖子。谷歌推出的Transformer通过一种新颖的自注意力架构提供了新的语言理解方法。
- 333 __ |a 本书适用于对Transformer学习感兴趣的读者以及人工智能领域的从业人员
- 500 10 |a Transformers for natural language processing : build innovative deep neural network architectures for NLP with Python, Pytorch, TensorFlow, BERT, RoBERTa, and more |A Transformers For Natural Language Processing : Build Innovative Deep Neural Network Architectures For Nlp With Python, Pytorch, Tensorflow, Bert, Roberta, And More |m Chinese
- 517 1_ |a 使用Python、PyTorch、TensorFlow、BERT、RoBERTa为NLP构建深度神经网络架构 |A shi yong Python、PyTorch、TensorFlow、BERT、RoBERTa wei NLP gou jian shen du shen jing wang luo jia gou
- 606 0_ |a 自然语言处理 |A zi ran yu yan chu li
- 701 _1 |a 罗思曼 |A luo si man |g (Rothman, Denis) |4 著
- 702 _0 |a 马勇 |A ma yong |4 译
- 702 _0 |a 曾小健 |A zeng xiao jian |4 译
- 801 _0 |a CN |b GDPTC |c 20240921
- 905 __ |a GDPTC |d TP391/258