- 题名/责任者:
- 深入理解Transformer自然语言处理:使用Python、PyTorch、TensorFlow、BERT、RoBERTa为NLP构建深度神经网络架构/(法) 丹尼斯·罗思曼著 马勇 ... [等] 译
- 出版发行项:
- 北京:北京理工大学出版社,2023.10
- ISBN及定价:
- 978-7-5763-2893-6/CNY99.00
- 载体形态项:
- 14, 267页:图;24cm
- 个人责任者:
- 罗思曼 (Rothman, Denis) 著
- 个人次要责任者:
- 马勇 译
- 个人次要责任者:
- 曾小健 译
- 学科主题:
- 自然语言处理
- 中图法分类号:
- TP391
- 题名责任附注:
- 题名页题: 马勇, 曾小健, 任玉柱, 梁理智译
- 责任者附注:
- 丹尼斯·罗思曼 (Denis Rothman), 毕业于索邦大学和巴黎狄德罗大学, 设计了第一个word2matrix专利嵌入和向量化系统。
- 书目附注:
- 有书目
- 提要文摘附注:
- 本书将向你展示如何提高语言理解能力。每一章都将带你从Python、PyTorch和TensorFlow中从零开始了解语言理解的关键方面。例如, 在媒体、社交媒体和研究论文等许多领域, 对语言理解的需求与日俱增。在数百项AI任务中, 我们需要总结大量数据进行研究, 为各个经济领域翻译文档, 并出于道德和法律原因扫描所有社交媒体帖子。谷歌推出的Transformer通过一种新颖的自注意力架构提供了新的语言理解方法。
- 使用对象附注:
- 本书适用于对Transformer学习感兴趣的读者以及人工智能领域的从业人员
全部MARC细节信息>>
索书号 | 条码号 | 年卷期 | 馆藏地 | 书刊状态 | 还书位置 |
TP391/258 | 00782536 | 书库 (图书定位请点击这里) | 可借 | 书库 | |
TP391/258 | 00782537 | 书库 (图书定位请点击这里) | 可借 | 书库 |
显示全部馆藏信息