广东职业技术学院图书馆书目检索系统

| 暂存书架(0) | 登录

MARC状态:审校 文献类型:中文图书 浏览次数:11

题名/责任者:
深入理解Transformer自然语言处理:使用Python、PyTorch、TensorFlow、BERT、RoBERTa为NLP构建深度神经网络架构/(法) 丹尼斯·罗思曼著 马勇 ... [等] 译
出版发行项:
北京:北京理工大学出版社,2023.10
ISBN及定价:
978-7-5763-2893-6/CNY99.00
载体形态项:
14, 267页:图;24cm
统一题名:
Transformers for natural language processing : build innovative deep neural network architectures for NLP with Python, Pytorch, TensorFlow, BERT, RoBERTa, and more
其它题名:
使用Python、PyTorch、TensorFlow、BERT、RoBERTa为NLP构建深度神经网络架构
个人责任者:
罗思曼 (Rothman, Denis)
个人次要责任者:
马勇
个人次要责任者:
曾小健
学科主题:
自然语言处理
中图法分类号:
TP391
题名责任附注:
题名页题: 马勇, 曾小健, 任玉柱, 梁理智译
责任者附注:
丹尼斯·罗思曼 (Denis Rothman), 毕业于索邦大学和巴黎狄德罗大学, 设计了第一个word2matrix专利嵌入和向量化系统。
书目附注:
有书目
提要文摘附注:
本书将向你展示如何提高语言理解能力。每一章都将带你从Python、PyTorch和TensorFlow中从零开始了解语言理解的关键方面。例如, 在媒体、社交媒体和研究论文等许多领域, 对语言理解的需求与日俱增。在数百项AI任务中, 我们需要总结大量数据进行研究, 为各个经济领域翻译文档, 并出于道德和法律原因扫描所有社交媒体帖子。谷歌推出的Transformer通过一种新颖的自注意力架构提供了新的语言理解方法。
使用对象附注:
本书适用于对Transformer学习感兴趣的读者以及人工智能领域的从业人员
全部MARC细节信息>>
索书号 条码号 年卷期 馆藏地 书刊状态 还书位置
TP391/258 00782536   书库 (图书定位请点击这里)    可借 书库
TP391/258 00782537   书库 (图书定位请点击这里)    可借 书库
显示全部馆藏信息
借阅趋势

同名作者的其他著作(点击查看)
用户名:
密码:
验证码:
请输入下面显示的内容
  证件号 条码号 Email
 
姓名:
手机号:
送 书 地:
收藏到: 管理书架