机读格式显示(MARC)
- 000 01697nam0 2200301 450
- 010 __ |a 978-7-115-60372-2 |d CNY89.80
- 100 __ |a 20230301d2023 em y0chiy50 ea
- 200 1_ |a BERT基础教程 |A BERT ji chu jiao cheng |e Transformer大模型实战 |f (印) 苏达哈尔桑·拉维昌迪兰著 |d Getting started with google BERT |f Sudharsan Ravichandiran著 |g 周参译 |z eng
- 210 __ |a 北京 |c 人民邮电出版社 |d 2023
- 215 __ |a 266页 |c 图 |d 23cm
- 306 __ |a 本书中文简体字版由 Packt Publishing 授权人民邮电出版社有限公司独家出版
- 314 __ |a 苏达哈尔桑·拉维昌迪兰 (Sudharsan Ravichandiran) 热爱开源社区的数据科学家, 研究方向为深度学习和强化学习的实际应用, 在自然语言处理和计算机视觉等领域都颇有建树, 另著有《Python强化学习实战》。周参, 就职于谷歌, 任软件工程师, 研究方向为自然语言处理。工作之余的兴趣是研究人工智能领域机器学习方向以及新的模型算法, 并将多种深度学习模型应用于实际问题中。
- 330 __ |a 本书聚焦谷歌公司开发的BERT自然语言处理模型, 由浅入深地介绍了BERT的工作原理、BERT的各种变体及其应用。本书呈现了大量示意图、代码和实例, 详细解析了如何训练BERT模型、如何使用BERT模型执行自然语言推理任务、文本摘要任务、问答任务、命名实体识别任务等各种下游任务, 以及如何将BERT模型应用于多种语言。
- 510 1_ |a Getting started with google BERT |z eng
- 517 1_ |a Transformer大模型实战 |A Transformer da mo xing shi zhan
- 606 0_ |a 自然语言处理 |A zi ran yu yan chu li
- 701 _1 |a 拉维昌迪兰 |A la wei chang di lan |g (Ravichandiran, Sudharsan) |4 著
- 702 _0 |a 周参 |A zhou shen |4 译
- 801 _0 |a CN |b HDUL |c 20230609
- 905 __ |a HDUL |d TP391/526