机读格式显示(MARC)
- 000 01935nam0 2200301 450
- 010 __ |a 978-7-5763-2893-6 |d CNY99.00
- 100 __ |a 20231128d2023 em y0chiy50 ea
- 200 1_ |a 深入理解Transformer自然语言处理 |A shen ru li jie Transformer zi ran yu yan chu li |d Transformers for natural language processing |e 使用Python、PyTorch、TensorFlow、BERT、RoBERTa为NLP构建深度神经网络架构 |e build innovative deep neural network architectures for NLP with Python, PyTorch, TensorFlow, BERT, RoBERTa, and more |f (法)丹尼斯·罗思曼著 |f DenisRothman |g 马勇[等]译 |z eng
- 210 __ |a 北京 |c 北京理工大学出版社 |d 2023
- 215 __ |a 14, 267页 |c 图 |d 24cm
- 314 __ |a 丹尼斯?罗思曼, 毕业于索邦大学和巴黎狄德罗大学, 设计了第一个word2matrix专利嵌入和向量化系统。他开始了自己的职业生涯, 创作了第一批人工智能认知自然语言处理 (Natural Language Processing, NLP) 聊天机器人和其他公司的自动语言教师。
- 330 __ |a 本书详细介绍了Transformer架构及其在NLP中的创新应用, 为读者提供了全面的知识体系和实践经验。作者以通俗易懂的方式解释复杂概念, 引导读者逐步掌握深度学习和NLP的核心原理。无论您是NLP研究者、数据科学家、计算机科学学生还是技术创业者, 本书都为您提供了深入理解和应用Transformer模型的关键指南。通过本书, 读者将掌握构建高性能NLP应用所需的关键技能, 助力您在人工智能领域取得更大成就。
- 510 1_ |a Transformers for natural language processing |e build innovative deep neural network architectures for NLP with Python, PyTorch,TensorFlow, BERT, RoBERTa, and more |z eng
- 517 1_ |a 使用Python、PyTorch、TensorFlow、BERT、RoBERTa为NLP构建深度神经网络架构
- 606 0_ |a 自然语言处理 |A Zi Ran Yu Yan Chu Li
- 701 _0 |c (法) |a 罗思曼 |A luo si man |c (Rothman, Denis) |4 著
- 702 _0 |a 马勇 |A ma yong |4 译
- 801 _0 |a CN |b HDUL |c 20240423
- 905 __ |a HDUL |d TP391/666