5.0 用户推荐指数
科技
类型
7.6
豆瓣评分
可以朗读
语音朗读
223千字
字数
2022-07-01
发行日期
展开全部
主编推荐语
本书帮助你快速了解自然语言处理的新技术及未来发展趋势。
内容简介
本书分为三部分。
第一部分聚焦于自然语言处理的高层次概述,包括自然语言处理的历史、该领域流行的应用,以及如何使用预训练模型来执行迁移学习和快速解决现实世界中的问题。
第二部分将深入研究自然语言处理的底层细节,包括预处理文本、分词和向量嵌入。然后探讨当今自然语言处理中有效的建模方法,如Transformer、注意力机制、普通循环神经网络、长短期记忆和门控循环单元。
第三部分将讨论应用自然语言处理很重要的方面——如何产品化已开发的模型,以便这些模型为组织提供看得见、摸得着的价值。我们将讨论当今可用工具的前景,分享对它们的看法。
目录
- 版权信息
- 关于作者
- 关于封面
- O'Reilly Media, Inc.介绍
- 业界评论
- 前言
- 第一部分 浮光掠影
- 第1章 自然语言处理介绍
- 1.1 什么是自然语言处理
- 1.2 基本的自然语言处理
- 1.3 总结
- 第2章 Transformer和迁移学习
- 2.1 利用fast.ai库进行训练
- 2.2 利用Hugging Face系列库进行推理
- 2.3 总结
- 第3章 NLP任务和应用程序
- 3.1 预训练语言模型
- 3.2 迁移学习和微调
- 3.3 NLP任务
- 3.4 自然语言数据集
- 3.5 NLP任务1:命名实体识别
- 3.6 NLP任务2:文本分类
- 3.7 总结
- 第二部分 纲举目张
- 第4章 分词
- 4.1 一个极简的分词器
- 4.2 Hugging Face的分词器
- 4.3 搭建自己的分词器
- 4.4 总结
- 第5章 向量嵌入:计算机如何“理解”单词
- 5.1 理解文本与读取文本
- 5.2 词向量
- 5.3 词向量嵌入实践
- 5.4 非词条的嵌入
- 5.5 总结
- 第6章 循环神经网络和其他序列模型
- 6.1 循环神经网络
- 6.2 长短期记忆网络
- 6.3 门控循环单元
- 6.4 总结
- 第7章 Transformer
- 7.1 从头开始构建Transformer
- 7.2 注意力机制
- 7.3 计算机视觉Transformer
- 7.4 总结
- 第8章 BERT方法论:博采众长创新篇
- 8.1 ImageNet
- 8.2 通往NLP“ImageNet时刻”之路
- 8.3 预训练的词向量嵌入
- 8.4 序列模型
- 8.5 循环神经网络
- 8.6 注意力机制
- 8.7 Transformer架构
- 8.8 NLP的“ImageNet时刻”
- 8.9 总结
- 第三部分 经世致用
- 第9章 工欲善其事,必先利其器
- 9.1 深度学习框架
- 9.2 可视化与实验跟踪
- 9.3 AutoML
- 9.4 机器学习基础设施和计算
- 9.5 边缘/终端侧推理
- 9.6 云推理和机器学习即服务
- 9.7 持续集成和持续交付
- 9.8 总结
- 第10章 可视化
- 10.1 我们的第一个Streamlit应用程序
- 10.2 总结
- 第11章 产品化
- 11.1 数据科学家、工程师和分析师
- 11.2 Databricks:你的统一数据分析平台
- 11.3 Databricks的安装
- 11.4 机器学习作业
- 11.5 MLflow
- 11.6 Databricks的替代品
- 11.7 总结
- 第12章 归纳提升
- 12.1 最后十课
- 12.2 最后的话
- 附录A 大规模训练
- 附录B CUDA
展开全部
出版方
机械工业出版社有限公司
机械工业出版社是全国优秀出版社,自1952年成立以来,坚持为科技、为教育服务,以向行业、向学校提供优质、权威的精神产品为宗旨,以“服务社会和人民群众需求,传播社会主义先进文化”为己任,产业结构不断完善,已由传统的图书出版向着图书、期刊、电子出版物、音像制品、电子商务一体化延伸,现已发展为多领域、多学科的大型综合性出版社,涉及机械、电工电子、汽车、计算机、经济管理、建筑、ELT、科普以及教材、教辅等领域。