自我提升
类型
可以朗读
语音朗读
187千字
字数
2025-02-01
发行日期
展开全部
主编推荐语
预训练语言模型全攻略:一本书读懂DeepSeek核心技术。
内容简介
近年来,在自然语言处理领域,基于预训练语言模型的方法已形成全新范式。本书内容分为基础知识、预训练语言模型,以及实践与应用3个部分,共9章。
第一部分全面、系统地介绍自然语言处理、神经网络和预训练语言模型的相关知识。
第二部分介绍几种具有代表性的预训练语言模型的原理和机制(涉及注意力机制和Transformer模型),包括BERT及其变种,以及近年来发展迅猛的GPT和提示工程。
第三部分介绍了基于LangChain和ChatGLM-6B的知识库问答系统、基于大型语言模型的自然语言处理任务应用研究和大模型训练实战等具体应用,旨在从应用的角度加深读者对预训练语言模型理论的理解,便于读者在实践中提高技能,达到理论和实践的统一。
目录
- 版权信息
- 内容提要
- 前言
- 资源与支持
- 第一部分 基础知识
- 第1章 自然语言处理介绍
- 1.1 什么是自然语言处理
- 1.2 自然语言处理的发展历史
- 1.3 自然语言的特性
- 1.4 自然语言处理的研究领域
- 1.5 自然语言处理的常规任务
- 1.6 自然语言处理的常用工具
- 第2章 神经网络预备知识
- 2.1 神经网络核心概念
- 2.2 神经网络主要类型
- 第3章 预训练语言模型基础知识
- 3.1 什么是预训练
- 3.2 文本表示方法的分类
- 3.3 词袋型文本表示方法
- 3.4 主题型文本表示方法
- 3.5 固定型词向量文本表示方法
- 3.6 动态型词向量文本表示方法
- 第二部分 预训练语言模型
- 第4章 注意力机制和Transformer模型
- 4.1 注意力机制简介
- 4.2 Transformer模型
- 第5章 BERT和变种BERT
- 5.1 BERT
- 5.2 变种BERT
- 第6章 GPT和提示工程
- 6.1 GPT系列
- 6.2 Prompt
- 第三部分 实践与应用
- 第7章 基于LangChain和ChatGLM-6B的知识库问答系统
- 7.1 核心组件
- 7.2 构建流程
- 7.3 趋势与挑战
- 第8章 基于大型语言模型的自然语言处理任务应用研究
- 8.1 文本分类任务
- 8.2 信息抽取任务
- 8.3 文本匹配任务
- 第9章 大模型训练实战
- 9.1 预训练阶段
- 9.2 指令微调阶段
- 9.3 奖励模型
- 9.4 RLHF微调
- 9.5 大模型评测
展开全部
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。