科技
类型
8.8
豆瓣评分
可以朗读
语音朗读
205千字
字数
2025-01-01
发行日期
展开全部
主编推荐语
深入解析AI背后技术原理。
内容简介
本书从技术角度深度解析大模型的原理,从大模型的基础概念及领域发展现状入手,概述大模型的理论基础,介绍OpenAI GPT、清华大学GLM、Meta Llama等主流大模型的技术原理,并从大模型参数高效微调、大模型指令微调、大模型训练优化和大模型推理优化等多角度解析大模型背后的技术,带领读者全方位掌握大模型的原理和实践方法。
本书最后介绍私有大模型的构建,手把手指导读者做技术选型并搭建自己的私有大模型。
目录
- 版权信息
- 内容提要
- 前言
- 资源与支持
- 第1章 大模型简介
- 1.1 大模型初探
- 1.2 大模型的概念
- 1.3 百花齐放——大模型发展现状
- 1.4 压缩即智能——为什么ChatGPT拥有智能
- 1.5 小结
- 1.6 参考文献
- 第2章 大模型理论基础
- 2.1 什么是语言模型
- 2.2 传统语言模型
- 2.3 大模型基础结构——Transformer
- 2.4 Transformer应用实践——机器翻译
- 2.5 小结
- 2.6 参考文献
- 第3章 OpenAI GPT系列大模型
- 3.1 GPT发展历史——从GPT-1到GPT-4
- 3.2 GPT-1技术原理
- 3.3 GPT-2技术原理
- 3.4 GPT-3技术原理
- 3.5 横空出世——ChatGPT
- 3.6 GPT-4
- 3.7 小结
- 3.8 参考文献
- 第4章 清华大学通用预训练模型——GLM
- 4.1 GLM简介
- 4.2 GLM技术原理
- 4.3 ChatGLM-6B全参数微调实践
- 4.4 GLM-10B全参数微调实践
- 4.5 小结
- 4.6 参考文献
- 第5章 Meta开源大模型——Llama
- 5.1 Llama简介
- 5.2 Llama技术原理
- 5.3 Llama改进版——Llama 2
- 5.4 Llama 2应用实践
- 5.5 小结
- 5.6 参考文献
- 第6章 大模型参数高效微调
- 6.1 LoRA——低秩矩阵分解
- 6.2 谷歌参数高效微调——Adapter Tuning
- 6.3 斯坦福轻量级微调——Prefix-Tuning
- 6.4 谷歌微调方法——Prompt Tuning
- 6.5 清华大学参数微调——P-Tuning
- 6.6 P-Tuning改进版——P-Tuning v2
- 6.7 大模型参数高效微调实践
- 6.8 小结
- 6.9 参考文献
- 第7章 大模型指令微调
- 7.1 指令微调
- 7.2 指令微调和提示的异同
- 7.3 大模型思维链——优化模型推理能力
- 7.4 谷歌指令微调数据集——Flan 2022
- 7.5 小结
- 7.6 参考文献
- 第8章 大模型训练优化
- 8.1 稀疏Transformer
- 8.2 旋转位置编码
- 8.3 大模型混合精度训练
- 8.4 样本拼接
- 8.5 大模型并行训练
- 8.6 小结
- 8.7 参考文献
- 第9章 大模型推理优化
- 9.1 大模型量化
- 9.2 大模型文本生成的解码策略
- 9.3 小结
- 第10章 AIGC和大模型结合
- 10.1 AIGC引来新一轮投资热
- 10.2 生成对抗网络
- 10.3 AIGC主流模型——去噪扩散概率模型
- 10.4 引入文字的去噪扩散概率模型
- 10.5 去噪扩散概率模型改进版——Stable Diffusion
- 10.6 小结
- 10.7 参考文献
- 第11章 大模型和推荐系统结合
- 11.1 大模型和推荐系统的异同
- 11.2 大模型和推荐系统的3种不同结合方法
- 11.3 大模型和推荐系统的结合效果
- 11.4 小结
- 11.5 参考文献
- 第12章 构建私有大模型
- 12.1 大模型百花齐放
- 12.2 选择基座模型
- 12.3 环境安装
- 12.4 模型加载
- 12.5 低成本部署
- 12.6 构建自己的私有大模型
- 12.7 小结
- 12.8 参考文献
展开全部
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。