科技
类型
可以朗读
语音朗读
173千字
字数
2024-04-01
发行日期
展开全部
主编推荐语
全方位、多角度地展示大模型本地化实战的完整方案。
内容简介
本书作为《PyTorch 2.0深度学习从零开始学》的姊妹篇,专注于大模型的本地化部署、应用开发以及微调等。
本书不仅系统地阐述了深度学习大模型的核心理论,更注重实践应用,通过丰富的案例和场景,引导读者从理论走向实践,真正领悟和掌握大模型本地化应用的精髓。
本书适合大模型的初学者、有一定基础的大模型研究人员、大模型应用开发人员。同时,本书还可作为高等院校或高职高专相关专业大模型课程的教材,助力培养新一代的大模型领域人才。
目录
- 版权信息
- 作者简介
- 内容简介
- 前言
- 第1章 大模型时代的开端
- 1.1 大模型的历史与发展
- 1.1.1 大模型的“涌现”
- 1.1.2 深度学习与大模型的起源
- 1.1.3 大模型的概念与特点
- 1.1.4 大模型开启了深度学习的新时代
- 1.2 为什么要使用大模型
- 1.2.1 大模型与普通模型的区别
- 1.2.2 为什么选择ChatGLM
- 1.2.3 大模型应用场合与发展趋势
- 1.3 本章小结
- 第2章 PyTorch 2.0深度学习环境搭建
- 2.1 安装Python开发环境
- 2.1.1 Miniconda的下载与安装
- 2.1.2 PyCharm的下载与安装
- 2.1.3 softmax函数练习
- 2.2 安装PyTorch 2.0
- 2.2.1 NVIDIA 10/20/30/40系列显卡选择的GPU版本
- 2.2.2 PyTorch 2.0 GPU NVIDIA运行库的安装
- 2.2.3 Hello PyTorch
- 2.3 Hello ChatGLM3
- 2.3.1 ChatGLM3简介与安装
- 2.3.2 CPU版本的ChatGLM3推演
- 2.3.3 GPU(INT4或INT8量化)版本的ChatGLM3推演
- 2.3.4 GPU(half或float量化)版本的ChatGLM3推演
- 2.3.5 离线状态的ChatGLM3的使用
- 2.3.6 ChatGLM的高级使用
- 2.4 本章小结
- 第3章 基于gradio的云上自托管ChatGLM3部署实战
- 3.1 gradio的基本使用详解
- 3.1.1 从gradio的Interface开始
- 3.1.2 gradio输入与输出组件
- 3.1.3 启动gradio的launch
- 3.1.4 gradio中多样化的输入和输出组件
- 3.1.5 gradio中常用的几个组件
- 3.1.6 使用gradio搭建视频上色服务
- 3.2 基于gradio的猫狗分类可视化训练与预测实战
- 3.2.1 运行环境与数据集的准备
- 3.2.2 模型的设计
- 3.2.3 PyTorch模型训练的基本流程
- 3.2.4 可视化训练流程
- 3.2.5 使用训练好的模型完成gradio可视化图像分类
- 3.3 基于网页端的ChatGLM3部署和使用
- 3.3.1 使用gradio搭建ChatGLM3网页客户端
- 3.3.2 使用ChatGLM3自带的网页客户端
- 3.4 基于私有云服务的ChatGLM3部署和使用
- 3.4.1 使用FastAPI完成ChatGLM3私有云交互端口的搭建(重要)
- 3.4.2 基于streamlit的ChatGLM3自带的网页客户端
- 3.5 本章小结
- 第4章 使用ChatGLM3与LangChain实现知识图谱抽取和智能问答
- 4.1 当ChatGLM3遇见LangChain
- 4.1.1 LangChain的基本构成、组件与典型场景
- 4.1.2 确认统一地址的ChatGLM3部署方案
- 4.1.3 使用ChatGLM3构建LangChain的LLM终端
- 4.1.4 从一个简单的提示模板开始
- 4.1.5 ChatGLM3格式化提示词的构建与使用
- 4.2 ChatGLM3+ LangChain搭建专业问答机器人
- 4.2.1 使用LangChain的LLM终端完成文本问答
- 4.2.2 数据准备与基础算法分析
- 4.2.3 使用LangChain完成提示语Prompt工程
- 4.2.4 基于ChatGLM3的LLM终端完成专业问答
- 4.3 使用ChatGLM3的LLM终端搭建知识图谱抽取与智能问答
- 4.3.1 基于ChatGLM3的LLM终端完成知识图谱抽取
- 4.3.2 基于ChatGLM3的LLM终端完成智能问答
- 4.4 本章小结
- 第5章 适配ChatGLM3终端的Template与Chain详解
- 5.1 基于输入模板的人机交互
- 5.1.1 提示模板的4种类型
- 5.1.2 可嵌套的提示模板
- 5.2 Template中示例的最佳选择
- 5.2.1 基于长度的输出示例
- 5.2.2 基于相似度的输出示例
- 5.3 使用Chain提高ChatGLM3的能力
- 5.3.1 Chain的数学计算方法
- 5.3.2 多次验证检查器
- 5.4 LangChain中的记忆功能
- 5.4.1 ConversationChain会话链的使用
- 5.4.2 系统memory的使用
- 5.5 基于ChatGLM3终端撰写剧情梗概、评论与宣传文案实战
- 5.5.1 对过程进行依次调用的顺序链SimpleSequentialChain
- 5.5.2 对过程进行依次调用的顺序链SequentialChain
- 5.5.3 对顺序链添加额外参数的方法
- 5.6 本章小结
- 第6章 ChatGLM3多文本检索的增强生成实战
- 6.1 使用自然语言处理方法对目标进行查找
- 6.1.1 数据集的准备
- 6.1.2 分别基于BM25与LLM终端进行目标查找的方法
- 6.1.3 建立工业级标准化输出:LLM终端与BM25结合
- 6.2 基于LLM终端完成文本内容抽取与文本问答
- 6.2.1 读取目标内容
- 6.2.2 LangChain对文档的读取与分割方法
- 6.2.3 基于LangChain的文本分块
- 6.2.4 找到最近似问题的文本段落
- 6.2.5 使用LLM终端完成智能文本问答
- 6.3 使用LLM终端完成反向问题推断
- 6.3.1 文本问题提取实战
- 6.3.2 存储提取后的内容
- 6.4 本章小结
- 第7章 构建以人为本的ChatGLM3规范化Prompt提示工程
- 7.1 提示工程模板构建的输入与输出格式
- 7.1.1 提示模板的输入格式
- 7.1.2 提示模板的输出格式
- 7.2 提示工程模板高级用法
- 7.2.1 提示模板的自定义格式
- 7.2.2 提示模板的FewShotPromptTemplate格式
- 7.2.3 部分格式化的提示模板详解
- 7.3 结合提示工程的网页搜索服务实战
- 7.3.1 网页搜索的API实现
- 7.3.2 网页问答提示模板的实现
- 7.3.3 结合网页搜索的LLM终端问答实战
- 7.4 本章小结
- 第8章 使用ChatGLM3的思维链构建
- 8.1 思维链初探
- 8.1.1 思维链源于人类使用自然语言的概念来理解事物
- 8.1.2 思维链的优势与应用场景
- 8.2 思维链详解及其实战
- 8.2.1 思维链详解
- 8.2.2 基于ChatGLM3的思维链实战
- 8.3 本章小结
- 第9章 GLM源码分析与文本生成实战
- 9.1 GLM组件详解
- 9.1.1 GLM模型架构重大突破:旋转位置编码
- 9.1.2 添加旋转位置编码的注意力机制
- 9.1.3 新型的激活函数GLU详解
- 9.1.4 GLM“三角掩码”与“错位”输入输出格式详解
- 9.2 GLM整体架构详解与文本生成实战
- 9.2.1 调整架构顺序的GLMBlock
- 9.2.2 自定义GLM模型(单文本生成版)
- 9.3 本章小结
- 第10章 低资源单GPU微调ChatGLM3实战
- 10.1 什么是大模型微调
- 10.1.1 大模型微调的作用
- 10.1.2 大模型微调技术有哪些
- 10.1.3 参数高效微调详解
- 10.2 ChatGLM3大模型微调的准备内容
- 10.2.1 从数据准备看ChatGLM3微调:有监督微调详解
- 10.2.2 从实施看ChatGLM3微调:LoRA详解
- 10.2.3 适配ChatGLM3微调的辅助库:PEFT详解
- 10.3 虚拟客服多轮问答实战
- 10.3.1 ChatGLM3数据输入结构和处理函数
- 10.3.2 ChatGLM3微调训练
- 10.3.3 ChatGLM3微调推理
- 10.4 加速的秘密:accelerate训练方法与模型量化详解
- 10.4.1 加速器accelerate详解与完整代码编写
- 10.4.2 加速的秘密1:大模型的量化技术
- 10.4.3 加速的秘密2:大模型的INT8量化方案
- 10.4.4 加速的秘密3:大模型ChatGLM3中的量化源码分析与实践
- 10.5 更快的量化训练方案:QLoRA基础内容详解
- 10.5.1 加速的秘密4:基于bitsandbytes的ChatGLM3量化QLoRA实现
- 10.5.2 加速的秘密5:QLoRA详解
- 10.5.3 微调的目的:让生成的结果更聚焦于任务
- 10.6 QLoRA微调文本生成实战
- 10.6.1 数据处理
- 10.6.2 损失函数设计
- 10.6.3 基于QLoRA的ChatGLM3文本生成微调实战
- 10.6.4 基于QLoRA的ChatGLM3文本生成
- 10.7 本章小结
- 第11章 会使用工具的ChatGLM3
- 11.1 ChatGLM3调用工具源码详解与实战
- 11.1.1 Python调用工具详解
- 11.1.2 ChatGLM3工具调用流程详解
- 11.1.3 大模型ChatGLM3工具调用实战详解
- 11.1.4 大模型ChatGLM3工具调用原理详解
- 11.1.5 ChatGLM3消息传递方式详解
- 11.2 ChatGLM3官方工具注册与调用源码分析与实战
- 11.2.1 Python中的装饰器与回调函数
- 11.2.2 ChatGLM3官方工具函数的注册源码分析详解
- 11.2.3 大模型ChatGLM3官方工具调用的判定依据详解
- 11.2.4 ChatGLM3官方工具函数的调用分析详解
- 11.2.5 ChatGLM3调用工具分析与实战演示
- 11.3 ChatGLM3实战:构建个人助理之美妆助手
- 11.3.1 背景和参考资料设定
- 11.3.2 美妆助手的使用实战
- 11.4 本章小结
- 第12章 上市公司财务报表非结构化信息抽取实战
- 12.1 超长文本处理功能的ChatGLM3与真实财务报表的处理
- 12.1.1 ChatGLM3-6B-32K模型的获取与缓存
- 12.1.2 超大规模的2020—2023年真实中国股票市场年度财务报表数据库的建立
- 12.2 单报表非结构化信息抽取实战
- 12.2.1 单报表数据探查与提取信息结构化处理
- 12.2.2 单报表数据非结构化信息抽取的实现
- 12.3 本章小结
- 第13章 上市公司财务报表智能问答与财务预警实战
- 13.1 基于ChatGLM3的非结构化数据抽取与大规模财务报表数据库的建立
- 13.1.1 逐行代码讲解使用ChatGLM3对关键数据进行抽取
- 13.1.2 大规模上市公司财务报表目标字段抽取函数的建立
- 13.1.3 大规模上市公司财务报表目标字段数据库的建立
- 13.2 基于自然语言的上市公司财务报表智能问答与财务预警实战
- 13.2.1 使用自然语言结合ChatGLM3实现上市公司财务报表智能问答与预警解决方案1
- 13.2.2 使用自然语言结合ChatGLM3-6B实现上市公司财务报表智能问答与预警解决方案2
- 13.2.3 使用自然语言结合ChatGLM3实现上市公司财务报表智能问答与预警解决方案3
- 13.3 本章小结
- 附录 大模型的“幻觉”
展开全部
出版方
清华大学出版社
清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。