展开全部

主编推荐语

手把手教大模型应用开发方法。

内容简介

本书是一本系统梳理并深入解析大模型的基础理论、算法实现、数据构造流程、模型微调方法、偏好对齐方法的著作,也是一本能手把手教你构建角色扮演、信息抽取、知识问答、AI Agent等各种强大的应用程序的著作。

本书得到了零一万物、面壁智能、通义千问、百姓AI、澜舟科技等国内主流大模型团队的负责人的高度评价和鼎力推荐。

具体地,通过本书你能了解或掌握以下知识:(1)大型语言模型的基础理论,包括常见的模型架构、领域大型语言模型以及如何评估大模型的性能。

(2)大模型微调的关键步骤:从数据的收集、清洗到筛选,直至微调训练的技术细节。

(3)大模型人类偏好对齐方法,从基于人工反馈的强化学习框架到当前主流的对齐方法。

(4)通过GPTs快速搭建个性化的专属ChatGPT应用。

(5)通过开源模型在多种场景下搭建大模型应用,包括:表格查询、角色扮演、信息抽取、知识问答、AI Agent等。

(6)掌握大模型Agent方法以及Agent常用框架。

(7)基于LangChain框架构建一个AutoGPT应用。

本书集大模型理论、实践和场景落地于一体,提供大量经详细注释的代码,方便读者理解和实操。总之,不管里是想深入研究大模型本身,还是进行大模型相关应用搭建,本书都应该能给你颇具价值的技术启发与思考,让你在大模型的路上快速前行,少走弯路。

目录

  • 版权信息
  • 前言
  • 第1章 大型语言模型基础
  • 1.1 Transformer基础
  • 1.2 常用的大型语言模型
  • 1.2.1 GPT系列模型
  • 1.2.2 OPT模型
  • 1.2.3 Bloom模型
  • 1.2.4 GLM系列模型
  • 1.2.5 LLaMA系列模型
  • 1.2.6 Baichuan系列模型
  • 1.2.7 Qwen系列模型
  • 1.2.8 Skywork模型
  • 1.3 领域大型语言模型
  • 1.3.1 法律大型语言模型
  • 1.3.2 医疗大型语言模型
  • 1.3.3 金融大型语言模型
  • 1.3.4 教育大型语言模型
  • 1.4 大型语言模型评估
  • 1.4.1 大型语言模型的评估内容
  • 1.4.2 大型语言模型的评估方法
  • 1.4.3 大型语言模型评估榜单
  • 1.5 本章小结
  • 第2章 大型语言模型的常用微调方法
  • 2.1 数据构造与清洗
  • 2.1.1 数据构造方法
  • 2.1.2 数据清洗方法
  • 2.2 分词器构造
  • 2.2.1 分词器概述
  • 2.2.2 BPE分词器
  • 2.2.3 WordPiece分词器
  • 2.2.4 Unigram分词器
  • 2.2.5 SentencePiece分词器
  • 2.2.6 词表融合
  • 2.3 大型语言模型的微调方法
  • 2.3.1 前缀调优
  • 2.3.2 提示调优
  • 2.3.3 P-Tuning v2
  • 2.3.4 LoRA
  • 2.3.5 DyLoRA
  • 2.3.6 AdaLoRA
  • 2.3.7 QLoRA
  • 2.3.8 QA-LoRA
  • 2.3.9 LongLoRA
  • 2.3.10 VeRA
  • 2.3.11 S-LoRA
  • 2.4 基于PEFT的LLaMA模型微调实战
  • 2.4.1 项目介绍
  • 2.4.2 数据预处理
  • 2.4.3 模型微调
  • 2.4.4 模型预测
  • 2.5 本章小结
  • 第3章 大型语言模型的人类偏好对齐
  • 3.1 基于人类反馈的强化学习框架
  • 3.2 前沿偏好对齐方法
  • 3.2.1 RRHF
  • 3.2.2 RLAIF
  • 3.2.3 DPO
  • 3.2.4 APO
  • 3.3 基于DPO的偏好对齐实战
  • 3.3.1 数据集介绍
  • 3.3.2 TRL框架介绍
  • 3.3.3 训练代码解析
  • 3.4 本章小结
  • 第4章 创建个人专属的ChatGPT
  • 4.1 GPTs初体验
  • 4.2 GPTs的初阶使用
  • 4.2.1 知识库的使用
  • 4.2.2 内置插件的使用
  • 4.2.3 知识库与内置插件的结合使用
  • 4.3 GPTs的高阶使用
  • 4.4 本章小结
  • 第5章 大型语言模型SQL任务实战
  • 5.1 公开数据集
  • 5.1.1 英文公开数据集
  • 5.1.2 中文公开数据集
  • 5.2 主流方法
  • 5.2.1 基于规则的方法
  • 5.2.2 基于深度学习的方法
  • 5.2.3 基于预训练语言模型的方法
  • 5.2.4 基于大型语言模型的方法
  • 5.3 Text2SQL任务实战
  • 5.3.1 项目介绍
  • 5.3.2 数据预处理
  • 5.3.3 模型微调
  • 5.3.4 模型预测
  • 5.4 本章小结
  • 第6章 大型语言模型的角色扮演应用
  • 6.1 角色扮演
  • 6.1.1 大型语言模型如何进行角色扮演
  • 6.1.2 角色扮演数据的构造方法
  • 6.1.3 大型语言模型角色扮演的能力评估
  • 6.2 角色扮演实战测试
  • 6.3 基于Baichuan的角色扮演模型微调
  • 6.3.1 项目介绍
  • 6.3.2 数据预处理
  • 6.3.3 模型微调
  • 6.3.4 模型预测
  • 6.4 本章小结
  • 第7章 大型语言模型的对话要素抽取应用
  • 7.1 对话要素抽取
  • 7.2 对话要素抽取实战测试
  • 7.2.1 基于GPT-3.5 API进行对话要素抽取
  • 7.2.2 基于Qwen-1.8B模型进行对话要素抽取
  • 7.3 基于Qwen的对话要素抽取模型微调
  • 7.3.1 项目介绍
  • 7.3.2 数据预处理
  • 7.3.3 模型微调
  • 7.3.4 模型预测
  • 7.4 本章小结
  • 第8章 Agent应用开发
  • 8.1 Agent概述
  • 8.2 Agent的主要模块
  • 8.3 Agent的行为决策机制
  • 8.4 主流Agent框架
  • 8.4.1 LangChain框架
  • 8.4.2 LlamaIndex框架
  • 8.4.3 AutoGPT框架
  • 8.4.4 AutoGen框架
  • 8.4.5 SuperAGI框架
  • 8.5 本章小结
  • 第9章 基于知识库的大型语言模型问答应用
  • 9.1 基于知识库问答
  • 9.2 向量数据库
  • 9.2.1 文本的向量表征
  • 9.2.2 向量的距离度量方法
  • 9.2.3 常用的向量数据库
  • 9.3 基于知识库的大型语言模型问答实战
  • 9.3.1 BGE微调
  • 9.3.2 基于ChatGLM3知识库答案生成任务的微调
  • 9.3.3 基于Streamlit的知识库答案应用搭建
  • 9.4 本章小结
  • 第10章 使用LangChain构建一个AutoGPT
  • 10.1 AutoGPT概述
  • 10.2 LangChain概述
  • 10.3 使用LangChain构建AutoGPT
  • 10.3.1 构建
  • 10.3.2 规划和任务分解
  • 10.3.3 输出解析
  • 10.3.4 程序的核心AutoGPT类
  • 10.3.5 工具能力配置
  • 10.3.6 为Agent配置记忆
  • 10.4 运行AutoGPT
  • 10.5 本章小结
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

机械工业出版社

机械工业出版社是全国优秀出版社,自1952年成立以来,坚持为科技、为教育服务,以向行业、向学校提供优质、权威的精神产品为宗旨,以“服务社会和人民群众需求,传播社会主义先进文化”为己任,产业结构不断完善,已由传统的图书出版向着图书、期刊、电子出版物、音像制品、电子商务一体化延伸,现已发展为多领域、多学科的大型综合性出版社,涉及机械、电工电子、汽车、计算机、经济管理、建筑、ELT、科普以及教材、教辅等领域。