5.0 用户推荐指数
科技
类型
9.6
豆瓣评分
可以朗读
语音朗读
191千字
字数
2024-05-01
发行日期
展开全部
主编推荐语
深度探索生成式AI技术的实际应用。
内容简介
本书是专注于如何在AWS上开发和应用生成式AI的实用指南,旨在为技术领导者、机器学习实践者、应用开发者等提供深入了解和应用生成式AI的策略与方法。
本书首先介绍了生成式AI的概念及其在产品和服务中的应用潜力,然后详细阐述了生成式AI项目的完整生命周期。作者探讨了多种模型类型,如大语言模型和多模态模型,并提供了通过提示工程和上下文学习来优化这些模型的实际技巧。此外,本书讨论了如何使用LoRA技术对模型进行微调,以及如何通过RLHF使模型与人类价值观对齐。
书中还介绍了RAG技术,以及如何利用LangChain和ReAct等开发agent。最后,本书介绍了如何使用Amazon Bedrock构建基于生成式AI的应用程序。基于该强大的平台,读者可以实现自己的创新想法。
目录
- 版权信息
- 内容提要
- 资源与支持
- 对本书的赞誉
- 前言
- 第1章 生成式AI用例、基础知识和项目生命周期
- 1.1 生成式AI用例和任务
- 1.2 基础模型和模型中心
- 1.3 生成式AI项目生命周期
- 1.4 AWS上的生成式AI
- 1.5 为什么选择基于AWS构建生成式AI
- 1.6 在AWS上构建生成式AI应用程序
- 1.7 小结
- 第2章 提示工程与上下文学习
- 2.1 提示与补全
- 2.2 token
- 2.3 提示工程
- 2.4 提示结构
- 2.4.1 指令
- 2.4.2 上下文
- 2.5 通过少样本推理进行上下文学习
- 2.5.1 零样本推理
- 2.5.2 单样本推理
- 2.5.3 少样本推理
- 2.5.4 上下文学习出错
- 2.5.5 上下文学习实践
- 2.6 提示工程实践
- 2.7 推理配置参数
- 2.8 小结
- 第3章 大语言基础模型
- 3.1 大语言基础模型简介
- 3.2 分词器
- 3.3 嵌入向量
- 3.4 Transformer
- 3.4.1 输入token上下文窗口
- 3.4.2 嵌入
- 3.4.3 编码器
- 3.4.4 自注意力层
- 3.4.5 解码器
- 3.4.6 Softmax输出
- 3.5 基于Transformer的基础模型的类别
- 3.6 预训练数据集
- 3.7 缩放定律
- 3.8 计算最优模型
- 3.9 小结
- 第4章 显存和计算优化
- 4.1 显存容量挑战
- 4.2 数据类型和数值精度
- 4.3 量化
- 4.3.1 fp16
- 4.3.2 bfloat16
- 4.3.3 fp8
- 4.3.4 int8
- 4.4 优化自注意力层
- 4.4.1 FlashAttention
- 4.4.2 分组查询注意力
- 4.5 分布式GPU集群计算
- 4.5.1 分布式数据并行
- 4.5.2 全分片数据并行
- 4.5.3 FSDP与DDP的性能比较
- 4.6 基于AWS的分布式计算
- 4.6.1 通过Amazon SageMaker进行全分片数据并行
- 4.6.2 AWS Neuron SDK与AWS Trainium
- 4.7 小结
- 第5章 微调和评估
- 5.1 指令微调简介
- 5.1.1 Llama 2
- 5.1.2 Falcon
- 5.1.3 FLAN-T5
- 5.2 指令数据集
- 5.2.1 多任务指令数据集
- 5.2.2 FLAN:示例多任务指令数据集
- 5.2.3 提示模板
- 5.2.4 将自定义数据集转换为指令数据集
- 5.3 指令微调的过程
- 5.3.1 Amazon SageMaker Studio
- 5.3.2 Amazon SageMaker JumpStart
- 5.3.3 将Amazon SageMaker Estimator用于Hugging Face
- 5.4 评估
- 5.4.1 评估指标
- 5.4.2 基准测试和数据集
- 5.5 小结
- 第6章 参数高效微调
- 6.1 全量微调与PEFT
- 6.2 LoRA和QLoRA
- 6.2.1 LoRA基础
- 6.2.2 秩
- 6.2.3 目标模块和网络层
- 6.2.4 应用LoRA
- 6.2.5 将LoRA适配器与原始模型合并
- 6.2.6 维护独立的LoRA适配器
- 6.2.7 全量微调与 LoRA 性能比较
- 6.2.8 QLoRA
- 6.3 Prompt Tuning和软提示
- 6.4 小结
- 第7章 基于人类反馈的强化学习微调
- 7.1 与人类价值观对齐:有用的、诚实的、无害的
- 7.2 强化学习概述
- 7.3 训练自定义奖励模型
- 7.3.1 通过人机交互收集训练数据集
- 7.3.2 供人类标注者参考的示例指令
- 7.3.3 通过Amazon SageMaker Ground Truth进行人工标注
- 7.3.4 为训练奖励模型准备排序数据
- 7.3.5 训练奖励模型
- 7.4 现有奖励模型:Meta有害性检测器模型
- 7.5 通过人类反馈进行强化学习微调
- 7.5.1 使用奖励模型进行RLHF
- 7.5.2 近端策略优化强化学习算法
- 7.5.3 通过PPO进行RLHF微调
- 7.5.4 缓解奖励破解
- 7.5.5 通过RLHF进行PEFT
- 7.6 评估RLHF微调模型
- 7.6.1 定性评估
- 7.6.2 定量评估
- 7.6.3 载入评估模型
- 7.6.4 定义评估指标聚合函数
- 7.6.5 比较应用RLHF之前和之后的评估指标
- 7.7 小结
- 第8章 模型部署优化
- 8.1 模型推理优化
- 8.1.1 剪枝
- 8.1.2 通过GPTQ进行训练后量化
- 8.1.3 蒸馏
- 8.2 大型模型推理容器
- 8.3 AWS Inferentia:专为推理而打造的硬件
- 8.4 模型更新和部署策略
- 8.4.1 A/B测试
- 8.4.2 影子模型部署
- 8.5 指标和监控
- 8.6 自动伸缩
- 8.6.1 自动伸缩策略
- 8.6.2 定义自动伸缩策略
- 8.7 小结
- 第9章 通过RAG和agent实现基于上下文推理的应用程序
- 9.1 大语言模型的局限性
- 9.1.1 幻觉
- 9.1.2 知识截断
- 9.2 RAG
- 9.2.1 外部知识源
- 9.2.2 RAG工作流
- 9.2.3 文档加载
- 9.2.4 分块
- 9.2.5 检索数据和重新排序
- 9.2.6 提示增强
- 9.3 RAG编排和实现
- 9.3.1 文档加载和分块
- 9.3.2 嵌入向量存储和检索
- 9.3.3 检索链
- 9.3.4 通过MMR进行重新排序
- 9.4 agent
- 9.4.1 ReAct框架
- 9.4.2 PAL框架
- 9.5 生成式AI应用程序
- 9.6 FMOps:实施生成式AI项目生命周期
- 9.6.1 试验注意事项
- 9.6.2 开发注意事项
- 9.6.3 生产部署注意事项
- 9.7 小结
- 第10章 多模态基础模型
- 10.1 用例
- 10.2 多模态提示工程实践
- 10.3 图像生成和增强
- 10.3.1 图像生成
- 10.3.2 图像编辑和增强
- 10.4 图像补全、图像外部填充和depth-to-image
- 10.4.1 图像补全
- 10.4.2 图像外部填充
- 10.4.3 depth-to-image
- 10.5 图像描述和视觉问答
- 10.5.1 图像描述
- 10.5.2 内容审查
- 10.5.3 视觉问答
- 10.6 模型评估
- 10.6.1 文生图任务
- 10.6.2 图生文任务
- 10.6.3 非语言推理任务
- 10.7 扩散模型架构
- 10.7.1 前向扩散简介
- 10.7.2 反向扩散简介
- 10.7.3 U-Net简介
- 10.8 Stable Diffusion 2架构
- 10.8.1 文本编码器
- 10.8.2 U-Net和扩散过程
- 10.8.3 文本条件控制
- 10.8.4 交叉注意力
- 10.8.5 采样器
- 10.8.6 图像解码器
- 10.9 Stable Diffusion XL架构
- 10.9.1 U-Net和交叉注意力
- 10.9.2 精修模型
- 10.9.3 条件控制
- 10.10 小结
- 第11章 通过Stable Diffusion进行受控生成和微调
- 11.1 ControlNet
- 11.2 微调
- 11.2.1 DreamBooth
- 11.2.2 DreamBooth与PEFT-LoRA
- 11.2.3 文本反演
- 11.3 通过RLHF进行人类偏好对齐
- 11.4 小结
- 第12章 Amazon Bedrock:用于生成式AI的托管服务
- 12.1 Bedrock基础模型
- 12.1.1 Amazon Titan基础模型
- 12.1.2 来自Stability AI公司的Stable Diffusion基础模型
- 12.2 Bedrock推理API
- 12.3 大语言模型推理API
- 12.3.1 生成SQL代码
- 12.3.2 文本摘要
- 12.3.3 使用Amazon Bedrock生成嵌入
- 12.4 通过Amazon Bedrock进行微调
- 12.5 通过Amazon Bedrock创建agent
- 12.6 多模态模型
- 12.6.1 文生图
- 12.6.2 图生图
- 12.7 数据隐私和网络安全
- 12.8 治理和监控
- 12.9 小结
- 关于作者
- 关于译者
- 关于项目策划人
- 关于封面
展开全部
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。