展开全部

主编推荐语

深度探索生成式AI技术的实际应用。

内容简介

本书是专注于如何在AWS上开发和应用生成式AI的实用指南,旨在为技术领导者、机器学习实践者、应用开发者等提供深入了解和应用生成式AI的策略与方法。

本书首先介绍了生成式AI的概念及其在产品和服务中的应用潜力,然后详细阐述了生成式AI项目的完整生命周期。作者探讨了多种模型类型,如大语言模型和多模态模型,并提供了通过提示工程和上下文学习来优化这些模型的实际技巧。此外,本书讨论了如何使用LoRA技术对模型进行微调,以及如何通过RLHF使模型与人类价值观对齐。

书中还介绍了RAG技术,以及如何利用LangChain和ReAct等开发agent。最后,本书介绍了如何使用Amazon Bedrock构建基于生成式AI的应用程序。基于该强大的平台,读者可以实现自己的创新想法。

目录

  • 版权信息
  • 内容提要
  • 资源与支持
  • 对本书的赞誉
  • 前言
  • 第1章 生成式AI用例、基础知识和项目生命周期
  • 1.1 生成式AI用例和任务
  • 1.2 基础模型和模型中心
  • 1.3 生成式AI项目生命周期
  • 1.4 AWS上的生成式AI
  • 1.5 为什么选择基于AWS构建生成式AI
  • 1.6 在AWS上构建生成式AI应用程序
  • 1.7 小结
  • 第2章 提示工程与上下文学习
  • 2.1 提示与补全
  • 2.2 token
  • 2.3 提示工程
  • 2.4 提示结构
  • 2.4.1 指令
  • 2.4.2 上下文
  • 2.5 通过少样本推理进行上下文学习
  • 2.5.1 零样本推理
  • 2.5.2 单样本推理
  • 2.5.3 少样本推理
  • 2.5.4 上下文学习出错
  • 2.5.5 上下文学习实践
  • 2.6 提示工程实践
  • 2.7 推理配置参数
  • 2.8 小结
  • 第3章 大语言基础模型
  • 3.1 大语言基础模型简介
  • 3.2 分词器
  • 3.3 嵌入向量
  • 3.4 Transformer
  • 3.4.1 输入token上下文窗口
  • 3.4.2 嵌入
  • 3.4.3 编码器
  • 3.4.4 自注意力层
  • 3.4.5 解码器
  • 3.4.6 Softmax输出
  • 3.5 基于Transformer的基础模型的类别
  • 3.6 预训练数据集
  • 3.7 缩放定律
  • 3.8 计算最优模型
  • 3.9 小结
  • 第4章 显存和计算优化
  • 4.1 显存容量挑战
  • 4.2 数据类型和数值精度
  • 4.3 量化
  • 4.3.1 fp16
  • 4.3.2 bfloat16
  • 4.3.3 fp8
  • 4.3.4 int8
  • 4.4 优化自注意力层
  • 4.4.1 FlashAttention
  • 4.4.2 分组查询注意力
  • 4.5 分布式GPU集群计算
  • 4.5.1 分布式数据并行
  • 4.5.2 全分片数据并行
  • 4.5.3 FSDP与DDP的性能比较
  • 4.6 基于AWS的分布式计算
  • 4.6.1 通过Amazon SageMaker进行全分片数据并行
  • 4.6.2 AWS Neuron SDK与AWS Trainium
  • 4.7 小结
  • 第5章 微调和评估
  • 5.1 指令微调简介
  • 5.1.1 Llama 2
  • 5.1.2 Falcon
  • 5.1.3 FLAN-T5
  • 5.2 指令数据集
  • 5.2.1 多任务指令数据集
  • 5.2.2 FLAN:示例多任务指令数据集
  • 5.2.3 提示模板
  • 5.2.4 将自定义数据集转换为指令数据集
  • 5.3 指令微调的过程
  • 5.3.1 Amazon SageMaker Studio
  • 5.3.2 Amazon SageMaker JumpStart
  • 5.3.3 将Amazon SageMaker Estimator用于Hugging Face
  • 5.4 评估
  • 5.4.1 评估指标
  • 5.4.2 基准测试和数据集
  • 5.5 小结
  • 第6章 参数高效微调
  • 6.1 全量微调与PEFT
  • 6.2 LoRA和QLoRA
  • 6.2.1 LoRA基础
  • 6.2.2 秩
  • 6.2.3 目标模块和网络层
  • 6.2.4 应用LoRA
  • 6.2.5 将LoRA适配器与原始模型合并
  • 6.2.6 维护独立的LoRA适配器
  • 6.2.7 全量微调与 LoRA 性能比较
  • 6.2.8 QLoRA
  • 6.3 Prompt Tuning和软提示
  • 6.4 小结
  • 第7章 基于人类反馈的强化学习微调
  • 7.1 与人类价值观对齐:有用的、诚实的、无害的
  • 7.2 强化学习概述
  • 7.3 训练自定义奖励模型
  • 7.3.1 通过人机交互收集训练数据集
  • 7.3.2 供人类标注者参考的示例指令
  • 7.3.3 通过Amazon SageMaker Ground Truth进行人工标注
  • 7.3.4 为训练奖励模型准备排序数据
  • 7.3.5 训练奖励模型
  • 7.4 现有奖励模型:Meta有害性检测器模型
  • 7.5 通过人类反馈进行强化学习微调
  • 7.5.1 使用奖励模型进行RLHF
  • 7.5.2 近端策略优化强化学习算法
  • 7.5.3 通过PPO进行RLHF微调
  • 7.5.4 缓解奖励破解
  • 7.5.5 通过RLHF进行PEFT
  • 7.6 评估RLHF微调模型
  • 7.6.1 定性评估
  • 7.6.2 定量评估
  • 7.6.3 载入评估模型
  • 7.6.4 定义评估指标聚合函数
  • 7.6.5 比较应用RLHF之前和之后的评估指标
  • 7.7 小结
  • 第8章 模型部署优化
  • 8.1 模型推理优化
  • 8.1.1 剪枝
  • 8.1.2 通过GPTQ进行训练后量化
  • 8.1.3 蒸馏
  • 8.2 大型模型推理容器
  • 8.3 AWS Inferentia:专为推理而打造的硬件
  • 8.4 模型更新和部署策略
  • 8.4.1 A/B测试
  • 8.4.2 影子模型部署
  • 8.5 指标和监控
  • 8.6 自动伸缩
  • 8.6.1 自动伸缩策略
  • 8.6.2 定义自动伸缩策略
  • 8.7 小结
  • 第9章 通过RAG和agent实现基于上下文推理的应用程序
  • 9.1 大语言模型的局限性
  • 9.1.1 幻觉
  • 9.1.2 知识截断
  • 9.2 RAG
  • 9.2.1 外部知识源
  • 9.2.2 RAG工作流
  • 9.2.3 文档加载
  • 9.2.4 分块
  • 9.2.5 检索数据和重新排序
  • 9.2.6 提示增强
  • 9.3 RAG编排和实现
  • 9.3.1 文档加载和分块
  • 9.3.2 嵌入向量存储和检索
  • 9.3.3 检索链
  • 9.3.4 通过MMR进行重新排序
  • 9.4 agent
  • 9.4.1 ReAct框架
  • 9.4.2 PAL框架
  • 9.5 生成式AI应用程序
  • 9.6 FMOps:实施生成式AI项目生命周期
  • 9.6.1 试验注意事项
  • 9.6.2 开发注意事项
  • 9.6.3 生产部署注意事项
  • 9.7 小结
  • 第10章 多模态基础模型
  • 10.1 用例
  • 10.2 多模态提示工程实践
  • 10.3 图像生成和增强
  • 10.3.1 图像生成
  • 10.3.2 图像编辑和增强
  • 10.4 图像补全、图像外部填充和depth-to-image
  • 10.4.1 图像补全
  • 10.4.2 图像外部填充
  • 10.4.3 depth-to-image
  • 10.5 图像描述和视觉问答
  • 10.5.1 图像描述
  • 10.5.2 内容审查
  • 10.5.3 视觉问答
  • 10.6 模型评估
  • 10.6.1 文生图任务
  • 10.6.2 图生文任务
  • 10.6.3 非语言推理任务
  • 10.7 扩散模型架构
  • 10.7.1 前向扩散简介
  • 10.7.2 反向扩散简介
  • 10.7.3 U-Net简介
  • 10.8 Stable Diffusion 2架构
  • 10.8.1 文本编码器
  • 10.8.2 U-Net和扩散过程
  • 10.8.3 文本条件控制
  • 10.8.4 交叉注意力
  • 10.8.5 采样器
  • 10.8.6 图像解码器
  • 10.9 Stable Diffusion XL架构
  • 10.9.1 U-Net和交叉注意力
  • 10.9.2 精修模型
  • 10.9.3 条件控制
  • 10.10 小结
  • 第11章 通过Stable Diffusion进行受控生成和微调
  • 11.1 ControlNet
  • 11.2 微调
  • 11.2.1 DreamBooth
  • 11.2.2 DreamBooth与PEFT-LoRA
  • 11.2.3 文本反演
  • 11.3 通过RLHF进行人类偏好对齐
  • 11.4 小结
  • 第12章 Amazon Bedrock:用于生成式AI的托管服务
  • 12.1 Bedrock基础模型
  • 12.1.1 Amazon Titan基础模型
  • 12.1.2 来自Stability AI公司的Stable Diffusion基础模型
  • 12.2 Bedrock推理API
  • 12.3 大语言模型推理API
  • 12.3.1 生成SQL代码
  • 12.3.2 文本摘要
  • 12.3.3 使用Amazon Bedrock生成嵌入
  • 12.4 通过Amazon Bedrock进行微调
  • 12.5 通过Amazon Bedrock创建agent
  • 12.6 多模态模型
  • 12.6.1 文生图
  • 12.6.2 图生图
  • 12.7 数据隐私和网络安全
  • 12.8 治理和监控
  • 12.9 小结
  • 关于作者
  • 关于译者
  • 关于项目策划人
  • 关于封面
展开全部

评分及书评

5.0
4个评分

出版方

人民邮电出版社

人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。