展开全部

主编推荐语

生成式AI安全、监管、合规标准读本和实操指南。

内容简介

本书是一部从技术安全、监管框架、合规要求、伦理道德等角度全面讲解生成式人工智能安全问题的实战性著作。

本书在坚实的理论基础之上,通过丰富的案例和翔实的数据,系统梳理了企业当下在生成式人工智能实践中面临的各种安全挑战,并给出了应对策略。本书的目标是为读者提供全面且实用的行动框架和实操指南,以促进生成式人工智能行业的健康发展。

目录

  • 版权信息
  • 前言
  • 第1章 大语言模型安全及其挑战
  • 1.1 大语言模型的发展历史与技术现状
  • 1.1.1 序章:起源与早期形态
  • 1.1.2 转折:神经网络的兴起
  • 1.1.3 现代巨人:GPT与BERT的时代
  • 1.1.4 技术现状与应用领域
  • 1.2 大语言模型安全的范畴
  • 1.2.1 大语言模型的技术安全:关键挑战是什么
  • 1.2.2 大语言模型的监管与合规:面临哪些关键问题
  • 1.3 生成式人工智能安全的重要性
  • 1.3.1 提升大语言模型的社会信任和声誉
  • 1.3.2 降低大语言模型的法律风险
  • 1.3.3 保护大语言模型的用户数据隐私
  • 1.3.4 保障大语言模型服务的连续性
  • 1.3.5 提高大语言模型的系统稳定性
  • 1.4 大语言模型安全的现状与挑战
  • 1.4.1 大语言模型的安全隐患与主要风险点
  • 1.4.2 大语言模型与国家安全风险
  • 1.4.3 大语言模型安全治理之道:发展与安全并重
  • 第2章 大语言模型技术层面的安全风险
  • 2.1 大语言模型的信息安全原则
  • 2.1.1 机密性
  • 2.1.2 完整性
  • 2.1.3 可用性
  • 2.2 传统安全风险
  • 2.2.1 传统网络攻击依然具有威力
  • 2.2.2 常见的传统网络攻击方式
  • 2.3 识别和分析人类意图上的挑战
  • 2.3.1 恶意意图的识别难题
  • 2.3.2 AI生成虚假信息传播
  • 2.3.3 利用AI进行黑客攻击
  • 2.4 大语言模型的固有脆弱性
  • 2.4.1 对抗攻击
  • 2.4.2 后门攻击
  • 2.4.3 Prompt攻击
  • 2.4.4 数据投毒攻击
  • 2.4.5 模型窃取攻击
  • 2.4.6 数据窃取攻击
  • 2.4.7 其他常见安全风险
  • 第3章 大语言模型监管与合规的法律框架
  • 3.1 全球视野下的AIGC监管现状
  • 3.1.1 AIGC企业面临的诉讼压力
  • 3.1.2 针对AIGC企业的执法调查屡见不鲜
  • 3.1.3 各国抓紧AIGC相关立法
  • 3.2 国内的监管体系
  • 3.2.1 国内监管体系概述
  • 3.2.2 国内现行监管政策梳理与总结
  • 3.2.3 国内重点监管政策解读
  • 3.3 国外的典型法域
  • 3.3.1 欧盟
  • 3.3.2 美国
  • 3.3.3 英国
  • 3.3.4 新加坡
  • 3.3.5 加拿大
  • 3.3.6 韩国
  • 第4章 大语言模型知识产权合规
  • 4.1 著作权
  • 4.1.1 著作权概述
  • 4.1.2 AIGC生成物的著作权定性分析
  • 4.1.3 AIGC技术相关的著作权侵权风险
  • 4.1.4 典型案例分析
  • 4.1.5 小结
  • 4.2 开源协议
  • 4.2.1 开源协议概述
  • 4.2.2 开源协议引发的侵权风险
  • 4.2.3 涉及开源协议的相关案例
  • 4.2.4 涉及开源协议的侵权风险防范措施
  • 4.3 专利权
  • 4.3.1 专利权概述
  • 4.3.2 AIGC场景下的专利权相关问题
  • 4.4 商标权
  • 4.4.1 商标权概述
  • 4.4.2 AIGC场景下的商标侵权
  • 4.4.3 人工智能生成物与商标侵权
  • 4.5 商业秘密
  • 4.5.1 商业秘密概述
  • 4.5.2 AIGC场景下常见的商业秘密相关风险
  • 4.5.3 典型案例分析
  • 4.5.4 小结
  • 第5章 大语言模型数据合规
  • 5.1 模型训练阶段
  • 5.1.1 数据采集
  • 5.1.2 数据质量提升
  • 5.2 模型应用阶段
  • 5.2.1 告知同意
  • 5.2.2 个人信息权利行使
  • 5.2.3 收集儿童个人信息
  • 5.2.4 数据跨境
  • 5.3 模型优化阶段
  • 5.3.1 数据使用
  • 5.3.2 数据安全
  • 第6章 大语言模型内容安全
  • 6.1 内容安全监管
  • 6.1.1 国内视角下的监管
  • 6.1.2 国外视角下的监管
  • 6.2 内容安全风险
  • 6.2.1 权利人提起的民事侵权责任
  • 6.2.2 监管机构提起的行政处罚
  • 6.2.3 刑事处罚
  • 6.3 内容安全合规
  • 6.3.1 模型训练阶段
  • 6.3.2 模型应用阶段
  • 6.3.3 模型优化阶段
  • 第7章 大语言模型算法合规
  • 7.1 算法合规框架概述
  • 7.2 算法备案
  • 7.2.1 法律依据及实施概况
  • 7.2.2 备案流程
  • 7.2.3 算法备案入口及角色
  • 7.2.4 备案所需准备的文件及材料
  • 7.2.5 备案期限
  • 7.3 人工智能安全评估
  • 7.4 算法公开透明
  • 7.5 算法生成内容标识
  • 7.6 算法反歧视
  • 7.6.1 算法设计
  • 7.6.2 训练数据选择
  • 7.6.3 模型生成和优化
  • 7.7 与算法有关的侵权
  • 7.8 算法合规要点总结
  • 第8章 大语言模型伦理安全
  • 8.1 大语言模型伦理:AI技术进步的道德维度
  • 8.1.1 三个案例引发对AI伦理的思考
  • 8.1.2 人工智能伦理概述:一个复杂且涵盖多方面的议题
  • 8.2 人工智能伦理的重要性
  • 8.2.1 提升公众信任:大语言模型伦理规范的社会影响
  • 8.2.2 确保合规性:企业和组织遵守伦理规范的必要性
  • 8.2.3 面向可持续的未来:伦理规范的长期社会影响
  • 8.3 大语言模型伦理安全风险及成因分析
  • 8.3.1 主要的伦理风险
  • 8.3.2 伦理风险的成因
  • 8.4 我国人工智能伦理治理实践
  • 8.4.1 我国人工智能伦理相关法规政策概述
  • 8.4.2 确立科技伦理治理体制机制
  • 8.5 大语言模型伦理风险应对策略
  • 8.5.1 研究开发者的责任
  • 8.5.2 设计制造者的责任
  • 8.5.3 部署应用者的责任
  • 8.5.4 用户的责任
  • 第9章 大语言模型的安全保障方案
  • 9.1 传统技术层面的安全保障
  • 9.1.1 大语言模型在系统层面的安全挑战
  • 9.1.2 大语言模型中可应用的经典安全技术
  • 9.1.3 应用传统安全实践的经验
  • 9.2 数据层面的保障策略
  • 9.2.1 数据收集阶段面临的安全挑战
  • 9.2.2 训练阶段的安全建议
  • 9.2.3 模型推理阶段的安全建议
  • 9.3 可信属性角度的安全防护策略
  • 9.3.1 大语言模型可信任的支柱
  • 9.3.2 人类监管和监督
  • 9.3.3 技术健壮性和安全性
  • 9.3.4 隐私和数据治理
  • 9.3.5 透明度
  • 9.3.6 多样性和公平性
  • 9.3.7 社会和环境变革
  • 9.3.8 问责机制
  • 第10章 生成式人工智能未来展望
  • 10.1 技术视角看大语言模型安全的发展趋势
  • 10.1.1 增强安全性与可靠性
  • 10.1.2 提高透明性与可解释性
  • 10.1.3 优化性能与效率
  • 10.1.4 应对深度伪造技术
  • 10.1.5 区块链技术的集成
  • 10.2 法律视角看大语言模型安全的发展趋势
  • 10.2.1 全球数据保护法律法规在大模型领域的细化与完善
  • 10.2.2 全球范围内算法监管框架的逐渐完善
  • 10.2.3 AI时代的知识产权
  • 10.2.4 伦理规范的法律化
展开全部

评分及书评

评分不足
1个评分

出版方

机械工业出版社

机械工业出版社是全国优秀出版社,自1952年成立以来,坚持为科技、为教育服务,以向行业、向学校提供优质、权威的精神产品为宗旨,以“服务社会和人民群众需求,传播社会主义先进文化”为己任,产业结构不断完善,已由传统的图书出版向着图书、期刊、电子出版物、音像制品、电子商务一体化延伸,现已发展为多领域、多学科的大型综合性出版社,涉及机械、电工电子、汽车、计算机、经济管理、建筑、ELT、科普以及教材、教辅等领域。