人工智能
类型
可以朗读
语音朗读
497千字
字数
2024-03-01
发行日期
展开全部
主编推荐语
系统阐述注意力机制的产生背景和发展历程。
内容简介
“注意”作为一切思维活动的起点,一直是哲学、心理学和认知神经科学的重点研究对象。随着计算机技术的发展,人类对注意力机制的模拟和应用成为计算机科学领域的热点研究方向————让计算机能够具有类似人类的注意力机制,使其能够有效地应用于对数据的理解和分析。Transformer模型诞生后,注意力机制在人工智能各大重要领域的研究和应用更是如火如荼,成果丰硕。
本书从注意力机制这一重要角度入手,阐述注意力机制的产生背景和发展历程,通过详实的理论剖析,以深入浅出的方式着重介绍注意力机制在计算机视觉、自然语言处理,以及多模态机器学习三大人工智能方向中的应用思路、模型与算法。
本书以人工智能相关专业研究人员,特别是计算机视觉与自然语言处理等领域的研发人员作为主要读者对象,一方面帮其梳理技术的发展脉络、开拓思路、构建完整的认知体系;另一方面为其剖析算法原理、深刻理解算法细节。
目录
- 版权信息
- 前言
- 第1章 人类注意力与计算机注意力——从认识自我到改造世界
- 1.1 本源思考:哲学中的注意力
- 1.2 心路历程:心理学中的注意力
- 1.3 深入脑海:认知神经科学中的注意力
- 1.4 改造世界:计算机科学中的注意力
- 参考文献
- 第2章 计算机视觉中的注意力
- 2.1 注意力模型的分类
- 2.2 视觉显著性检测原理与模型剖析
- 2.3 注意力机制的计算机视觉应用与模型剖析
- 参考文献
- 第3章 自然语言处理中的注意力——“前Transformer”的时代
- 3.1 机器翻译与Seq2Seq模型
- 3.2 自然语言处理中注意力机制的起源
- 3.3 经典算法剖析
- 3.4 注意力机制的形式化表示
- 参考文献
- 第4章 “只要注意力”的Transformer
- 4.1 Transformer的诞生
- 4.2 Transformer的编码器-解码器架构
- 4.3 Transformer的输入与输出
- 4.4 Transformer的注意力机制
- 4.5 一些其他问题
- 参考文献
- 第5章 自然语言处理中的预训练范式与Transformer的“一统江湖”
- 5.1 语言建模
- 5.2 自然语言处理中的预训练范式
- 5.3 预训练模型概览
- 5.4 基于Transformer的预训练模型
- 参考文献
- 第6章 计算机视觉中的Transformer
- 6.1 视觉Transformer模型概览
- 6.2 卷积还是注意力?
- 6.3 Transformer的计算机视觉应用与算法剖析
- 参考文献
- 第7章 多模态机器学习中的注意力机制
- 7.1 多模态技术发展史
- 7.2 多模态机器学习面临的挑战
- 7.3 视觉语言多模态模型
- 7.4 经典多模态模型剖析
- 参考文献
展开全部
出版方
机械工业出版社
机械工业出版社是全国优秀出版社,自1952年成立以来,坚持为科技、为教育服务,以向行业、向学校提供优质、权威的精神产品为宗旨,以“服务社会和人民群众需求,传播社会主义先进文化”为己任,产业结构不断完善,已由传统的图书出版向着图书、期刊、电子出版物、音像制品、电子商务一体化延伸,现已发展为多领域、多学科的大型综合性出版社,涉及机械、电工电子、汽车、计算机、经济管理、建筑、ELT、科普以及教材、教辅等领域。