当前位置:人工智能 > 专题:深度学习与计算机视觉:算法原理、框架应用与代码实现
深度学习与计算机视觉:算法原理、框架应用与代码实现
本书全面介绍了深度学习及计算机视觉中最基础的知识,并结合最常见的应用场景和大量实例,带领读者进入丰富多彩的计算机视觉领域。作为一本“原理+实践”教程,本书在讲解原理的基础上,通过有趣的实例带领读者一步步亲自动手,不断提高动手能力,而不是枯燥和深奥原理的堆砌。
全书共13章,分为2篇。第1篇基础知识,介绍了人工智能发展历程、计算机视觉概要、深度学习和计算机视觉中的基础数学知识、神经网络及其相关的机器学习基础、卷积神经网络及其一些常见结构,最后对最前沿的趋势进行了简单探讨。第2篇实例精讲,介绍了Python基础、OpneCV基础、最简单的分类神经网络、图像识别、利用Caffe做回归、迁移学习和模型微调、目标检测、度量学习和图像风格迁移等常见的计算机视觉应用场景。本书从第5章开始包含很多有趣和实用的代码示例。从第7章开始的所有实例都基于当前流行的深度学习框架Caffe和MXNet,其中包含作者原创的大量代码和搜集的数据,这些代码和作者训练好的部分模型已分享到本书github页面上供读者自行下载。
本书适合对人工智能、机器学习、深度学习和计算机视觉感兴趣的读者阅读。阅读本书要求读者具备一定的数学基础和基本的编程能力,并需要读者了解Linux的基本使用。
个好
 关键字:人工智能
块砖
 强力砖:
 评论: | 查看全部 | 收藏本文 | 我说两句
  前言与目录 时间
·目录(2) (2017/10/22)
·目录(1) (2017/10/22)
·前言 (2017/10/22)
  作者简介与序言 时间
·序言 (2017/10/22)
·作者简介 (2017/10/22)
  第1章 引言 时间
·1.3.3 基于卷积神经网络的计算机视觉应用 (2017/10/22)
·1.3.2 GPU和并行技术——深度学习和计算视觉发展的加速器 (2017/10/22)
·1.3.1 从ImageNet竞赛到AlphaGo战胜李世石——计算机视觉超越人类 (2017/10/22)
·1.2.4 常见计算机视觉工具包 (2017/10/22)
·1.2.3 计算机视觉的应用 (2017/10/22)
·1.2.2 2012年——计算机视觉的新起点 (2017/10/22)
·1.2.1 计算机视觉简史 (2017/10/22)
·1.1.10 常见深度学习框架简介 (2017/10/22)
·1.1.9 生活中的深度学习 (2017/10/22)
·1.1.8 2006年——深度学习的起点 (2017/10/22)
·1.1.7 神经网络的第二次寒冬 (2017/10/22)
·1.1.6 神经网络的第一次复兴 (2017/10/22)
·1.1.5 神经网络的第一次寒冬 (2017/10/22)
·1.1.4 人工神经网络的兴起 (2017/10/22)
·1.1.3 神经科学的研究 (2017/10/22)
·1.1.2 人工智能的诞生 (2017/10/22)
·1.1.1 人工智能——神话传说到影视漫画 (2017/10/22)
·1.1 人工智能的新焦点——深度学习 (2017/10/22)
  第2章 深度学习和计算机视觉中的基础数学知识 时间
·2.5.13 链式求导法则 (2017/10/23)
·2.5.12 Softmax:将输出转换为概率 (2017/10/23)
·2.5.11 逻辑回归 (2017/10/23)
·2.5.10 分类问题和负对数似然 (2017/10/23)
·2.5.9 损失函数 (2017/10/23)
·2.5.8 其他自适应算法 (2017/10/23)
·2.5.7 AdaDelta的进一步改进 (2017/10/23)
·2.5.6 AdaGrad:每个变量有自己的节奏 (2017/10/23)
·2.5.5 学习率衰减(Learning Rate Decay) (2017/10/23)
·2.5.4 学习率和自适应步长 (2017/10/23)
·2.5.3 牛顿法 (2017/10/23)
·2.5.2 冲量(Momentum) (2017/10/23)
·2.5.1 最小值和梯度下降 (2017/10/23)
·2.4.5 卷积的计算 (2017/10/23)
·2.4.4 二维卷积和图像响应 (2017/10/23)
·2.4.3 卷积和互相关 (2017/10/23)
·2.4.2 一维卷积 (2017/10/23)
·2.4.1 点积和卷积 (2017/10/23)
·2.3.13 其他降维手段 (2017/10/23)
·2.3.12 PCA——什么样的数据适合PCA (2017/10/23)
·2.3.11 PCA——归一化和相关性系数 (2017/10/23)
·2.3.10 PCA——通过主成分分析降维 (2017/10/23)
·2.3.9 PCA——通过本征向量和本征值求主成分 (2017/10/23)
·2.3.8 PCA——什么是主成分 (2017/10/23)
·2.3.7 函数对实际维度的影响 (2017/10/23)
·2.3.6 局部泛化 (2017/10/23)
·2.3.5 数据实际的维度 (2017/10/23)
·2.3.4 中心极限定理和高维样本距离分布的近似 (2017/10/23)
·2.3.3 高维空间中的距离 (2017/10/23)
·2.3.2 高维空间中的体积 (2017/10/23)
·2.3.1 采样和维度 (2017/10/23)
·2.3 维度的诅咒 (2017/10/23)
·2.2.6 KL散度和MLE的联系 (2017/10/23)
·2.2.5 KL散度(Kullback–Leibler divergence) (2017/10/23)
·2.2.4 最大似然估计(Maximum Likelihood Estimation,MLE) (2017/10/23)
·2.2.3 熵 (2017/10/23)
·2.2.2 期望值、方差和协方差 (2017/10/23)
·2.2.1 条件概率和独立 (2017/10/23)
·2.1.9 非线性变换 (2017/10/23)
·2.1.8 线性可分性和维度 (2017/10/23)
·2.1.7 奇异值分解 (2017/10/23)
·2.1.6 矩阵乘法的几何意义(2) (2017/10/23)
·2.1.5 本征向量和本征值 (2017/10/22)
·2.1.4 矩阵乘法的几何意义(1) (2017/10/22)
·2.1.3 点积和投影 (2017/10/22)
·2.1.2 高中教科书中的小例子 (2017/10/22)
·2.1.1 线性变换的定义 (2017/10/22)
·2.1 线性变换和非线性变换 (2017/10/22)
匿名:
验证码: (如果看不清请点击图片进行更换.)
文章搜索
 关键字:
热点标签
专题制作
 责任编辑:renliping
其它专题