神经网络和深度学习-第二周神经网络基础-第八节:计算图的导数计算

本系列博客是吴恩达(Andrew Ng)深度学习工程师 课程笔记。全部课程请查看吴恩达(Andrew Ng)深度学习工程师课程目录上一节中,我们使用计算图来计算函数$J$,现在我们理清一下计算图的描述,看看我们如何利用它计算出函数$J$的导数。下图是一个流程图,假设你要计算$J$对$v$的导数$\f

神经网络和深度学习-第二周神经网络基础-第七节:计算图

本系列博客是吴恩达(Andrew Ng)深度学习工程师 课程笔记。全部课程请查看吴恩达(Andrew Ng)深度学习工程师课程目录可以说,一个神经网络的计算都是按照前向或反向传播过程来实现的。首先计算出神经网络的输出,紧接着进行一个反向传输操作,后者我们用来计算出对应梯度或者导数。而计算图解释了为什

神经网络和深度学习-第二周神经网络基础-第四节:梯度下降法

本系列博客是吴恩达(Andrew Ng)深度学习工程师 课程笔记。全部课程请查看吴恩达(Andrew Ng)深度学习工程师课程目录在上一节中学习了损失函数,损失函数是衡量单一训练样例的效果,成本函数用于衡量参数w和b的效果,在全部训练集上来衡量。下面我们讨论如何使用梯度下降法,来训练和学习训练集上的

神经网络和深度学习-第二周神经网络基础-第三节:Logistic 回归损失函数

本系列博客是吴恩达(Andrew Ng)深度学习工程师 课程笔记。全部课程请查看吴恩达(Andrew Ng)深度学习工程师课程目录在上一节中,讲解的是logistic回归模型。为了训练回归模型参数w和b,我们需要定义一个成本函数(cost function)。这是上一节中的函数:$$\begin\h

神经网络和深度学习-第二周神经网络基础-第二节:Logistic回归

本系列博客是吴恩达(Andrew Ng)深度学习工程师 课程笔记。全部课程请查看吴恩达(Andrew Ng)深度学习工程师课程目录本节将会讲解logistic回归,logistic是一个学习算法,用在监督学习问题中输出标签y是0或1的时候,这是一个二元分类问题。已知的输入特征向量x可能是一张图,你希

神经网络和深度学习-第二周神经网络基础-第一节:二分分类

本系列博客是吴恩达(Andrew Ng)深度学习工程师 课程笔记。全部课程请查看吴恩达(Andrew Ng)深度学习工程师课程目录本周,我们会学习神经网络编程的基础知识。当你要构建一个神经网络,有些技巧是相当重要的。例如,如果你有m个样本的训练集,你可能会习惯性地去用一个for循环来遍历这m个样本。

神经网络和深度学习-第一周深度学习概论-第六节:课程资源

本系列博客是吴恩达(Andrew Ng)深度学习工程师 课程笔记。全部课程请查看吴恩达(Andrew Ng)深度学习工程师课程目录可以在coursera论坛问问题,技术交流,提交bug等。也可以通过邮箱直接联系我们,我们会保证阅读每一封邮件: feedback@deeplearning.ai如果公司

神经网络和深度学习-第一周深度学习概论-第五节:关于这门课

本系列博客是吴恩达(Andrew Ng)深度学习工程师 课程笔记。全部课程请查看吴恩达(Andrew Ng)深度学习工程师课程目录学习进度到这第一门课第一周的最后,快速介绍一下下周要学习的内容。第一门课有四个星期的学习材料,在每一周的最后都有十道多选题,可以用来检验自己对材料的理解。在第二周你会学到

神经网络和深度学习-第一周深度学习概论-第四节:为什么深度学习会兴起?

本系列博客是吴恩达(Andrew Ng)深度学习工程师 课程笔记。全部课程请查看吴恩达(Andrew Ng)深度学习工程师课程目录如果在深度学习和神经网络背后的基本技术理论已经有好几十年了,为什么现在才突然流行起来呢?这一节来看一些让深度学习流行起来的主要原因,这将会帮助你在自己的组织中发现好机会来

神经网络和深度学习-第一周深度学习概论-第三节:用神经网络进行监督学习

本系列博客是吴恩达(Andrew Ng)深度学习工程师 课程笔记。全部课程请查看吴恩达(Andrew Ng)深度学习工程师课程目录神经网络有时被媒体炒作得很厉害,考虑到它们的使用效果,有些说法还是靠谱的。事实上,到目前为止,几乎所有由神经网络创造的经济价值都基于其中一种机器学习--我们称之为“监督学
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×