PRELOADER

Dinghow的个人博客

Home

12/4/2018 —— 

  • The article has been encrypted, please enter your password to view.

     2028-06-11 View all

    因为之前已经有过Google那套ML的笔记,所以很多重复的部分就没有再写了,算是做了一些DL上的补充吧,其实严格意义上来说,Google那个课程应该算DL的入门课程,机器学习的很多非神经网络的算法:K-means、决策树这些都没有讲。Whatever,希望对你也有一些帮助~ 0. 杂记关于吸引盆(basin of attraction)多层神经网络的初始化隐层不能简单置0的原因,因为0很容易陷进一

     2018-11-28 View all

    1_notmnist is the first practice of Udacity Deep Learning course. The solution ipynb file is in my github repository In part 1, we used some methods to process the data, and in this part, we will tr

     2018-10-28 View all

    1_notmnist is the first practice of Udacity Deep Learning course. The solution ipynb file is in my github repository 1. Problem 1 Let’s take a peek at some of the data to make sure it looks sensible

     2018-10-27 View all

    系列笔记索引:官方课程 Github仓库 Part1:基础概念,降低损失 Part2:泛化,验证,表示法,特征组合 Part3:L2正则化,逻辑回归,分类 Part4:L1正则化,神经网络 Part5:训练神经网络,多类别神经网络,嵌套 14. 训练神经网络最常见的神经网络训练算法:反向传播算法(BP算法,BackPropagation) 是一种与最优化方法(如梯度下降法)结合使用的,用来训

     2018-09-24 View all

    系列笔记索引:官方课程 Github仓库 Part1:基础概念,降低损失 Part2:泛化,验证,表示法,特征组合 Part3:L2正则化,逻辑回归,分类 Part4:L1正则化,神经网络 Part5:训练神经网络,多类别神经网络,嵌套 12. 正则化:稀疏性稀疏矢量的特征组合通常会导致包含更多无意义维度,在降低模型复杂度时,我们希望将一些无意义的权重设为0(即L0正则化),但是L0正则化是非

     2018-09-23 View all

    The article has been encrypted, please enter your password to view.

     2018-09-14 View all

    系列笔记索引:官方课程 Github仓库 Part1:基础概念,降低损失 Part2:泛化,验证,表示法,特征组合 Part3:L2正则化,逻辑回归,分类 Part4:L1正则化,神经网络 Part5:训练神经网络,多类别神经网络,嵌套 9.正则化(Regularization):简单性L2正则化定义:通过降低复杂模型的复杂度来防止过拟合的原则称为正则化 为了避免训练集数据过拟合,应该求结构风

     2018-09-03 View all