接着上一篇的内容: 四:Transfer Learning: 1.对于数据量少或者中等的情况,迁移学习很有用2.基于ImageNet的实验,将ImageNet的所有类的各分一半为A,B:(1).先训练A部分,然后将前n层的参数保存好;再重新初始化后n+层的参数,用B部分训练;再将前面保存好的参数,和 ...
阅读全文 »

总结斯坦福2015李飞飞教授以及Andrej Karpathy教授的上课的slides中关于CNN的一些内容 一:神经网络实验的基本策略: 1.对输入数据进行预处理: 2.网络结构和数据集设置:(1)-随机初始化weights为一些比较小的数(fan-in,fan-out),bias设置为0(2)- ...
阅读全文 »

SAE与DBM两个都可以用于提取输入集特征。 SAESAE是由多个Spase AutoEncoder堆叠而成,单个Spase AutoEncoder的结构如下: 在堆叠成SAE时的结构如下: 以上SAE的结构可以化分为两个sparse autoencoder和一个 sof ...
阅读全文 »

微软亚研院2015的一篇文章,优点是能够满足任意大小图像的输入。 主要思想:(1)Spatial Pyramid Pooling Layer. 正是因为该层,才让Spp_net能够实现任意图片的输入,并且得到固定长度的特征向量: stride和window的计算: (2)Mapping a Wind ...
阅读全文 »

1:背景由于在训练神经网络的过程中,每一层的 params是不断更新的,由于params的更新会导致下一层输入的分布情况发生改变,所以这就要求我们进行权重初始化,减小学习率。这个现象就叫做internal covariate shift。2:idea思想虽然可以通过whitening来加速收敛,但是 ...
阅读全文 »