当前位置: 首页 > 编程日记 > 正文

你的神经网络不起作用的37个理由

640?wx_fmt=jpeg
(图片由AI科技大本营付费下载自视觉中国)

作者 | Slav Ivanov
译者 | 吴金笛
校对 | 丁楠雅、林亦霖
编辑 | 王菁
来源 |  数据派THU(ID:DatapiTHU)

【导语】本文列举了在搭建神经网络过程中的37个易错点,并给出了解决建议。

有一个网络已经训练了12个小时。一切看起来都很好:梯度是逐渐变化的,损失在减少。但接下来的预测:都是零,所有的图像背景都没有被检测到。“我做错了什么?”——我问我的电脑,但它没有回答我。

你从哪里开始检查是否你的模型输出了垃圾(例如,预测输出了平均值,或者它的准确性真的很差)?

由于许多原因,神经网络可能不会进行训练。在许多调试过程中,我经常发现自己在做同样的检查。我把我的经验和最好的想法整理在这个便利的列表中,希望它们对你也有用。

目录

  • 1. 如何使用本指南?

  • 2. 数据集问题

  • 3. 数据规范化或增强的问题

  • 4. 实现问题

  • 5. 训练问题

1.如何使用本指南?

很多方面都可能出错。但是其中一些比其他的更有可能被防范。我通常从以下简短的清单开始,作为紧急的第一反应:

  • 1. 从一个已知适用于这类数据的简单模型开始(例如,图像的VGG)。如果可能,使用标准损失。

  • 2. 关闭所有的附加功能,例如正则化和数据增强。

  • 3. 如果对一个模型进行微调,要仔细检查预处理,因为它应该与原始模型的训练相同。

  • 4. 验证输入数据是否正确。

  • 5. 从一个非常小的数据集(2-20个样本)开始。对它进行过度拟合,并逐渐添加更多的数据。

  • 6. 开始逐步添加所有被省略的部分:增强/正则化、自定义损失函数、尝试更复杂的模型。

如果上面的步骤没有解决问题,那就根据下面的列表逐一验证。

2.数据集问题

  • 1.检查你的输入数据

检查你向网络输入的数据是否有意义。例如,我不止一次搞混了图像的宽度和高度。有时候,我会错误地输入全0数据。或者我会一遍又一遍地使用相同的批次。因此,打印/显示几批输入和目标输出,以确保它们是正确的。

  • 2.尝试随机输入


尝试传入随机数而不是实际数据,看看错误是否相同。如果是这样,这是一个确定的信号,说明你的网络在某个时候将数据转换为了垃圾。试着一层一层或一个操作一个操作的调试看看哪里出错了。

  • 3. 检查数据加载程序


你的数据可能没问题,但是将输入传递到网络的代码可能会出错。在任何操作之前打印并检查第一层的输入。

  • 4. 确保输入连接到输出


检查一些输入样本是否有正确的标签。同时确保对输入样例进行打乱的方式与输出标签的相同。

  • 5. 输入和输出之间的关系是否过于随机?

也许与随机部分相比,输入输出关系中的非随机部分太小了(人们可能认为股价就是这样的)。即输入与输出不充分相关。没有一种通用的方法来检测这一点,因为这取决于数据的性质。

  • 6. 数据集中是否有太多噪音?

当我从一个食品网站上抓取一个图像数据集时,这种情况发生在我身上。有很多网络无法学习的不好的标签。手动检查一批输入样本,看看标签是否正常。

截止点是有争议的,因为有论文使用50%损坏的标签使MNIST的准确度达到50%以上。

https://arxiv.org/pdf/1412.6596.pdf

  • 7. 打乱数据集

如果你的数据集没有被打乱,并且有一个特定的顺序(按标签排序),这可能会对学习产生负面影响。打乱你的数据集以避免这种情况。确保输入和标签打的乱顺序相同。

  • 8. 减少类别不平衡

是否每个B类图像对应1000个A类图像?那么你可能需要平衡你的损失函数或尝试其他类不平衡方法。

https://machinelearningmastery.com/tactics-to-combat-imbalanced-classes-in-your-machine-learning-dataset/

  • 9. 你有足够的训练样本吗?

如果你正在从零开始训练一个网络(即不是微调),你可能需要大量的数据。对于图像分类,人们认为每个类需要1000张或更多的图像。

https://stats.stackexchange.com/questions/226672/how-few-training-examples-is-too-few-when-training-a-neural-network/226693#226693

  • 10. 确保你的批次中不只包含一个标签

这可能发生在排序的数据集中(即前10k个样本包含相同的类)。通过打乱数据集很容易解决。

  • 11. 减少批量大小

有论文指出,批量较大会降低模型的泛化能力。

https://arxiv.org/abs/1609.04836

3.数据则正则化或增强

  • 12. 规范的功能

你是否将输入标准化为零均值和单位方差?

  • 13. 你的数据增强太多了吗?

增强具有正则化作用。与其他形式的正则化(权重L2、dropout等)结合使用过多会导致网络不匹配。

  • 14. 检查预训练模型的预处理

如果你使用的是预训练模型,请确保使用的规范化和预处理与训练时使用的模型相同。例如,一个图像像素是否应该在[0,1]、[- 1,1]或[0,255]范围内。

  • 15. 检查训练/验证/测试集的预处理


CS231n指出了一个常见的陷阱:

“…任何预处理统计数据(例如数据平均值)必须只计算在训练数据上,然后应用于验证/测试数据。例如,计算平均值并从整个数据集中的每个图像减去它,然后将数据分割为训练集/验证集/测试集,这是一个错误。”

此外,检查每个样本或批次的不同预处理。

4.实现问题


  • 16. 试着解决这个问题的简单版本

这将有助于找到问题所在。例如,如果目标输出是一个对象类和坐标,则尝试将预测限制为对象类。

  • 17. “随机”寻找正确的损失

同样来自优秀的CS231n:使用小参数初始化,无需正则化。例如,如果我们有10个类,随机意味着我们将在10%的时间内得到正确的类,而Softmax损失是正确类的概率的对数的相反数,所以:-ln(0.1) = 2.302。

在此之后,尝试增加正则化强度,这会增加损失。

  • 18. 检查损失函数


如果你实现了自己的损失函数,请检查它是否有错误并添加单元测试。通常情况下,我的损失值会略微不正确,并小程度的降低网络的性能。

  • 19. 验证损失输入


如果你正在使用框架提供的损失函数,请确保传递给它的是它所期望的值。例如,在PyTorch中,我将混合NLLLoss和CrossEntropyLoss,因为前者需要一个softmax输入,而后者不需要。

  • 20.调整损失权重


如果损失由几个较小的损失函数组成,请确保它们相对于每个损失函数的大小是正确的。这可能需要测试不同的损失权重的组合。

  • 21. 监视其他指标

有时候,损失并不最好的预测器来判断你的网络是否在正常训练。如果可以,请使用其他指标,如准确性。

  • 22. 测试任何自定义层

是否网络中的某一层是你自己实现的?请反复检查以确保它们按预期工作。

  • 23. 检查“冻结”层或变量

检查是否无意中禁用了一些应该被学习的层/变量的梯度更新。

  • 24. 增加网络的大小

也许你的网络的表现力不足以捕获目标功能。尝试在完全连接的层中添加更多层或更多隐藏单元。

  • 25. 检查隐藏的维度错误


如果你的输入是(k, H, W) =(64, 64, 64),那么很容易忽略与错误维度相关的错误。对输入维使用奇怪的数字(例如,每个维使用不同的素数),并检查它们如何在网络中传播。

  • 26. 进行梯度检查

如果你手工实现梯度下降,进行梯度检查可以确保你的反向传播能够正常工作。

更多信息可参阅:

http://ufldl.stanford.edu/tutorial/supervised/DebuggingGradientChecking http://cs231n.github.io/neural-networks-3/#gradcheck https://www.coursera.org/lecture/machine-learning/gradient-checking-Y3s6r

5.训练问题

  • 27. 解决一个非常小的数据集


对一小部分数据进行过度拟合,并确保其工作正常。例如,只训练1或2个例子,看看你的网络能否学会区分这些。继续对每个类别添加更多的示例。

  • 28. 检查权重初始化


如果不确定,请使用Xavier或He初始化。此外,你的初始化可能会导致错误的局部最小值,因此尝试不同的初始化,看看是否有帮助。

  • 29. 更改超参数

也许你使用了一组特别糟糕的超参数。如果可行,尝试网格搜索。

  • 30.减少正规化

过多的正则化会导致网络严重不拟合。减少正则化,如dropout、batch norm、weight/bias L2正则化等。在优秀的“程序员实践深度学习”课程中,Jeremy Howard建议首先摆脱不拟合。这意味着你要对训练数据进行充分的过拟合,然后才能解决过拟合问题。

  • 31. 给它时间

也许你的网络在开始做出有意义的预测之前需要更长的时间来训练。如果你的损失在稳步下降,就再训练更多的时间。

  • 32. 从训练模式切换到测试模式

有些框架具有Batch Norm、Dropout等层,其他层在训练和测试期间的行为有所不同。切换到适当的模式可能有助于你的网络正确预测。

  • 33. 可视化训练

(1)监视每一层的激活、权重和更新。确保它们的大小匹配。例如,参数更新的大小(权重和偏差)应该是1-e3。
(2)考虑一个可视化库,比如Tensorboard和Crayon。在紧要关头,你还可以打印权重/偏差/激活。
(3)注意那些平均值远远大于0的层激活。尝试Batch Norm或ELUs。
(4)Deeplearning4j指出了在权重和偏差的直方图中应该期望什么。

“对于权重,这些直方图应该在一段时间后具有近似高斯(正态)分布。对于偏差,这些直方图通常从0开始,并且通常以近似高斯分布结束(LSTM是一个例外)。注意那些发散到+/-∞的参数。注意那些非常大的偏移量。如果类别的分布非常不平衡,有时可能会在输出层中进行分类。”

检查层的更新,他们应该形成一个高斯分布。

  • 34. 尝试不同的优化器

你选择的优化器不应该阻止你的网络进行训练,除非你选择了特别糟糕的超参数。然而,合适的任务优化器有助于在最短的时间内获得最多的训练。该论文指出你正在使用的算法应该指定优化器。如果没有,我倾向于使用Adam或带动量的普通SGD。

查看这篇由Sebastian Ruder撰写的优秀文章,了解更多关于梯度下降优化器的知识。

http://ruder.io/optimizing-gradient-descent/

  • 35. 爆炸/消失的梯度

(1)检查层的更新,因为非常大的值可以说明梯度爆炸。梯度剪切可能会有所帮助。
(2)检查层激活。Deeplearning4j提供了一个很好的指导方针:“激活的良好标准偏差在0.5到2.0之间。明显超出这一范围可能意味着消失或爆炸的激活。”
  • 36. 升高/降低学习率

低学习率将导致你的模型收敛得非常缓慢。

高学习率会在开始时迅速减少损失,但可能很难找到一个好的解决方案。
用你目前的学习速度乘以0.1或10来解决问题。

  • 37. 克服NaN

在训练RNN时,据我所知,得到一个NaN(Non-a-Number)是一个更大的问题。一些解决方法:

  • 降低学习速度,特别是如果你在前100次迭代中得到了NaNs。

  • NaNs可以由除以0,或0或负数的自然对数产生。

  • Russell Stewart在如何应对NaN中有很好的建议。

    http://get.mysecurify.com/view/item_81593.html

  • 试着一层一层地评估你的网络,看看NaNs出现在哪里。

作者介绍:
Slav,企业家和开发者,也是SaaS公司Encharge - marketing automation software的联合创始人。
译者介绍:
吴金笛,雪城大学计算机科学硕士一年级在读。迎难而上是我最舒服的状态,动心忍性,曾益我所不能。我的目标是做个早睡早起的Cool Girl。
原文标题:
37 Reasons why your Neural Network is not working
原文链接:
https://blog.slavv.com/37-reasons-why-your-neural-network-is-not-working-4020854bd607

(*本文为 AI科技大本营转载文章,转载请联系原作者)


精彩推荐


2019 中国大数据技术大会(BDTC)历经十一载,再度火热来袭!豪华主席阵容及百位技术专家齐聚,15 场精选专题技术和行业论坛,超强干货+技术剖析+行业实践立体解读,深入解析热门技术在行业中的实践落地。【早鸟票】【特惠学生票】限时抢购,扫码了解详情!

640?wx_fmt=png

推荐阅读

  • 100多次竞赛后,他研发了一个几乎可以解决所有机器学习问题的框架

  • 王霸之路:从0.1到2.0,一文看尽TensorFlow“奋斗史”

  • 伯克利人工智能研究院开源深度学习数据压缩方法Bit-Swap,性能创新高

  • NLP被英语统治?打破成见,英语不应是「自然语言」同义词

  • TensorFlow2.0正式版发布,极简安装TF2.0(CPU&GPU)教程

  • 肖仰华:知识图谱构建的三要素、三原则和九大策略 | AI ProCon 2019

  • AI落地遭“卡脖子”困境:为什么说联邦学习是解决良方?

  • 10分钟搭建你的第一个图像识别模型 | 附完整代码

  • 限时早鸟票 | 2019 中国大数据技术大会(BDTC)超豪华盛宴抢先看!

640?wx_fmt=png

你点的每个“在看”,我都认真当成了喜欢

相关文章:

菜鸟Vue学习笔记(三)

菜鸟Vue学习笔记(三)本周使用了Vue来操作表单,接下来说下Vue中双向绑定表单元素的用法。Vue中双向绑定是使用的v-model,所谓的双向绑定即改变变量的值,表单元素的值也会改变,同样的,改变表单元素…

Python中的注释(转)

一、单行注释单行注释以#开头,例如:print 6 #输出6二、多行注释(Python的注释只有针对于单行的注释(用#),这是一种变通的方法)多行注释用三引号将注释括起来,例如:多行注释多行注释三…

CUDA Samples: dot product(使用零拷贝内存)

以下CUDA sample是分别用C和CUDA实现的点积运算code,CUDA包括普通实现和采用零拷贝内存实现两种,并对其中使用到的CUDA函数进行了解说,code参考了《GPU高性能编程CUDA实战》一书的第十一章,各个文件内容如下:funset.cp…

一文读懂线性回归、岭回归和Lasso回归

(图片由AI科技大本营付费下载自视觉中国)作者 | 文杰编辑 | yuquanle本文介绍线性回归模型,从梯度下降和最小二乘的角度来求解线性回归问题,以概率的方式解释了线性回归为什么采用平方损失,然后介绍了线性回归中常用的…

tf.matmul / tf.multiply

import tensorflow as tfimport numpy as np 1.tf.placeholder placeholder()函数是在神经网络构建graph的时候在模型中的占位,此时并没有把要输入的数据传入模型,它只会分配必要的内存。 等建立session,在会话中,运行模型的时候通…

Java 匿名类也能使用构造函数

为什么80%的码农都做不了架构师?>>> 匿名类虽然没有名字,但可以有一个初始化块来充当构造函数。 public enum Ops {ADD, SUB} public class Calculator { private int i, j, result; public Calculator() {} public Calculator(int _i, …

CUDA Samples: matrix multiplication(C = A * B)

以下CUDA sample是分别用C和CUDA实现的两矩阵相乘运算code即C A*B,CUDA中包含了两种核函数的实现方法,第一种方法来自于CUDA Samples\v8.0\0_Simple\matrixMul,第二种采用普通的方法实现,第一种方法较快,但有些复杂&am…

业界首个实时多目标跟踪系统开源

(图片由AI科技大本营付费下载自视觉中国)作者 | CV君来源 | 我爱计算机视觉(ID:aicvml)相对业界研究比较多的单目标跟踪,多目标跟踪(Multi-Object Tracking,MOT)系统在实…

python基础 练习题

【练习题1】实现一个整数加法计算器如 content input(">>> ") # 59 , 64 count0 while 1:contentinput(>>>)s1 content.split()print(s1)count 0for i in s1:count int(i)print(count) 【练习题2】请编写1 - 100 所有数的和 sum0 for i in r…

[再寄小读者之数学篇](2014-04-18 from 352558840@qq.com [南开大学 2014 年高等代数考研试题]二次型的零点)...

(2014-04-18 from 352558840qq.com [南开大学 2014 年高等代数考研试题]) 设 ${\bf A}$ 为实对称矩阵, 存在线性无关的向量 ${\bf x}_1,{\bf x}_2$, 使得 ${\bf x}_1^T{\bf A}{\bf x}_1>0$, ${\bf x}_2^T{\bf A}{\bf x}_2<0$. 证明: 存在线性无关的向量 ${\bf x}_3,{\bf …

从0到1详解推荐系统中的嵌入方法,原理、算法到应用都讲明白了

&#xff08;图片由AI科技大本营付费下载自视觉中国&#xff09;作者丨gongyouliu编辑丨lily来源 | 大数据与人工智能&#xff08;ID&#xff1a;&#xff09;前言作者曾在这篇文章中提到&#xff0c;矩阵分解算法是一类嵌入方法&#xff0c;通过将用户行为矩阵分解为用户特征矩…

iOS-Swift中的递增(++)和递减(--)被取消的原因-官方答复

众所周知&#xff0c;在很多编程语言中&#xff0c;对一个变量递增1用&#xff0c;递减1用--&#xff0c;在Swift3之前也是可以这么用的&#xff0c;但之后被取消了。 所以在目前Swift5的版本中&#xff0c;只能用1和-1来进行递增和递减了 如果坚持用或--将会提示以下错误&…

CUDA Samples: 获取设备属性信息

通过调用CUDA的cudaGetDeviceProperties函数可以获得指定设备的相关信息&#xff0c;此函数会根据GPU显卡和CUDA版本的不同得到的结果也有所差异&#xff0c;下面code列出了经常用到的设备信息&#xff1a;#include "funset.hpp" #include <iostream> #include…

apache代理模块proxy使用

1、安装proxy模块[rootlocalhost modules]# cd /usr/local/src/httpd-2.2.16 [rootlocalhost httpd-2.2.16]# cd modules [rootlocalhost modules]# ls aaa config5.m4 debug filters ldap Makefile.in NWGNUmakefile ssl arch database echo …

CUDA Samples: image normalize(mean/standard deviation)

以下CUDA sample是分别用C和CUDA实现的通过均值和标准差对图像进行类似归一化的操作&#xff0c;并对其中使用到的CUDA函数进行了解说&#xff0c;各个文件内容如下&#xff1a;关于均值和标准差的计算公式可参考&#xff1a; http://blog.csdn.net/fengbingchun/article/detai…

中文预训练ALBERT模型来了:小模型登顶GLUE,Base版模型小10倍、速度快1倍

&#xff08;图片由AI科技大本营付费下载自视觉中国&#xff09;作者 | 徐亮&#xff08;实在智能算法专家) 来源 | AINLP&#xff08;ID&#xff1a;nlpjob&#xff09;谷歌ALBERT论文刚刚出炉一周&#xff0c;中文预训练ALBERT模型来了&#xff0c;感兴趣的同学可以直接尝鲜试…

树莓派安装go

简介 大学的时候在使用openfalcon的时候讲过这个东西&#xff0c;但是那时候是介绍open-falcon的&#xff0c;所以感觉不是很具体&#xff0c;所以今天在安装frp的时候也碰到了这个问题&#xff0c;我就具体的说下 安装go1.4 编译最新版本的go的时候一定要先编译安装go1.4&…

设计模式中的原则

设计模式(详情click)这个术语是由Erich Gamma等人在1990年代从建筑设计领域引入到计算机科学的。它是对软件设计中普遍存在&#xff08;反复出现&#xff09;的各种问题&#xff0c;所提出的解决方案。 设计模式并不直接用来完成代码的编写&#xff0c;而是描述在各种不同情况下…

CUDA Samples: approximate image reverse

以下CUDA sample是分别用C和CUDA实现的对图像进行某种类似reverse的操作&#xff0c;并对其中使用到的CUDA函数进行了解说&#xff0c;各个文件内容如下&#xff1a;common.hpp:#ifndef FBC_CUDA_TEST_COMMON_HPP_ #define FBC_CUDA_TEST_COMMON_HPP_#include<random> #i…

超详细支持向量机知识点,面试官会问的都在这里了

&#xff08;图片付费下载自视觉中国&#xff09;作者 | 韦伟来源 | 知乎导语&#xff1a;持续准备面试中&#xff0c;准备的过程中&#xff0c;慢慢发现&#xff0c;如果死记硬背的话很难&#xff0c;可当推导一遍并且细细研究里面的缘由的话&#xff0c;面试起来应该什么都不…

vue-router点击切换路由报错

报错: 报错原因&#xff1a; 设置mode:history解决方法&#xff1a; 将router的mode设置为‘hash就不报错了 原因下次再分析?

gvim配置相关

用 vundle 来管理 vim 插件&#xff08;包含配置文件vimrc和gvimrc&#xff09; gvim插件管理神器&#xff1a;vundle的安装与使用 Vim插件管理Vundle Linux 下VIM的配置 Vim配置系列(一) ---- 插件管理 Vim配置系列(二) —- 好看的statusline vim优秀插件整理 一些有用的 VIM …

深度学习有哪些接地气又好玩的应用?

过去几年中&#xff0c;深度学习中的很多技术如计算机视觉、自然语言处理等被应用在很多实际问题中&#xff0c;而且相关成果也表明深度学习能让人们的工作效果比以前更好。我们收集了一些深度学习方面的创意应用&#xff0c;虽然没有对每项应用进行详尽描述&#xff0c;但是希…

Ubuntu下通过CMake文件编译CUDA+OpenCV代码操作步骤

在 CUDA_Test 工程中&#xff0c;CUDA测试代码之前仅支持在Windows10 VS2013编译&#xff0c;今天在Ubuntu 14.04下写了一个CMakeLists.txt文件&#xff0c;支持在Linux下也可以通过CMake编译CUDA_Test工程&#xff0c;CMakeLists.txt文件内容如下&#xff1a;# CMake file f…

JAVA 多用户商城系统b2b2c-Spring Cloud常见问题与总结(一)

在使用Spring Cloud的过程中&#xff0c;难免会遇到一些问题。所以对Spring Cloud的常用问题做一些总结。需要JAVA Spring Cloud大型企业分布式微服务云构建的B2B2C电子商务平台源码 一零三八七七四六二六 一、Eureka常见问题 1.1 Eureka 注册服务慢 默认情况下&#xff0c;服务…

TinyFrame升级之八:实现简易插件化开发

本章主要讲解如何为框架新增插件化开发功能。 在.net 4.0中&#xff0c;我们可以在Application开始之前&#xff0c;通过PreApplicationStartMethod方法加载所需要的任何东西。那么今天我们主要做的工作就集中在这个时间段&#xff1a; 1.将插件DLL及文件拷贝入主网站目录并编译…

快手王华彦:端上视觉技术的极致效率及其短视频应用实践 | AI ProCon 2019

演讲嘉宾 | 王华彦&#xff08;快手硅谷Y-tech实验室负责人&#xff09; 编辑 | Just 出品 | AI科技大本营&#xff08;ID:rgznai100&#xff09; 快手用户日均上传1500万个视频&#xff0c;要把这些作品准确的分发给超2亿活跃用户&#xff0c;如果没有强大的AI技术系统去理解…

tmux简介及安装

tmux是一个开源工具&#xff0c;用于在一个终端窗口中运行多个终端会话。它可以减少过多的打开终端控制台。tmux的源码在 https://github.com/tmux/tmux &#xff0c;它的License是BSD。tmux可以直接通过sudo apt-get install tmux命令安装(通过sudo apt-get remove tmux移除)…

Swift中依赖注入的解耦策略

原文地址&#xff1a;Dependency Injection Strategies in Swift 简书地址&#xff1a;Swift中依赖注入的解耦策略 今天我们将深入研究Swift中的依赖注入&#xff0c;这是软件开发中最重要的技术之一&#xff0c;也是许多编程语言中使用频繁的概念。 具体来说&#xff0c;我们将…

Eclipse mac 下的快捷键

2019独角兽企业重金招聘Python工程师标准>>> Eclipse&#xff0c;MyEclipse 的preference 在“windows”下边&#xff0c;mac下在左上角苹果图标边上 win下我们都习惯了ctrl c&#xff0c;在Mac 下使用标准键盘变成了win键c 系统的偏好设定 -> 键盘 -> 修饰…