登录后你可以:
首次使用?点我去注册
首先,深度卷积神经网络需求大量数据停止训练。网络深度太浅的话,辨认才能往往不如普通的浅层模型,比如SVM或者boosting;假如做得很深,就需求大量数据停止训练,否则机器学习中的过拟合将不可避免。而2006年末尾,正好是互联网末尾大量产生各种各样的图片数据的时分,即视觉大数据末尾迸发式地增长。 其次,是运算才能。卷积神经网络对计算机的运算要求比较高,需求大量反复可并行化的计算,在当时CPU只要单核且运算才能比较低的状况下,不能够停止很深的卷积神经网络的训练。随着GPU计算才能的增长,卷积神经网络结合大数据的训练才成为能够。 最后,就是人和。卷积神经网络有一批不断在坚持的迷信家(如Lecun)才没有被沉默,才没有被海量的浅层方法淹没。最后终于看到卷积神经网络占领主流的曙光。
您需要 登录 才可以下载或查看,没有帐号?立即注册
使用道具 举报
本版积分规则 发表回复 回帖后跳转到最后一页