不懂GPU深度学习,何以谈人工智能?

  • 时间:
  • 浏览:0

随着深层网络层数的增加,训练集动辄以T为单位计算,现在深层学习的训练可能性离不开GPU了,而GPU的计算能力也在不断的提升,以满足深层学习训练的计算需求。

Alex当时使用的数据集中含110万张高清图片,受限于单块GTX 5500 GPU 3GB的内存,我们都使用了2块GPU来训练我们都中含50000万参数和610万神经节点的网络,当时花了5~6天的时间。可不时要想象,没有 GPU的加速,要完成没有 大规模的数据集的多层神经网络训练最少多长的时间。

2012年,Geoffrey E. Hinton(与Yann LeCun 和Yoshua Bengio并称为深层学习三驾马车)的弟子Alex Krizhevsky在ILSVRC-2012的图像分打比方赛中使用2块Nvidia GTX 5500 GPU训练的多层神经网络(并且被称为AlexNet)以15.3%的top-5测试错误率摘得冠军,而使用传统辦法 的第二名的成绩是26.2%,整整提高了10多个百分点。这也成为了深层学习发展史上的里程碑事件,从此深层神经网络一炮走红,此后ILSVRC的优胜者总爱 被深层神经网络霸占。

可不时要说深层学习爆发有4个 主要意味 , 4个 是像ImageNet另4个 的大规模数据集的总出 ,而另4个 重要意味 本来 计算能力的提高,而这主要得益于GPU用于深层学习的加速,尤其是深层学习训练的加速

这不得不提到2012年的一场竞赛...

其实深层学习肩头的神经网络基础理论早在上世纪500年代就已提出,经过几起几落的发展,到了21世纪初,多层神经网络算法也日趋心智心智心智心智成熟。深层学习理论早在十多年以前时要重要突破,为什么么直到近年才总出 爆发?

一年半以前,AlphaGo完胜李世乭的围棋赛让深层学习(Deep Learning)你这个名词家喻户晓,再度掀起了人工智能的新一波热潮。