您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
人工智能开发者 正文
发私信给AI研习社
发送

0

DeepLearning4j 实战:手写体数字识别的 GPU 实现与性能对比

本文作者: AI研习社 2017-05-19 16:58
导语:GPU 到底有多快?

DeepLearning4j 实战:手写体数字识别的 GPU 实现与性能对比

雷锋网按:本文作者 wangongxi,原文载于作者个人博客,雷锋网已获授权。

在之前的博客中已经用单机、Spark分布式两种训练的方式对深度神经网络进行训练,但其实DeepLearning4j也是支持多GPU训练的。

这篇文章我就总结下用GPU来对DNN/CNN进行训练和评估过程。并且我会给出CPU、GPU和多卡GPU之前的性能比较图表。不过,由于重点在于说明Mnist数据集在GPU上训练的过程,所以对于一些环境的部署,比如Java环境和CUDA的安装就不再详细说明了。

软件环境的部署主要在于两个方面,一个是JDK的安装,另外一个是CUDA。目前最新版本的DeepLearning4j以及Nd4j支持CUDA-8.0,JDK的话1.7以上。

环境部署完后,分别用java -version和nvidia-smi来确认环境是否部署正确,如果出现类似以下的信息,则说明环境部署正确,否则需要重新安装。

  GPU配置:

DeepLearning4j 实战:手写体数字识别的 GPU 实现与性能对比

  Java环境截图:

DeepLearning4j 实战:手写体数字识别的 GPU 实现与性能对比

从系统返回的信息可以看到,jdk是openJDK1.7,GPU是2张P40的卡。

  下面说明下代码的构成:

由于我这里用了DeepLearning4j最新的版本--v0.8,所以和之前博客的pom文件有些修改,具体如下:

<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">  

  <modelVersion>4.0.0</modelVersion>  

  <groupId>DeepLearning</groupId>  

  <artifactId>DeepLearning</artifactId>  

  <version>2.0</version>  

    

  <properties>  

    <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>  

    <nd4j.version>0.8.0</nd4j.version>  

    <dl4j.version>0.8.0</dl4j.version>  

    <datavec.version>0.8.0</datavec.version>  

    <scala.binary.version>2.11</scala.binary.version>  

  </properties>  

    

 <dependencies>  

       <dependency>  

         <groupId>org.nd4j</groupId>  

         <artifactId>nd4j-native</artifactId>   

         <version>${nd4j.version}</version>  

       </dependency>  

       <dependency>  

            <groupId>org.deeplearning4j</groupId>  

            <artifactId>deeplearning4j-core</artifactId>  

            <version>${dl4j.version}</version>  

        </dependency>  

        <dependency>  

         <groupId>org.nd4j</groupId>  

         <artifactId>nd4j-cuda-8.0</artifactId>  

         <version>${nd4j.version}</version>  

        </dependency>  

        <dependency>  

            <groupId>org.deeplearning4j</groupId>  

            <artifactId>deeplearning4j-parallel-wrapper_${scala.binary.version}</artifactId>  

            <version>${dl4j.version}</version>  

        </dependency>  

    </dependencies>  

  <build>  

    <plugins>  

        <plugin>  

            <groupId>org.apache.maven.plugins</groupId>  

            <artifactId>maven-jar-plugin</artifactId>  

            <version>2.4</version>  

            <configuration>  

                <source>1.7</source>   

                <target>1.7</target>   

                <archive>  

                    <manifest>  

                        <mainClass>cn.live.wangongxi.cv.CNNMnist</mainClass>  

                    </manifest>  

                </archive>  

            </configuration>  

        </plugin>  

    </plugins>  

</build>  

</project>  

创建完Maven工程以及添加了上面POM文件的内容之后,就可以开始着手上层应用逻辑的构建。这里我参考了官网的例子,具体由以下几个部分构成:

● 初始化CUDA的环境(底层逻辑包括硬件检测、CUDA版本校验和一些GPU参数)

● 读取Mnist二进制文件(和之前的博客内容一致)

● CNN的定义,这里我还是用的LeNet

● 训练以及评估模型的指标

首先贴一下第一部分的代码:

//精度设置,常用精度有单、双、半精度  

//HALF : 半精度  

DataTypeUtil.setDTypeForContext(DataBuffer.Type.HALF);  

//FLOAT : 单精度  

//DataTypeUtil.setDTypeForContext(DataBuffer.Type.FLOAT);  

//DOUBLE : 双精度  

//DataTypeUtil.setDTypeForContext(DataBuffer.Type.DOUBLE);  

  

//创建CUDA上下文实例并设置参数  

   CudaEnvironment.getInstance().getConfiguration()  

    //是否允许多GPU  

       .allowMultiGPU(false)  

       //设置显存中缓存数据的容量,单位:字节  

       .setMaximumDeviceCache(2L * 1024L * 1024L * 1024L)  

       //是否允许多GPU间点对点(P2P)的内存访问  

       .allowCrossDeviceAccess(false);  

通常我们需要根据需要来设置GPU计算的精度,常用的就像代码中写的那样有单、双、半精度三种。通过选择DataBuffer中定义的enum类型Type中的值来达到设置精度的目的。如果不设置,默认的是单精度。

再下面就是设置CUDA的一些上下文参数,比如代码中罗列的cache数据的显存大小,P2P访问内存和多GPU运行的标志位等等。对于网络结构相对简单,数据量不大的情况下,默认的参数就够用了。这里我们也只是简单设置了几个参数,这对于用LeNet来训练Mnist数据集来说已经足够了。

从2~4部分的逻辑和之前的博客里几乎是一样的,就直接上代码了:

int nChannels = 1;  

int outputNum = 10;  

  

int batchSize = 128;  

int nEpochs = 10;  

int iterations = 1;  

int seed = 123;  

  

log.info("Load data....");  

DataSetIterator mnistTrain = new MnistDataSetIterator(batchSize,true,12345);  

DataSetIterator mnistTest = new MnistDataSetIterator(batchSize,false,12345);  

  

log.info("Build model....");  

MultiLayerConfiguration conf = new NeuralNetConfiguration.Builder()  

    .seed(seed)  

    .iterations(iterations)  

    .regularization(true).l2(0.0005)  

    .learningRate(.01)  

    .weightInit(WeightInit.XAVIER)  

    .optimizationAlgo(OptimizationAlgorithm.STOCHASTIC_GRADIENT_DESCENT)  

    .updater(Updater.NESTEROVS).momentum(0.9)  

    .list()  

    .layer(0, new ConvolutionLayer.Builder(5, 5)  

        .nIn(nChannels)  

        .stride(1, 1)  

        .nOut(20)  

        .activation(Activation.IDENTITY)  

        .build())  

    .layer(1, new SubsamplingLayer.Builder(SubsamplingLayer.PoolingType.MAX)  

        .kernelSize(2,2)  

        .stride(2,2)  

        .build())  

    .layer(2, new ConvolutionLayer.Builder(5, 5)  

        .stride(1, 1)  

        .nOut(50)  

        .activation(Activation.IDENTITY)  

        .build())  

    .layer(3, new SubsamplingLayer.Builder(SubsamplingLayer.PoolingType.MAX)  

        .kernelSize(2,2)  

        .stride(2,2)  

        .build())  

    .layer(4, new DenseLayer.Builder().activation(Activation.RELU)  

        .nOut(500).build())  

    .layer(5, new OutputLayer.Builder(LossFunctions.LossFunction.NEGATIVELOGLIKELIHOOD)  

        .nOut(outputNum)  

        .activation(Activation.SOFTMAX)  

        .build())  

    .setInputType(InputType.convolutionalFlat(28,28,1))  

    .backprop(true).pretrain(false).build();  

MultiLayerNetwork model = new MultiLayerNetwork(conf);  

model.init();  

log.info("Train model....");  

model.setListeners(new ScoreIterationListener(100));  

long timeX = System.currentTimeMillis();  

  

for( int i=0; i<nEpochs; i++ ) {  

    long time1 = System.currentTimeMillis();  

    model.fit(mnistTrain);  

    long time2 = System.currentTimeMillis();  

    log.info("*** Completed epoch {}, time: {} ***", i, (time2 - time1));  

}  

long timeY = System.currentTimeMillis();  

  

log.info("*** Training complete, time: {} ***", (timeY - timeX));  

  

log.info("Evaluate model....");  

Evaluation eval = new Evaluation(outputNum);  

while(mnistTest.hasNext()){  

    DataSet ds = mnistTest.next();  

    INDArray output = model.output(ds.getFeatureMatrix(), false);  

    eval.eval(ds.getLabels(), output);  

}  

log.info(eval.stats());  

  

log.info("****************Example finished********************");  

以上逻辑就是利用一块GPU卡进行Mnist数据集进行训练和评估的逻辑。如果想在多GPU下进行并行训练的话,需要修改一些设置,例如在之前第一步的创建CUDA环境上下文的时候,需要允许多GPU和P2P内存访问,即设置为true。然后在逻辑里添加并行训练的逻辑:

ParallelWrapper wrapper = new ParallelWrapper.Builder(model)  

    .prefetchBuffer(24)  

    .workers(4)  

    .averagingFrequency(3)  

    .reportScoreAfterAveraging(true)  

    .useLegacyAveraging(true)  

    .build();  

这样如果有多张GPU卡就可以进行单机多卡的并行训练。

下面贴一下训练Mnist数据集在CPU/GPU/多GPU下的性能比较还有训练时候的GPU使用情况:

  单卡训练截图:

DeepLearning4j 实战:手写体数字识别的 GPU 实现与性能对比

  双卡并行训练截图:

DeepLearning4j 实战:手写体数字识别的 GPU 实现与性能对比

  训练时间评估:

DeepLearning4j 实战:手写体数字识别的 GPU 实现与性能对比DeepLearning4j 实战:手写体数字识别的 GPU 实现与性能对比

最后做下简单的总结。由于Deeplearning4j本身支持GPU单卡,多卡以及集群的训练方式,而且对于底层的接口都已经进行了很多的封装,暴露的接口都是比较hig-level的接口,一般设置一些属性就可以了。当然前提是硬件包括CUDA都要正确安装。

雷锋网相关阅读:

玩深度学习选哪块英伟达 GPU?有性价比排名还不够!

谷歌说TPU比GPU更牛,Nvidia表示不服,并朝谷歌扔了一块Tesla V100


NLP实战特训班:阿里IDST9大专家带你入门

iDST 九大工程师首次在线授课,带你快速入门NLP技术

课程链接:http://www.mooc.ai/course/83

加入AI慕课学院人工智能学习交流QQ群:624413030,与AI同行一起交流成长


雷峰网版权文章,未经授权禁止转载。详情见转载须知

DeepLearning4j 实战:手写体数字识别的 GPU 实现与性能对比

分享:
相关文章

编辑

聚焦数据科学,连接 AI 开发者。更多精彩内容,请访问:yanxishe.com
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说