2017-04-18 75 views
0

我正在寻找一种适用于我的数据的alexa和googlenet tensorflow的multigpu现成算法。我发现许多基准代码,例如convnet bench,http://www.comp.hkbu.edu.hk/%E2%88%BCchxw/dlbench.html[1]。但没有什么能够满足我的上述需求。对于例如,在朱古力的情况下,我只是在CNTK的情况下运行multigpu alexnb googlenet tensorflow

caffe train --solver=googlenet.prototxt --gpu=0,1,2,3,4,5,6,7

同样,我跑

mpiexec -n <#workers> python AlexNet_ImageNet_Distributed.py -datadir myimages/

MXNet还提供更方便的接口运行alexnet和googlenet 。

我也看了苗条tensorflow

DATASET_DIR=/tmp/imagenet 
TRAIN_DIR=/tmp/train_logs 
python train_image_classifier.py \ 
    --train_dir=${TRAIN_DIR} \ 
    --dataset_name=imagenet \ 
    --dataset_split_name=train \ 
    --dataset_dir=${DATASET_DIR} \ 
    --model_name=inception_v3 

但目前尚不清楚在model_deploy更改使用多GPU的定义。

但是,在张量流中,我找不到任何现成的,只需要运行gpu的数量和图像路径来训练多个GPU。有没有我可以使用的现成的python/C++代码,或者是否需要通过扩展tensorflow中的cifar_10_multi_gpu示例来自己构建一个?

回答

0

最简单的方法来设置您的GPU设备export CUDA_VISIBLE_DEVICES=0,1,2,3,...