我正在寻找一种适用于我的数据的alexa和googlenet tensorflow的multigpu现成算法。我发现许多基准代码,例如convnet bench,http://www.comp.hkbu.edu.hk/%E2%88%BCchxw/dlbench.html[1]。但没有什么能够满足我的上述需求。对于例如,在朱古力的情况下,我只是在CNTK的情况下运行multigpu alexnb googlenet tensorflow
caffe train --solver=googlenet.prototxt --gpu=0,1,2,3,4,5,6,7
同样,我跑
mpiexec -n <#workers> python AlexNet_ImageNet_Distributed.py -datadir myimages/
MXNet还提供更方便的接口运行alexnet和googlenet 。
我也看了苗条tensorflow
DATASET_DIR=/tmp/imagenet
TRAIN_DIR=/tmp/train_logs
python train_image_classifier.py \
--train_dir=${TRAIN_DIR} \
--dataset_name=imagenet \
--dataset_split_name=train \
--dataset_dir=${DATASET_DIR} \
--model_name=inception_v3
但目前尚不清楚在model_deploy更改使用多GPU的定义。
但是,在张量流中,我找不到任何现成的,只需要运行gpu的数量和图像路径来训练多个GPU。有没有我可以使用的现成的python/C++代码,或者是否需要通过扩展tensorflow中的cifar_10_multi_gpu示例来自己构建一个?