tensorflow-gpu

    0热度

    2回答

    我有与the similar question相同的问题,并尝试提出的解决方案,但它没有奏效。在下面你可以找到堆栈跟踪。我在Windows 10 x64上使用Python 3.5.2和GPU NVidia Geforce 1050.我还检查了TensorFlow网站common errors。 C:\Users\Steph>ipython Python 3.5.2 (v3.5.2:4def2a2

    2热度

    2回答

    所以我正在学习如何使用Tensorflow来微调自定义数据集的Inception-v3模型。 我发现了两个与此相关的教程。一个是关于“How to Retrain Inception's Final Layer for New Categories”,另一个是“ Train your own image classifier with Inception in TensorFlow with Fi

    1热度

    1回答

    在我看来,numpy功能bincount是非常有用和简单的使用,所以我自然使用TensorFlow中的模拟功能。最近我了解到,不幸tf.bincount不支持GPU(因为您可以阅读here)。在TensorFlow 与 GPU中有效吗?有没有其他方法可以加权直方图? sess = tf.Session() values = tf.random_uniform((1,50),10,20,dtyp

    1热度

    1回答

    我在linux上运行tensorflow后端keras。 首先,我本身安装tensorflow GPU版本,运行下面的代码检查,并发现它是在GPU上运行,并显示它的运行在GPU上,设备映射,等我用tensorflow来自https://storage.googleapis.com/tensorflow/linux/gpu/tensorflow- 0.11.0-cp27-none-linux_x86

    0热度

    1回答

    对于Tensorflow我有些新意,并且想知道在构建图时我应该牢记什么样的性能考虑因素。 我的主要问题是,当将多个操作嵌套在单个节点时,与将每个操作分配给单独的节点相比,是否有任何计算性能变化。例如,如果我想使用批量归一化,接着是致密层,和一个RELU,我可以使得所有三个操作在单个节点执行构造它: input=tf.placeholder(shape=[None,input_len],dtype=

    1热度

    1回答

    tensorflow 1.2.1 CUDA 8.0.61.2 当与巴泽尔编译tensorflow,我得到一个错误: ./tensorflow/core/util/cuda_kernel_helper。 H(620):错误:标识符 “__shfl” 未定义 ./tensorflow/core/util/cuda_kernel_helper.h(640):错误:标识符 “__shfl_up” 未定义

    0热度

    1回答

    (张贴在这里提交问题之前tensorflow他们的问题模板建议) 我试图建立一个tensorflow泊坞窗图像与Python 3.6,我有以下Dockerfile FROM nvidia/cuda:8.0-cudnn5-devel-ubuntu16.04 RUN apt-get update \ && apt-get install -y --no-install-recommends \

    0热度

    1回答

    列表X[1, 100, 5],list Y[1, 100]是python,tensorflow 我要洗牌,X's 100和Y's 100以相同的随机。 X = random.shuffle(X[0]) Y=random.shuffle(Y[0]) together = zip(X[0], Y[0]) together_shuffle = random.shuffle(together)

    0热度

    1回答

    因此,我用TensorFlow r1.2实现了这个非常大而深的模型,运行在具有12 GB内存的NVIDIA Tesla k40上。该模型由多个RNN,一堆权重和嵌入矩阵以及偏向量组成。当我启动培训计划时,首先需要大约2-3小时才能建模,然后由于OOM问题而崩溃。我试图将批量减少到每批次的1个数据样本,但仍遇到同样的问题。 如果我谷歌tensorflow muitlple gpu,这些例子我发现主要

    0热度

    1回答

    我使用"scaleTier": "BASIC_GPU"运行谷歌的云ML工作,和下面的表列出的应用细节: 我在自定义估算器上使用learn_runner.run(...)执行实验,并使用基于管道的方法使用文件名队列提供输入以读取数据。 正在使用管道为基础的低内存利用率的主要原因,是否有我应该考虑优化培训利用率?