tensorflow-gpu

    0热度

    2回答

    我知道这个错误是经常性的,我明白什么能导致它。 例如,运行这个模型的150×150 163个图像给我的错误(但它不是很清楚,我为什么设置的batch_size Keras似乎仍然试图在同一时间分配所有图像的GPU): model = Sequential() model.add(Conv2D(64, kernel_size=(6, 6), activation='relu', input

    1热度

    1回答

    我正在尝试将训练文本文件转换为bin文件以训练tensorflow的文本。但我遇到了以下错误: $ python textsum/data_convert_example.py --command text_to_binary --in_file data/tt.txt --out_file data/bin_data_train Traceback (most recent call last

    1热度

    1回答

    我试图在.csv数据集(5008列,533行)上训练模型。 我使用的TextReader将数据解析为两个张量,一个保存数据对[例如]和一个训练保持正确的标签[标签]: def read_my_file_format(filename_queue): reader = tf.TextLineReader() key, record_string = reader.read(fil

    1热度

    1回答

    keras tensorflow-cpu后端与tensorflow-gpu后端是否有区别(代码中)?如果我想将tensorflow从cpu更改为gpu,我需要添加哪些代码或需要设置哪些环境变量? 从keras link我知道我可以使用tf.devices - 就像下面的代码一样。但是如果我想要整个代码,而不是仅仅一部分在GPU上运行呢? with tf.device('/gpu:0'):

    0热度

    1回答

    我试图在Google Cloud的ML引擎上运行大型分布式张量流模型,并且无法理解tf.train.ClusterSpec应该如何运行。 当您在Google Cloud上运行作业时,您可以从BASIC,STANDARD_1,PREMIUM_1,BASIC_GPU或CUSTOM中选择scale tier,每个都可以访问不同类型的群集。但是,我无法在这些群集中找到机器的名称/地址。

    0热度

    1回答

    我在运行pip安装时运行pypi.python.org时出现超时--upgrade tensorflow_gpu,所以我添加了--verbose和--timeout 10000个参数。它开始了快速然后开始抓取: 1% |▌ | 747kB 244bytes/s eta 2 days, 9:31:36 是否有安装时,在Windows中的virtualenv内tensorflow-G

    -2热度

    1回答

    我是一名软件开发人员,我想尝试人工智能,机器学习等。我想了解可用的不同算法和技术,如何使用它们以及哪些算法适用于不同类型的挑战。 TensorFlow看起来像开始试验的好软件,所以我将从TF开始。 我对图像处理没有兴趣。我最感兴趣的是理解数据模式和做出预测。 我能试验所有常见的例子,并尝试所有TF的算法和功能,只用8个线程的现代i7,或者我肯定会需要GPU以便在每个实验之间不要等待几个小时?如果我

    0热度

    1回答

    我已经将数据集分成了10个tfrecords文件,我想从每个文件中读取100个数据点以创建一个包含100个数据点的10个序列的批次。我使用以下功能来做到这一点。 tfrecords的数据加载时间开始较慢,然后达到0.65s左右,100-200之后sess.run称它增加到10s左右。您能否指出可能有助于减少阅读时间的错误或建议?另外,我提到的行为有时更加不稳定。 def get_data(mini

    -1热度

    1回答

    在TensorFlow中,如何将每个图像与不同2D内核的minibatch进行卷积?图像的每个小批次的大小为[10000, 32, 32],对应的过滤器的大小为[10000, 2, 2] --- 10000个内核,每个2像素×2像素。我想获得尺寸为[10000, 31, 31]的输出。 (I打算步幅长度设置的所有为1,并且使用“VALID”选项关闭填充,所以输出图像将具有尺寸31x31而输入图像具

    1热度

    1回答

    这里是为了澄清我的意思是一个例子: 首先session.run(): First run of a TensorFlow session 后来session.run(): Later runs of a TensorFlow session 我明白TensorFlow在这里做一些初始化,但我想知道这在源代码中的位置。这发生在CPU和GPU上,但在GPU上效果更加突出。例如,在明确的Conv2D操作