gpu

    1热度

    1回答

    我搜索一些关于GPU如何工作的信息。从不同的来源中我发现用于硬件加速的L(变换和照明)技术。例如,它计算多边形照明。但据我所知,今天开发人员正在使用可编程图形管道,并通过着色器创建照明。 那么,今天用的T & L是什么?

    1热度

    3回答

    我有tensorflow-gpu 1.2.1和keras在Ubuntu 16.04上。 我不能够执行: from kears.utils import multi_gpu_model 有没有人有multi_gpu_model成功在他们的文档的常见问题解答部分描述? 我有一个4 GPU计算机与4个GeForce GTX 1080 Ti卡,并希望使用他们所有。 这是我得到的错误: import k

    1热度

    3回答

    我有一个分割图像作为独特标签1 ... k的2维矩阵。例如: img = [1 1 2 2 2 2 2 3 3] [1 1 1 2 2 2 2 3 3] [1 1 2 2 2 2 3 3 3] [1 4 4 4 2 2 2 2 3] [4 4 4 5 5 5 2 3 3] [4 4 4 5 5 6 6 6 6] [4 4 5 5

    1热度

    1回答

    在下面的代码中,我尝试搜索xgboost的不同超参数。 param_test1 = { 'max_depth':list(range(3,10,2)), 'min_child_weight':list(range(1,6,2)) } predictors = [x for x in train_data.columns if x not in ['target', 'id']] gsea

    3热度

    1回答

    我有两个不同的机器上安装两颗GPU。我想建立一个集群,让我通过使用两个GPU一起学习Keras模型。 Keras blog在显示两段代码分布式培训部分和链接官方Tensorflow documentation。 我的问题是,我不知道如何学习我的模型,写在Keras,用实际描述Tensorflow对象的过程Tensorflow文档。 例如,我应该怎么做,如果我想多GPU的集群上执行下面的代码? #

    2热度

    1回答

    如何编程keras或tensorflow以划分多GPU上的训练,假设您处于一个amaozn ec2实例,其中有8个GPU,并且您希望使用它们全部训练得更快,但是您的代码仅适用于单个CPU或GPU?

    1热度

    1回答

    这与使电脑进入睡眠模式相似。仅供参考:我在使用Kubernetes管理容器的情况下提出这个问题。 问的原因是我们想运行许多交互式作业,并希望当用户没有积极处理这些作业时暂停这些作业,以便资源可以被其他用户发布和使用。

    0热度

    1回答

    我正在尝试学习CUDA。我在基于GPU的文章this的帮助下开始尝试矩阵乘法。 我的主要问题是我无法理解如何访问内核中的2D数组,因为访问2D数组与矩阵[i] [j]有点不同。 这是我坚持的部分: for (int i = 0; i < N; i++) { tmpSum += A[ROW * N + i] * B[i * N + COL]; } C[ROW * N + COL] =

    0热度

    1回答

    您好我想通过安装CUDA,cuDNN等来让Tensorflow GPU工作。我遵循了Tensorflow网站上的所有步骤以及几个安装教程。但是,我一直卡住了一段时间,出现以下错误。有谁知道什么可能是错的?提前致谢。 >>> import tensorflow Traceback (most recent call last): File "C:\Users\maxhx\Anaconda

    1热度

    1回答

    已经测试了一些GPU +成功NVENC X.264编码的AWS现在我与谷歌的云计算测试(特斯拉P100 GPU运行Windows SVR的2016) 它不会看起来像NVENC正在工作,有没有人用Windows来实现这一点?或有任何指针? GPU Status on Google Cloud