gpu

    0热度

    1回答

    我读过Fortran派生类型的手动深度复制是可能的,但下面的简单测试程序在运行时失败;程序与PGI v16.10完全编译。什么出错? program Test implicit none type dt integer :: n real, dimension(:), allocatable :: xm end type dt

    1热度

    1回答

    系统信息(版本) 的OpenCV => 3.2 操作系统/平台=>视窗10 64位创建过滤器 编译=>视觉工作室2015社区 CUDA Toolkit版本=> 8.0 d详细描述 我正在使用基于GPU的功能和操作。我自己构建了带有CUDA支持的OpenCV,并且大多数GPU功能和操作都可以正常工作。但是,当涉及到过滤相关的功能等createGaussianFilter或createSobelFil

    1热度

    1回答

    我正在使用tensorflow与GPU。我的电脑有NVIDIA gforce 750 ti,我将用1080 ti替换它。我是否必须重新安装tensorflow(或其他驱动程序等)?如果确实如此,我需要重新安装什么? 还有一个问题,我可以通过在计算机中安装多一个gpu来加快培训过程吗?

    0热度

    1回答

    所以我进行了一些研究,并有大量的物体的速度和加速度数据的两个人正在一起移动周围的房间。在此之前,我已经成功地训练了一个使用LSTM和RNN的时间序列预测神经网络,以预测物体的速度将是未来的一步。 训练这个神经网络之后,我再增加它使用的预测,与以前的数据一起,来预测另一个时间步走向未来,等了一定数量的时间步长。我已经包含了这个看起来像什么的图形,NN_explanation。从本质上讲,我使用以前的

    1热度

    1回答

    我有一个.cubin文件,但是我无法理解它的sass代码(如ISCADD R26,R21,R2,0x2),没有详细信息来自NVIDIA的网站。所以我想也许ptx文件可能更容易读取。

    0热度

    1回答

    是tiled rendering软件渲染技术,如延期着色或转发+,或者它是否在微体系结构级透明地发生? 我读过的一些资源给出了它可能是两者的直觉。我了解它是如何工作的,以及它为什么用于低功耗GPU,基本上将渲染为瓦片以减少内存带宽。如果知道设备使用平铺渲染(如果它对开发人员透明),是否需要做特殊准备?如果是软件技术,在正向渲染硬件上使用它的意义何在?

    3热度

    1回答

    我试图运行下面的脚本: import silx from silx.image import sift from PIL import Image import numpy import scipy.ndimage from silx.opencl import ocl, pyopencl, kernel_workgroup_size img1 = numpy.asarray(Ima

    0热度

    1回答

    我有一个错误执行以下代码R: hsc = h2o.init(ip="127.0.0.1",port=54321,nthreads=-1,max_mem_size="8G") model_tf <- h2o.deepwater( x = col_start:col_end, y = col_class, backend = "tensorflow", tra

    1热度

    1回答

    我想在SIGGRAPH'16发表的论文中重新检查有关GPU自动调度的实验。 我使用auto-scheduler分支编译了下面的代码,但生成的代码是为CPU预定的。 如何使用自动调度程序为GPU生成时间表? #include "Halide.h" #include "HalideBuffer.h" #include <climits> #include <iostream> using n

    0热度

    1回答

    我有以下错误试图增加batch_size对Nvidia的K80 CNN的模型: 2017-08-07 20:33:38.573318: W tensorflow/core/common_runtime/bfc_allocator.cc:217] Allocator (GPU_0_bfc) ran out of memory trying to allocate 3.04GiB. The calle