gpu

    1热度

    1回答

    在令人尴尬的并行程序中使用GPU的缺点是什么?

    0热度

    2回答

    我的应用程序包含一个短的函数,它将SFML GPU缓冲区(sf::RenderTexture转换为sf::Image)复制到二维颜色数组中(存储在RAM中并由CPU处理)。这里是代码: const sf::Image image = renderTexture.getTexture().copyToImage(); for (Point_t y = 0; y < totalHeight; ++

    4热度

    1回答

    从NVIDIA CUDA C Programming Guide: 注册用法可以使用编译器maxrregcount 选项控制或如启动界描述启动边界。 从我的理解(和纠正我,如果我错了),而-maxrregcount限制寄存器整个.cu文件可以使用的数量,__launch_bounds__预选赛定义每个__global__内核maxThreadsPerBlock和minBlocksPerMultip

    0热度

    1回答

    来自AWS,我对Azure完全陌生,特别是云服务。 我想编写一个在PaaS架构(平台即服务)中利用Azure上的GPU的python应用程序。该应用程序将有望部署在某个中央位置,然后许多启用GPU的节点将启动并运行应用程序,直到完成再关闭。 我想知道,在Azure中完成此操作的最简单方法是什么? 我的假设是否正确,我将需要使用带有辅助角色的所谓Cloud Services,还是必须根据在IaaS中

    2热度

    2回答

    everyone, 我遇到了一个问题,我安装了两个版本的TensorFlow,如下图所示。 two versions of tensorflow 缺省版本为1.1.0 TensorFlow。见下文。 the default version of tensorflow 如何更改默认的版本?

    0热度

    1回答

    Qualcomm正在读取Adreno GPU作为SOC我想出了一个问题,它们的内存都相同吗? 如果是,是否有像CUDA的统一虚拟寻址(UVA)那样的虚拟寻址? 另外,如果情况并非如此,那么CUDA 6的统一内存模型在这里支持了吗?

    1热度

    1回答

    我有两个模型(theano脚本),我想训练和评估。 我有两个GPU可以用来训练它们。 如何在同一时间在每个GPU上运行模型?

    -2热度

    1回答

    我可以在Linux Mint 18.1 Serena(Cinnamon桌面环境)上安装CUDA工具包吗?我问这是因为它没有在支持的操作系统列表中列出,尽管它具有基于Ubuntu 16.04的相同体系结构。我的GPU是NVidia GeForce 820M。 CPU - i5第五代5200U。 4GB RAM DDR3。

    1热度

    1回答

    我正在尝试使用以下instructions构建支持GPU的xgboost。 我在我的Ubuntu 17.04系统上安装了GCC 6。 但是当编译器试图构建以下模块: nccl/CMakeFiles/cuda_compile_1.dir/src/cuda_compile_1_generated_reduce_scatter.cu.o 我得到以下错误: /usr/include/c++/6/tup

    0热度

    2回答

    我知道这个错误是经常性的,我明白什么能导致它。 例如,运行这个模型的150×150 163个图像给我的错误(但它不是很清楚,我为什么设置的batch_size Keras似乎仍然试图在同一时间分配所有图像的GPU): model = Sequential() model.add(Conv2D(64, kernel_size=(6, 6), activation='relu', input