multi-gpu

    3热度

    1回答

    什么是用CUDA/MPI等进行编程的最佳IDE/IDE插件/工具等? 我一直在这些框架中工作了一段时间,但感觉像IDE可能在缩放和作业处理交互方面做得更加沉重。 (我通常都是使用Eclipse或NetBeans和通常在C/C++,偶尔Java和它的一个模糊的问题,但我想不出任何更具体的方式把它)

    1热度

    1回答

    有没有人在Cuda4上成功测试过这个功能?看来我无法正确地工作,不确定它是否是我的代码中的错误,或者功能尚未完全实现。 例如,我想在从1 gpu将内存复制到另一个内存后执行内核调用。流0,mem0在gpu0流1上创建,mem1在gpu1上创建。两者都是费米特斯拉(C2070) cudaMemcpyAsync(mem1, mem0, size, cudaMemcpyDefault, stream0)

    7热度

    3回答

    无论硬件配置如何,是否从.NET的Screen.AllScreens返回所有显示?例如,在单个PC上可以有: 视频卡出两个显示=总2个显示 视频卡的每个缩小到1个显示=总2个显示, 视频卡的每个出2个显示= 6级的显示器, 宽域卡出来6个显示器(上DisplayPort的) 在所有这些情况下,如果我使用Screen.AllScreens可以予单独访问每个显示? 另外,如果我在扩展模式下有一张卡,这

    1热度

    1回答

    PyCUDA的所有缺陷通常都有非常好的示例,并且可以从wiki下载。但是我在示例或文档(或粗略的谷歌搜索)中找不到任何内容,说明PyCUDA将工作负载分配给多个设备的方式。 任何人都可以暗示我应该做什么或指向我的例子吗? 我脑海中浮现出的一个想法是使用多处理技术,生成N个进程池,每个进程绑定到一个设备,然后调用该类时(我的所有gpu函数都在单独的类中;可能不是最好的主意,但它的工作原理)它循环的多

    10热度

    2回答

    在Mac OS X中,每个显示屏都会分配一个唯一的CGDirectDisplayID号码。您可以使用CGGetActiveDisplayList()或[NSScreen screens]来访问它们等等。每Apple's docs: 一种显示ID可以跨 流程和系统重新启动持续存在,并典型地 保持恒定,只要 某些显示参数不 变化。 在2010年中期的MacBook Pro上,Apple开始使用自动切换