hpc

    0热度

    1回答

    请参考下面的收集代码: from mpi4py import MPI comm = MPI.COMM.WORLD size = comm.Get_size() rank = comm.Get_rank() stat = MPI.Status() message = (rank)**2 print "Before Gather ",rank, message message =

    0热度

    1回答

    我开展图搜索算法的研究。在这项研究中,为了比较两种算法的运行时间性能,可靠地(即可重新生成)测量单线程程序的运行时间的能力是极其重要的。运行时间是在程序内部测量的(用C++编写的),并且不包括任何对二级存储器的访问(只发生在初始输入阶段)。我曾经有权访问真实(即非云)HPC群集的专用节点。我记得,当我在这样一个节点上运行程序两次(使用相同的输入)时,我得到的时间测量结果只有百分之几的不同。问题是:

    0热度

    1回答

    我正在使用HPC Pack群集。我想使用HPC包作业管理器来运行我的任务。 我应该在哪里保存.exe文件?

    1热度

    1回答

    我正在使用HPC群集。我成功创建了本地openmpi_gpu模块(使用intel17.2和cuda 8.0编译)。我所做的是,存储cuda_17.2.lua文件目录 ${HOME}/modulefiles/Core/openmpi_gpu/ 并经过 module use $HOME/modulefiles/Core 我可以通过键入module avail看到新的模块“openmpi_gpu

    0热度

    1回答

    当I型: mpiexec -n 12 ./Main 我得到的消息:使用具有1线/节点12个节点 ,共计12个处理 我想我的整个的将一组内核识别为1节点并运行其中的所有12个线程,而不是将12个独立作业发送到12个内核中的每一个。

    3热度

    1回答

    我在想,是否有一种简单的方法可以在每个区域设置一个全局变量的副本,以便以后每个区域设置都可以直接访问其本地副本而不是访问原始变量存储在locale0中? 感谢

    0热度

    1回答

    我正尝试将数组发送到超立方体系结构中的不同处理器。问题是它要么不发送给所有的处理器,要么发送给错误的处理器。当我尝试发送一个整数时,它可以正常工作。 下面是代码: void hypercube(int d,int my_id,int X[]){ mask = (int)pow((double)2,d)-1; for(i = d-1;i>=0;i--){ //printf("

    1热度

    2回答

    我发现这让我在这似乎不过工作我仍然不确定,如果我完全理解为什么,所以这个问题的脚本到一些非常类似的问题.. 我的问题(例如):在3个节点,我想在每个节点上运行12个任务(总共36个任务)。另外每个任务都使用OpenMP并应使用2个CPU。在我的情况下,一个节点有24个CPU和64GB内存。我的脚本是: #SBATCH --nodes=3 #SBATCH --ntasks=36 #SBATCH

    -2热度

    1回答

    我已经建立了一个具有1个头节点和3个计算节点的小型集群。我的客户机是用于提交工作簿卸载作业的Windows 2016 Server。我的问题 - HPC非常缓慢;如果我在本地计算机上运行作业,则运行速度比HPC群集上的速度快10倍左右!我节点的配置如下: Headnode:2vCPU和8GB内存 计算节点:1vCPU和4GB内存的每个 我有一个可疑的问题可能是与节点之间的通信网络。或者完全不同的东

    2热度

    1回答

    我正在使用OpenCl开展我的项目。为了提高我的算法的性能,是否可以管道一个内核?如果一个内核由多个步骤组成,让我们说A,B,C,我希望A在完成它的部分并将它传递给B时接受新数据。我可以在它们之间创建通道,但是我不知道如何执行它详细。 我可以在.cl文件中写入A,B,C(3个内核)吗?但如何入列NDRange? 我正在使用Altera SDK进行FPGA HPC开发。 谢谢。