2016-01-13 76 views
2

我正在研究一个更大的程序,我正在与MPI_Gather进行斗争。MPI_Gather在最基本的代码中给出了seg错误

我写了一个最小的示例代码,见下文。

program test 
    use MPI 
    integer :: ierr, rank, size 
    double precision, allocatable, dimension(:) :: send, recv 

    call MPI_Init(ierr) 

    call MPI_Comm_size(MPI_COMM_WORLD, size, ierr) 
    if (ierr /= 0) print *, 'Error in MPI_Comm_size' 
    call MPI_Comm_rank(MPI_COMM_WORLD, rank, ierr) 
    if (ierr /= 0) print *, 'Error in MPI_Comm_size' 

    allocate(send(1), recv(size)) 

    send(1) = rank 

    call MPI_Gather(send, 1, MPI_DOUBLE_PRECISION, & 
        recv, 1, MPI_DOUBLE_PRECISION, 0, MPI_COMM_WORLD) 
    print *, recv 
    call MPI_Finalize(ierr) 
end program test 

当(有2个节点)时,我得到以下错误输出。

[jorvik:13887] *** Process received signal *** 
[jorvik:13887] Signal: Segmentation fault (11) 
[jorvik:13887] Signal code: Address not mapped (1) 
[jorvik:13887] Failing at address: (nil) 
[jorvik:13888] *** Process received signal *** 
[jorvik:13888] Signal: Segmentation fault (11) 
[jorvik:13888] Signal code: Address not mapped (1) 
[jorvik:13888] Failing at address: (nil) 
[jorvik:13887] [ 0] /lib/x86_64-linux-gnu/libc.so.6(+0x36150) [0x7f6ab77f8150] 
[jorvik:13887] [ 1] /usr/lib/libmpi_f77.so.0(PMPI_GATHER+0x12d) [0x7f6ab7ebca9d] 
[jorvik:13887] [ 2] ./test() [0x4011a3] 
[jorvik:13887] [ 3] ./test(main+0x34) [0x401283] 
[jorvik:13887] [ 4] /lib/x86_64-linux-gnu/libc.so.6(__libc_start_main+0xed) [0x7f6ab77e376d] 
[jorvik:13887] [ 5] ./test() [0x400d59] 
[jorvik:13887] *** End of error message *** 
[jorvik:13888] [ 0] /lib/x86_64-linux-gnu/libc.so.6(+0x36150) [0x7f0ca067d150] 
[jorvik:13888] [ 1] /usr/lib/libmpi_f77.so.0(PMPI_GATHER+0x12d) [0x7f0ca0d41a9d] 
[jorvik:13888] [ 2] ./test() [0x4011a3] 
[jorvik:13888] [ 3] ./test(main+0x34) [0x401283] 
[jorvik:13888] [ 4] /lib/x86_64-linux-gnu/libc.so.6(__libc_start_main+0xed) [0x7f0ca066876d] 
[jorvik:13888] [ 5] ./test() [0x400d59] 
[jorvik:13888] *** End of error message *** 

我在做什么错? MPI肯定是安装在我正在使用的机器上运行的。

+0

它运行在一个进程上吗?如果是这样,请通过GDB和/或Valgrind运行。 – Jeff

回答

4

最大的问题是你没有在MPI_Gather的调用中包含最后的参数。 doc说

Fortran中的所有MPI例程(MPI_WTIME和MPI_WTICK除外)在参数列表的末尾都有一个额外的参数ierr。

除此之外,我的建议是始终坚持良好的做法:不要使用固有的函数名称作为变量,例如size

program test 
    use MPI 
    integer :: ierr, rank, nProc 
    double precision, allocatable, dimension(:) :: send, recv 

    call MPI_Init(ierr) 
    if (ierr /= 0) print *, 'Error in MPI_Init' 

    call MPI_Comm_size(MPI_COMM_WORLD, nProc, ierr) 
    if (ierr /= 0) print *, 'Error in MPI_Comm_size' 
    call MPI_Comm_rank(MPI_COMM_WORLD, rank, ierr) 
    if (ierr /= 0) print *, 'Error in MPI_Comm_size' 

    allocate(send(1), recv(nProc)) 

    send(1) = rank 

    call MPI_Gather(send, 1, MPI_DOUBLE_PRECISION, & 
        recv, 1, MPI_DOUBLE_PRECISION, 0, MPI_COMM_WORLD, ierr) 
    if (ierr /= 0) print *, 'Error in MPI_Gather' 
    print *, recv 
    call MPI_Finalize(ierr) 
end program test 
+0

谢谢,现在完美! – Marcel

3

你忘了返回错误代码添加到调用MPI_Gather作为最后一个参数。返回码的值正被写入未映射的地址。

它应该在编译阶段读

call MPI_Gather(send, 1, MPI_DOUBLE_PRECISION, & recv, 1, MPI_DOUBLE_PRECISION, 0, MPI_COMM_WORLD, ierr)

ifort捕获此。它看起来像你的编译器(gfortran?)不是

+0

这是MPI库比编译器更多的问题。 –

+0

谢谢,那是问题所在。古芙兰确实没有捕捉到这一点。 – Marcel