2013-03-04 195 views
1
#include <iostream> 
#include <iomanip> 
#include <fstream> 
#include <sstream> 
#include <string> 
#include <stdio.h> 
#include <stdlib.h> 
#include <math.h> 
#include <omp.h> 
using namespace std; 


void output(float a[], float X[], float Y[], int I, int J) 
{ 
    ofstream ft; 
    int i; 

    ft.open("flow.dat"); 
    ft<<"variables=\"x\",\"y\",\"a\""<<"\n" 
    <<"zone f=point"<<"\n" 
    <<"I="<<I<<",J="<<J<<"\n" 
    <<endl; 

    for(int i=0;i<I*J;i++) 
    { 
    ft<<setiosflags(ios::scientific) 
     <<X[i]<<" "<<Y[i]<<" "<<a[i]<<endl; 
    } 

    ft.close(); 

} 

void set(float a[], float X[], float Y[], int I, int J, float hx, float hy) 
{ 
    for(int j=0;j<J;j++) 
    for(int i=0;i<I;i++) 
     { 
     int iC=j*I+i; 
     X[iC]=i*hx; 
     Y[iC]=j*hy; 
     a[iC]=0.0; 
     if(j==J-1) a[iC]=1.0; 
     } 
} 

void difference_serial(float a[], int I, int J, const float hx, const float hy) 
{ 
    const float aC=(hx*hx+hy*hy)*2; 
    const float aX=hy*hy; 
    const float aY=hx*hx; 
    for(int j=1;j<J-1;j++) 
    for(int i=1;i<I-1;i++) 
     { 
     int iC=j*I+i; 
     int iL=iC-1; 
     int iR=iC+1; 
     int iU=iC+I; 
     int iD=iC-I; 
     a[iC]=(aX*(a[iL]+a[iR])+aY*(a[iU]+a[iD]))/aC; 
     } 


} 

void difference_omp(float a[], int I, int J, const float hx, const float hy) 
{ 
    const float aC=(hx*hx+hy*hy)*2; 
    const float aX=hy*hy; 
    const float aY=hx*hx; 

    int i,j,iC,iL,iR,iU,iD; 
#pragma omp parallel for private(i,j,iC,iL,iR,iU,iD) shared(a,I,J) schedule(dynamic) 
    for(j=1;j<J-1;j++) 
    for(i=1;i<I-1;i++) 
     { 
     iC=j*I+i; 
     iL=iC-1; 
     iR=iC+1; 
     iU=iC+I; 
     iD=iC-I; 
     a[iC]=(aX*(a[iL]+a[iR])+aY*(a[iU]+a[iD]))/aC; 
     } 
} 

int main() 
{ 
    const int I=129; 
    const int J=129; 
    const int N=I*J; 
    const float hx=1.0/(I-1); 
    const float hy=1.0/(J-1); 

    float *a=new float[N]; 
    float *X=new float[N]; 
    float *Y=new float[N]; 

    //set the grid and flow 
    set(a,X,Y,I,J,hx,hy); 

    //iteation 
    clock_t start=clock(); 
    for(int it=0;it<10000;it++) 
    difference_serial(a,I,J,hx,hy); 
    clock_t end=clock(); 
    printf("Serial time=%f\n",(float)(end-start)/CLOCKS_PER_SEC); 


    set(a,X,Y,I,J,hx,hy); 
    clock_t start2=clock(); 
    for(int it2=0;it2<10000;it2++) 
    difference_omp(a,I,J,hx,hy); 
    clock_t end2=clock(); 
    printf("Omp time=%f\n",(float)(end2-start2)/CLOCKS_PER_SEC); 

    //output 
    output(a,X,Y,I,J); 

    //free memory 
    delete[] a; 
    delete[] X; 
    delete[] Y; 
} 

我写了一段代码来解决二维非常简单的拉普拉斯方程。试比较串行代码和OpenMP代码为什么我的OpenMP C++代码比串行代码慢?

我试图编译 G ++ tmp.cpp -fopenmp

的代码,并得到了非常奇怪的结果 输出: 串行时间= 1.620000 外膜蛋白时间= 9.820000

有没有人可以帮助我找出背后的原因以及如何纠正OpenMP代码。

+3

你正在测量CPU时间,而不是“挂钟”时间http://en.wikipedia.org/wiki/Wall_clock_time – CharlesB 2013-03-04 16:38:28

+0

这是一个问题,但它没有原来的问题。我拿了代码,并将时间测量值改为'omp_get_wtime()',但它仍然为我的PC提供了omp time 13s和serial 3s。我猜这是平行区域instatation开销。 – luk32 2013-03-04 16:47:26

回答

7

我遇到了有趣的结果。

luk32:~/projects/tests$ g++ -fopenmp -lgomp ./laplace.cpp 
luk32:~/projects/tests$ ./a.out 
Omp time=13.000000 
Serial time=3.000000 
luk32:~/projects/tests$ g++ -O3 -fopenmp -lgomp ./laplace.cpp 
luk32:~/projects/tests$ ./a.out 
Omp time=31.000000 
Serial time=1.000000 

因此,与O3的OpenMP的时间恶化和串行版本下降。我的猜测是问题实例太小,以至于来自调用并行区域的实际开销在此显现。

您试图在您的PC上并行化1.5s/10k = 0.15毫秒的内容。初始化线程池和调度它的开销尤其是与schedule(dynamic)

我会尝试做一些测试来确认。不确定随机碰撞是否合法IJ

后测试:

OK我切换J=I=10240;和设置for(int it=0;it<50;it++)。我还使用omp_get_wtime()进行时间测量。以下是完整的diff文件。

下面是结果:

Serial time=58.982189 
Omp time=9.158118 

据perfromed 6的PHY/12-逻辑核的机器上。现在结果如预期。您的示例问题对于OpenMP来说太小,以至于开销花费的时间比计算长。

DIFF:

luk32:~/projects/tests$ diff laplace.orig.cpp laplace.cpp 
88,89c88,89 
< const int I=129; 
< const int J=129; 
--- 
> const int I=10000; 
> const int J=10000; 
102,103c102,103 
< clock_t start=clock(); 
< for(int it=0;it<10000;it++) 
--- 
> double start=omp_get_wtime(); 
> for(int it=0;it<50;it++) 
105,106c105,106 
< clock_t end=clock(); 
< printf("Serial time=%f\n",(float)(end-start)/CLOCKS_PER_SEC); 
--- 
> double end=omp_get_wtime(); 
> printf("Serial time=%f\n",(float)(end-start)); 
110,111c110,111 
< clock_t start2=clock(); 
< for(int it2=0;it2<10000;it2++) 
--- 
> double start2=omp_get_wtime(); 
> for(int it2=0;it2<50;it2++) 
113,114c113,114 
< clock_t end2=clock(); 
< printf("Omp time=%f\n",(float)(end2-start2)/CLOCKS_PER_SEC); 
--- 
> double end2=omp_get_wtime(); 
> printf("Omp time=%f\n",(float)(end2-start2)); 

编辑:我刚才加粗的主要问题,所以任何人谁碰到这个来自动聚焦。

+3

+1 - '您的示例问题太小,OpenMP无法高效'。这是'多线程版本更慢'〜90%的答案。 – 2013-03-04 17:46:59

+0

这是微不足道的并行性,即=)但是它的可伸缩性。它也可能是错误的代码,以及代码中的冗余和事情。 TBH我也很“狡猾”。我自己执行xD后,看到了10k个循环。 '10kx10k'已经接近size_t溢出。这个代码的问题是,即使是大的实例也需要几秒钟才能执行。 '输出'比100倍计算长100倍。问题在于是否应该把时间放在第一位并行。你不会并行执行需要1s的东西。顺便说一句,MPI在这里。 =) – luk32 2013-03-05 00:38:11