2013-07-29 39 views
2

我提取的相关位从gputoolsř -package到使用RCPP通过动态加载链接到culatools一个共享库我的GPU上运行的QR分解。在我的Mac上,所有内容都可以在终端和R.app中顺利运行。该结果与- [RQR()功能,但问题是,分割故障发生在离开R.app(使用终端时,不会发生错误):RCPP和CULA:分段错误

*** caught segfault *** 
address 0x10911b050, cause 'memory not mapped' 

我想我缩小了问题的指针“a”和“头”在链接到culatools .c文件:

#include<cula.h> 

void gpuQR(const int *m, const int *n, float *a, const int *lda, float *tau) 
{ 
    culaInitialize(); 
    culaSgeqrf(m[0], n[0], a, lda[0], tau); 
    culaShutdown(); 
} 

我编译使用我的Mac .c文件:

/usr/local/cuda/bin/nvcc -gencode arch=compute_10,code=sm_10 -gencode arch=compute_11,code=sm_11 -gencode arch=compute_12,code=sm_12 -gencode arch=compute_13,code=sm_13 -gencode arch=compute_20,code=sm_20 -c -I. -I/usr/local/cula/include -m64 -Xcompiler -fPIC gpuQR.c -o gpuQR.o 
/usr/local/cuda/bin/nvcc -gencode arch=compute_10,code=sm_10 -gencode arch=compute_11,code=sm_11 -gencode arch=compute_12,code=sm_12 -gencode arch=compute_13,code=sm_13 -gencode arch=compute_20,code=sm_20 -shared -m64 -Xlinker -rpath,/usr/local/cula/lib64 -L/usr/local/cula/lib64 -lcula_core -lcula_lapack -lcublas -o gpuQR.so gpuQR.o 

我写使用RCPP和动态加载共享库gpuQR.so .cpp文件:

#include <Rcpp.h> 
#include <dlfcn.h> 

using namespace Rcpp; 
using namespace std; 

typedef void (*func)(int*, int*, float*, int*, float*); 

RcppExport SEXP gpuQR_Rcpp(SEXP x_, SEXP n_rows_, SEXP n_cols_) 
{  
    vector<float> x = as<vector<float> >(x_); 
    int n_rows = as<int>(n_rows_); 
    int n_cols = as<int>(n_cols_); 
    vector<float> scale(n_cols); 

    void* lib_handle = dlopen("path/gpuQR.so", RTLD_LAZY); 
    if (!lib_handle) 
    { 
     Rcout << dlerror() << endl; 
    } else { 
     func gpuQR = (func) dlsym(lib_handle, "gpuQR"); 
     gpuQR(&n_rows, &n_cols, &(x[0]), &n_rows, &(scale[0])); 
    } 

    dlclose(lib_handle); 

    for(int ii = 1; ii < n_rows; ii++) 
    { 
     for(int jj = 0; jj < n_cols; jj++) 
     { 
      if(ii > jj) { y[ii + jj * n_rows] *= scale[jj]; } 
     } 
    } 

    return wrap(x); 
} 

我使用编译cpp文件中- [R

library(Rcpp) 
PKG_LIBS <- sprintf('%s $(LAPACK_LIBS) $(BLAS_LIBS) $(FLIBS)', Rcpp:::RcppLdFlags()) 
PKG_CPPFLAGS <- sprintf('%s', Rcpp:::RcppCxxFlags()) 
Sys.setenv(PKG_LIBS = PKG_LIBS , PKG_CPPFLAGS = PKG_CPPFLAGS) 
R <- file.path(R.home(component = 'bin'), 'R') 
file <- 'path/gpuQR_Rcpp.cpp' 
cmd <- sprintf('%s CMD SHLIB %s', R, paste(file, collapse = ' ')) 
system(cmd) 

并举了一个例子:

dyn.load('path/gpuQR_Rcpp.so') 

set.seed(100) 
A <- matrix(rnorm(9), 3, 3) 
n_row <- nrow(A) 
n_col <- ncol(A) 

res <- .Call('gpuQR_Rcpp', c(A), n_row, n_col) 
matrix(res, n_row, n_col) 

      [,1]  [,2]  [,3] 
[1,] 0.5250958 -0.8666927 0.8594266 
[2,] -0.2504899 -0.3878644 -0.1277837 
[3,] 0.1502908 0.4742033 -0.8804248 

qr(A)$qr 

      [,1]  [,2]  [,3] 
[1,] 0.5250957 -0.8666925 0.8594266 
[2,] -0.2504899 -0.3878643 -0.1277838 
[3,] 0.1502909 0.4742033 -0.8804247 

有没有人有一个想法如何解决分段故障?

+0

你为什么使用nvcc编译你的代码?如果它是普通的C代码,则可以(也可能应该)使用主机C编译器。 nvcc默认使用C++主机编译路由。这可能不是你想要的。 – talonmies

+0

我刚刚使用了* gputools R *包使用的内容。实际上,* Nvidia * [文档](http://docs.nvidia.com/cuda/cuda-compiler-driver-nvcc)对此做了如下说明:“... nvcc模仿GNU编译器gcc的行为:它接受一系列常规编译器选项,例如定义宏和include /库路径,以及指导编译过程。所有非CUDA编译步骤都被转发到nvcc支持的通用C编译器,...“ – chris

+0

是的,我完全理解这一点。但请注意,“通用编译器”是C++编译器,而不是C编译器。所以你的C代码可以用C++编译器编译。大多数时候它并不重要,但有时它确实如此。这可能是其中的一种...... – talonmies

回答

1

问题是由从.cpp文件删除

dlclose(lib_handle); 

解决。这产生以下:

#include <Rcpp.h> 
#include <dlfcn.h> 

using namespace Rcpp; 
using namespace std; 

typedef void (*func)(int*, int*, float*, int*, float*); 

RcppExport SEXP gpuQR_Rcpp(SEXP x_, SEXP n_rows_, SEXP n_cols_) 
{  
    vector<float> x = as<vector<float> >(x_); 
    int n_rows = as<int>(n_rows_); 
    int n_cols = as<int>(n_cols_); 
    vector<float> scale(n_cols); 

    void* lib_handle = dlopen("path/gpuQR.so", RTLD_LAZY); 
    if (!lib_handle) 
    { 
     Rcout << dlerror() << endl; 
    } else { 
     func gpuQR = (func) dlsym(lib_handle, "gpuQR"); 
     gpuQR(&n_rows, &n_cols, &(x[0]), &n_rows, &(scale[0])); 
    } 

    for(int ii = 1; ii < n_rows; ii++) 
    { 
     for(int jj = 0; jj < n_cols; jj++) 
     { 
      if(ii > jj) { x[ii + jj * n_rows] *= scale[jj]; } 
     } 
    } 

    return wrap(x); 
} 

的cpp文件可以在使用编译ř

library(Rcpp) 
PKG_LIBS <- sprintf('%s $(LAPACK_LIBS) $(BLAS_LIBS) $(FLIBS)', Rcpp:::RcppLdFlags()) 
PKG_CPPFLAGS <- sprintf('%s', Rcpp:::RcppCxxFlags()) 
Sys.setenv(PKG_LIBS = PKG_LIBS , PKG_CPPFLAGS = PKG_CPPFLAGS) 
R <- file.path(R.home(component = 'bin'), 'R') 
file <- 'path/gpuQR_Rcpp.cpp' 
cmd <- sprintf('%s CMD SHLIB %s', R, paste(file, collapse = ' ')) 
system(cmd) 

实际。C文件链接到culatools是:

#include<cula.h> 

void gpuQR(const int *m, const int *n, float *a, const int *lda, float *tau) 
{ 
    culaInitialize(); 
    culaSgeqrf(m[0], n[0], a, lda[0], tau); 
    culaShutdown(); 
} 

它可以使用被编译:

dyn.load('path/gpuQR_Rcpp.so') 

set.seed(100) 

n_row <- 3 
n_col <- 3 
A <- matrix(rnorm(n_row * n_col), n_row, n_col) 

res <- .Call('gpuQR_Rcpp', c(A), n_row, n_col) 
matrix(res, n_row, n_col) 

      [,1]  [,2]  [,3] 
[1,] 0.5250958 -0.8666927 0.8594266 
[2,] -0.2504899 -0.3878644 -0.1277837 
[3,] 0.1502908 0.4742033 -0.8804248 

qr(A)$qr 

      [,1]  [,2]  [,3] 
[1,] 0.5250957 -0.8666925 0.8594266 
[2,] -0.2504899 -0.3878643 -0.1277838 
[3,] 0.1502909 0.4742033 -0.8804247 

这里:

gcc -c -I/usr/local/cula/include gpuQR.c 
gcc -shared -Wl,-rpath,/usr/local/cula/lib64 -L/usr/local/cula/lib64 -lcula_lapack -o gpuQR.so gpuQR.o 

QR分解然后可以在- [R使用进行是使用具有16个CUDA核心的NVIDIA GeForce 9400M GPU进行基准测试的结果:

n_row <- 1000; n_col <- 1000 
A <- matrix(rnorm(n_row * n_col), n_row, n_col) 
B <- A; dim(B) <- NULL 

res <- benchmark(.Call('gpuQR_Rcpp', B, n_row, n_col), qr(A), columns = c('test', 'replications', 'elapsed', 'relative'), order = 'relative') 

            test replications elapsed relative 
1 .Call("gpuQR_Rcpp", B, n_row, n_col)   100 38.037 1.000 
2        qr(A)   100 152.575 4.011 
1

实际上并不需要动态加载链接到culatools的共享库。我最初想到了这一点,但我没有得到使用Rcpp编译的.cpp文件。总之,新的.cpp文件是:

#include<Rcpp.h> 
#include<cula.h> 

using namespace Rcpp; 
using namespace std; 

RcppExport SEXP gpuQR_Rcpp(SEXP x_, SEXP n_rows_, SEXP n_cols_) 
{  
    vector<float> x = as<vector<float> >(x_); 
    int n_rows = as<int>(n_rows_); 
    int n_cols = as<int>(n_cols_); 
    vector<float> scale(n_cols); 

    culaInitialize(); 
    culaSgeqrf(n_rows, n_cols, &(x[0]), n_rows, &(scale[0])); 
    culaShutdown(); 

    for(int ii = 1; ii < n_rows; ii++) 
    { 
     for(int jj = 0; jj < n_cols; jj++) 
     { 
      if(ii > jj) { x[ii + jj * n_rows] *= scale[jj]; } 
     } 
    } 

    return wrap(x); 
} 

.cpp文件使用编译:

library(Rcpp) 
PKG_LIBS <- sprintf('-Wl,-rpath,/usr/local/cula/lib64 -L/usr/local/cula/lib64 -lcula_lapack %s $(LAPACK_LIBS) $(BLAS_LIBS) $(FLIBS)', Rcpp:::RcppLdFlags()) 
PKG_CPPFLAGS <- sprintf('-I/usr/local/cula/include %s', Rcpp:::RcppCxxFlags()) 
Sys.setenv(PKG_LIBS = PKG_LIBS , PKG_CPPFLAGS = PKG_CPPFLAGS) 
R <- file.path(R.home(component = 'bin'), 'R') 
file <- 'path/gpuQR_inc.cpp' 
cmd <- sprintf('%s CMD SHLIB %s', R, paste(file, collapse = ' ')) 
system(cmd) 

在哪里设置相应的路径culatools。整个过程不会跑的更快,但是不需要再编译连接到culatools的共享库并动态加载它。

我认为,这是一个很好的替代gputoolsř -package延长- [RC++和在GPU上执行线性代数运算。