2014-12-06 67 views
0

您能否建议我解决以下问题。在执行spark中的sbt包时发生Java内存问题

hduser @ hduser-VirtualBox的:在/ usr /本地/ spark1 /项目$ SBT包 OpenJDK的64位服务器VM警告:信息:OS :: commit_memory(0x00000000a8000000,1073741824,0)失败;错误='无法分配内存'(errno = 12)

Java运行时环境没有足够的内存继续运行。

本机内存分配(malloc)未能为提交保留内存分配1073741824字节。

更多信息的错误报告文件保存为:

/usr/local/spark-1.1.0-bin-hadoop1/project/hs_err_pid26824.log

hduser @ hduser-VirtualBox的:/ usr/local/spark1/project $ java -version Java版本“1.7.0_65” OpenJDK运行环境(IcedTea 2.5.3)(7u71-2.5.3-0ubuntu0.14.04.1) OpenJDK 64位服务器VM构建24.65-b04,混合模式)

回答

1

看起来你试图运行一个相当大的Java堆大小(1GB)。我会先减少它。如果你真的需要这么多,你可能会遇到麻烦:它看起来好像你的机器没有足够的RAM来为你分配它。

相关问题