spark项目配置

1,  检出sparkhttp://svn.igniterealtime.org/svn/repos,取出spark的主干trunk

2,  配置build path

a)         source folder:包括spark和各个插件的代码,建议将output folder设为bin

b)        library:设置jre,将build/lib下的jar都加上;

3,  执行build/build.xmlrelease任务,构建spark,完成后target/build/bin/startup.bat应该可以顺利执行了。

4,  Spark这个类管理spark使用的各种目录,可以优先设置系统变量spark.home使用target/build以方便开发。使用Startup类新建运行配置,传入jvm参数-Dspark.home=target/build -Dplugin=src/plugins/fastpath/plugin.xml –Ddebug.mode=true –Dsmack.debugEnabled=true,在classpath下的User Entries添加spark和各插件的资源目录,这样就可以运行spark了。

5,  构建中常用的是release任务,还有exeinstaller.advinst任务用于制作可执行文件spark.exe和安装包spark.msi,相应的工具为launch4jadvanced installer,安装后配置build.xml里面launch4j.diradvinst.path,执行这两个任务即可生成安装包。advinst任务可能会失败,这时可以先执行exe任务,然后用advanced installer打开build/installer/spark.aip,构建msi即可。

6,如果要构建带jre的安装包,使用install4j比较方便,构建任务为installer.install4j,可以让它依赖于exe任务。配置文件spark.install4j可以用install4j可视化编辑,就可以方便地生成exe安装包了。

猜你喜欢

转载自blog.csdn.net/hwxia/article/details/5971207