Windows下配置Geospark
JDK安装
下载地址
官网下载地址:https://www.oracle.com/technetwork/java/javase/downloads/index.html
在官网下载时,需要先注册oracle网站的账号,为了方便下载,这里提供一个百度云下载地址:链接:https://pan.baidu.com/s/16T1meL7pWD4Rk2qdmIS6kQ 提取码:9obn
下载完成后,直接双击安装,安装完成后,配置JAVA_HOME
为JDK
安装目录,在将%JAVA_HOME%\bin
配置到PATH
下,配置CLASSPATH为.;%JAVA_HOME%\lib;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar
Maven安装
下载地址:http://maven.apache.org/download.cgi
解压后,将解压文件拷贝到任意目录,然后将maven下面的bin目录添加到环境变量
在命令控制行中输入mvn -v
,如果有提示以下信息,则代表maven安装成功
1 | Apache Maven 3.6.1 (d66c9c0b3152b2e69ee9bac180bb8fcc8e6af555; 2019-04-05T03:00:29+08:00) |
Scala安装
下载地址: https://www.scala-lang.org/download/2.11.12.html
scala安装很简单,直接双击下载好的msi文件,scala会自动配置环境变量。
Hadoop安装
下载地址:
winutil.exe下载:https://github.com/steveloughran/winutils,选择hadoop-2.7.1即可。
解压后,配置环境变量,设置HADOOP_HOME为Hadoop的解压目录,然后再设置该目录下的bin目录到系统变量的PATH下。
将下载winutils.exe复制到hadoop的bin目录下完成安装。
Spark安装
下载地址:
https://archive.apache.org/dist/spark/spark-2.3.4/spark-2.3.4-bin-hadoop2.7.tgz](https://links.jianshu.com/go?to=https%3A%2F%2Farchive.apache.org%2Fdist%2Fspark%2Fspark-2.3.4%2Fspark-2.3.4-bin-hadoop2.7.tgz%5D(https%3A%2F%2Farchive.apache.org%2Fdist%2Fspark%2Fspark-2.3.4%2Fspark-2.3.4-bin-hadoop2.7.tgz))
解压后,配置环境变量,设置SPARK_HOME为Spark的解压目录,然后再设置该目录下的bin目录到系统变量的PATH下。
在CMD中输入spark-shell
,若有以下信息提示,则代表成功
1 | Setting default log level to "WARN". |
搭建工程
从https://github.com/scially/GeosparkBook将整个工程下载下来,并解压(选择geospark分支而不是master分支https://github.com/scially/GeosparkBook/tree/geospark/src/main/java/cn/dev)
打开IDEA,选择Import Project
,选择刚才解压的目录,选中Import project from external model
,选择Maven
,点击Next
勾选Import Maven projects automatically
,然后点击Environment Settings
,选择我们之前安装的maven目录,然后一路Next
,完成后IDEA会去自动构建工程,如果你是第一次开发Spark相关应用,这个构建时间会有点长,因为IDEA要去maven中央仓库拉取依赖,耐心等待即可(需要30分钟左右)。
构建完成后,打开cn.dev下面的任意一个类,点击main函数左边的执行按钮,若运行成功,则代表环境配置成功。