300字范文,内容丰富有趣,生活中的好帮手!
300字范文 > spark java8 scala_在 Ubuntu16.04 中搭建 Spark 单机开发环境 (JDK + Scala + Spark)

spark java8 scala_在 Ubuntu16.04 中搭建 Spark 单机开发环境 (JDK + Scala + Spark)

时间:2024-07-22 06:06:55

相关推荐

spark java8 scala_在 Ubuntu16.04 中搭建 Spark 单机开发环境 (JDK + Scala + Spark)

1.准备

本文主要讲述如何在Ubuntu 16.04 中搭建 Spark 2.11 单机开发环境,主要分为 3 部分:JDK 安装,Scala 安装和 Spark 安装。

需要注意的是,Spark 版本与 Scala 版本需要匹配一致。

Note: Starting version 2.0, Spark is built with Scala 2.11 by default. Scala 2.10 users should download the Spark source package and build with Scala 2.10 support.

2.JDK 安装

下载 jdk-8u171-linux-x64.tar.gz 后,解压到自己指定目录。

$ sudo mkdir /usr/local/java

$ sudo tar -zxvf jdk-8u171-linux-x64.tar.gz -C /usr/local/java

配置环境变量,打开 profile 文件

$ sudo gedit /etc/profile

在文件末尾写入,注意 JAVA_HOME 是 JDK 的安装路径:

export JAVA_HOME=/usr/local/java/jdk1.8.0_171

export JRE_HOME=${JAVA_HOME}/jre

export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib

export PATH=${JAVA_HOME}/bin:${JRE_HOME}/bin:$PATH

保存后退出,运行如下命令,使修改环境变量即可生效:

$ source /etc/profile

检测java是否成功安装

$ java -version

3.Scala 安装

下载 Scala 2.11.12 后,解压到自己指定目录。

$ sudo mkdir /usr/local/scala

$ sudo tar -zxvf scala-2.11.12.tgz -C /usr/local/scala

配置环境变量,打开 profile 文件

$ sudo gedit /etc/profile

在文件末尾写入,注意 SCALA_HOME 是 Scala 的安装路径:

export SCALA_HOME=/usr/local/scala/scala-2.11.12

export PATH=${SCALA_HOME}/bin:$PATH

保存后退出,运行如下命令,使修改环境变量即可生效:

$ source /etc/profile

检测java是否成功安装

$ scala -version

4.Spark 安装

下载 spark-2.2.1-bin-hadoop2.7.tgz 后,解压到自己指定目录。

$ sudo mkdir /usr/local/spark

$ sudo tar -zxvf spark-2.2.1-bin-hadoop2.7.tgz -C /usr/local/spark

配置环境变量,打开 profile 文件

$ sudo gedit /etc/profile

在文件末尾写入,注意 SPARK_HOME 是 Spark 的安装路径:

export SPARK_HOME=/usr/local/spark/spark-2.2.1-bin-hadoop2.7

export PATH=${SPARK_HOME}/bin:$PATH

保存后退出,运行如下命令,使修改环境变量即可生效:

$ source /etc/profile

检测java是否成功安装

$ spark-shell

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。