成人怡红院-成人怡红院视频在线观看-成人影视大全-成人影院203nnxyz-美女毛片在线看-美女免费黄

站長資訊網
最全最豐富的資訊網站

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

Hadoop在整個大數據技術體系中占有至關重要的地位,是大數據技術的基礎和敲門磚,對Hadoop基礎知識的掌握程度會在一定程度決定在大數據技術的道路上能走多遠。

最近想要學習Spark,首先需要搭建Spark的環境,Spark的依賴環境比較多,需要Java JDK、Hadoop的支持。我們就分步驟依次介紹各個依賴的安裝和配置。新安裝了一個Linux Ubuntu 18.04系統,想在此系統上進行環境搭建,詳細記錄一下過程。

訪問Spark的官網,閱讀Spark的安裝過程,發現Spark需要使用到hadoop,Java JDK等,當然官網也提供了Hadoop free的版本。本文還是從安裝Java JDK開始,逐步完成Spark的單機安裝。

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

1、Java JDK8的安裝

前往Oracle官網下載JDK8,選擇適合自己操作系統的版本,此處選擇Linux 64

https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

下載之后的包放到某個目錄下,此處放在/opt/java目錄

linuxidc@linuxidc:~/www.linuxidc.com$ sudo cp /home/linuxidc/www.linuxidc.com/jdk-8u231-linux-x64.tar.gz /opt/java/
[sudo] linuxidc 的密碼:
linuxidc@linuxidc:~/www.linuxidc.com$ cd /opt/java/
linuxidc@linuxidc:/opt/java$ ls
jdk-8u231-linux-x64.tar.gz

使用命令:tar -zxvf jdk-8u231-linux-x64.tar.gz 解壓縮

linuxidc@linuxidc:/opt/java$ sudo tar -zxf jdk-8u231-linux-x64.tar.gz
linuxidc@linuxidc:/opt/java$ ls
jdk1.8.0_231  jdk-8u231-linux-x64.tar.gz

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

修改配置文件/etc/profile,使用命令:sudo nano /etc/profile

linuxidc@linuxidc:/opt/java$ sudo nano /etc/profile

在文件末尾增加以下內容(具體路徑依據環境而定):

export JAVA_HOME=/opt/java/jdk1.8.0_231
export JRE_HOME=/opt/java/jdk1.8.0_231/jre
export PATH=${JAVA_HOME}/bin:$PATH

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

保存退出,在終端界面使用命令: source /etc/profile 使配置文件生效。

linuxidc@linuxidc:/opt/java$ source /etc/profile

使用java -version驗證安裝是否成功,以下回顯表明安裝成功了。

linuxidc@linuxidc:/opt/java$ java -version
java version “1.8.0_231”
Java(TM) SE Runtime Environment (build 1.8.0_231-b11)
Java HotSpot(TM) 64-Bit Server VM (build 25.231-b11, mixed mode)
linuxidc@linuxidc:/opt/java$

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

2、安裝Hadoop

前往官網https://hadoop.apache.org/releases.html下載hadoop,此處選擇版本2.7.7

http://www.apache.org/dist/hadoop/core/hadoop-2.7.7/hadoop-2.7.7.tar.gz

hadoop需要ssh免密登陸等功能,因此先安裝ssh。

使用命令:

linuxidc@linuxidc:~/www.linuxidc.com$ sudo apt-get install ssh

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

linuxidc@linuxidc:~/www.linuxidc.com$ sudo apt-get install rsync

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

將下載的包放到某個目錄下,此處放在/opt/hadoop

linuxidc@linuxidc:~/www.linuxidc.com$ sudo cp /home/linuxidc/www.linuxidc.com/hadoop-2.7.7.tar.gz /opt/hadoop/

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

使用命令:tar -zxvf hadoop-2.7.7.tar.gz 進行解壓縮

此處選擇偽分布式的安裝方式(Pseudo-Distributed)

修改解壓后的目錄下的子目錄文件 etc/hadoop/hadoop-env.sh,將JAVA_HOME路徑修改為本機JAVA_HOME的路徑,如下圖:

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

配置Hadoop的環境變量

使用命令:

linuxidc@linuxidc:/opt/hadoop/hadoop-2.7.7/etc/hadoop$ sudo nano /etc/profile

添加以下內容:

export HADOOP_HOME=/opt/hadoop/hadoop-2.7.7

修改PATH變量,添加hadoop的bin目錄進去

export PATH=${JAVA_HOME}/bin:${HADOOP_HOME}/bin:$PATH

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

修改解壓后的目錄下的子目錄文件 etc/hadoop/core-site.xml

linuxidc@linuxidc:/opt/hadoop/hadoop-2.7.7/etc/hadoop$ sudo nano core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

如下圖:

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

修改解壓后的目錄下的子目錄文件 etc/hadoop/hdfs-site.xml

linuxidc@linuxidc:/opt/hadoop/hadoop-2.7.7/etc/hadoop$ sudo nano hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

如下圖:

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

設置免密登陸

linuxidc@linuxidc:~/www.linuxidc.com$ ssh-keygen -t rsa -P ” -f ~/.ssh/id_rsa
Generating public/private rsa key pair.
Your identification has been saved in /home/linuxidc/.ssh/id_rsa.
Your public key has been saved in /home/linuxidc/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:zY+ELQc3sPXwTBRfKlTwntek6TWVsuQziHtu3N/6L5w linuxidc@linuxidc
The key’s randomart image is:
+—[RSA 2048]—-+
|        . o.*+. .|
|        + B o o.|
|        o o =o+.o|
|        B..+oo=o|
|        S.*. ==.+|
|        +.o .oo.|
|        .o.o… |
|          oo .E .|
|          ..  o==|
+—-[SHA256]—–+
linuxidc@linuxidc:~/www.linuxidc.com$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
linuxidc@linuxidc:~/www.linuxidc.com$ chmod 0600 ~/.ssh/authorized_keys

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

使用命令:ssh localhost 驗證是否成功,如果不需要輸入密碼即可登陸說明成功了。

linuxidc@linuxidc:~/www.linuxidc.com$ ssh localhost
Welcome to Ubuntu 18.04.3 LTS (GNU/Linux 5.4.0-999-generic x86_64)

 * Documentation:  https://help.ubuntu.com
 * Management:    https://landscape.canonical.com
 * Support:        https://ubuntu.com/advantage

 * Canonical Livepatch is available for installation.
  – Reduce system reboots and improve kernel security. Activate at:
    https://ubuntu.com/livepatch

188 個可升級軟件包。
0 個安全更新。

Your Hardware Enablement Stack (HWE) is supported until April 2023.
Last login: Sat Nov 30 23:25:35 2019 from 127.0.0.1

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

接下來需要驗證Hadoop的安裝

a、格式化文件系統

linuxidc@linuxidc:/opt/hadoop/hadoop-2.7.7$ bin/hdfs namenode -format
19/11/30 23:29:06 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:  host = linuxidc/127.0.1.1
STARTUP_MSG:  args = [-format]
STARTUP_MSG:  version = 2.7.7
……

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

b、啟動Namenode和Datanode

linuxidc@linuxidc:/opt/hadoop/hadoop-2.7.7$ sbin/start-dfs.sh
Starting namenodes on [localhost]
localhost: starting namenode, logging to /opt/hadoop/hadoop-2.7.7/logs/hadoop-linuxidc-namenode-linuxidc.out
localhost: starting datanode, logging to /opt/hadoop/hadoop-2.7.7/logs/hadoop-linuxidc-datanode-linuxidc.out
Starting secondary namenodes [0.0.0.0]
The authenticity of host ‘0.0.0.0 (0.0.0.0)’ can’t be established.
ECDSA key fingerprint is SHA256:OSXsQK3E9ReBQ8c5to2wvpcS6UGrP8tQki0IInUXcG0.
Are you sure you want to continue connecting (yes/no)? yes
0.0.0.0: Warning: Permanently added ‘0.0.0.0’ (ECDSA) to the list of known hosts.
0.0.0.0: starting secondarynamenode, logging to /opt/hadoop/hadoop-2.7.7/logs/hadoop-linuxidc-secondarynamenode-linuxidc.out

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

c、瀏覽器訪問http://localhost:50070

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

3、Scala安裝:

下載地址:https://www.scala-lang.org/download/2.11.8.html

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

下載好后解壓到:/opt/scala

linuxidc@linuxidc:~/下載$ sudo tar zxf scala-2.11.8.tgz -C /opt/scala
[sudo] linuxidc 的密碼:
linuxidc@linuxidc:~/下載$ cd /opt/scala
linuxidc@linuxidc:/opt/scala$ ls
scala-2.11.8

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

配置環境變量:

linuxidc@linuxidc:/opt/scala$ sudo nano /etc/profile

添加:

export SCALA_HOME=/opt/scala/scala-2.11.8

 Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

source /etc/profile

4、安裝spark

前往spark官網下載spark

https://spark.apache.org/downloads.html

此處選擇版本如下:

spark-2.4.4-bin-hadoop2.7

將spark放到某個目錄下,此處放在/opt/spark

使用命令:tar -zxvf spark-2.4.0-bin-hadoop2.7.tgz 解壓縮即可

linuxidc@linuxidc:~/www.linuxidc.com$ sudo cp /home/linuxidc/www.linuxidc.com/spark-2.4.4-bin-hadoop2.7.tgz /opt/spark/
[sudo] linuxidc 的密碼:
linuxidc@linuxidc:~/www.linuxidc.com$ cd /opt/spark/
linuxidc@linuxidc:/opt/spark$ ls
spark-2.4.4-bin-hadoop2.7.tgz

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

linuxidc@linuxidc:/opt/spark$ sudo tar -zxf spark-2.4.4-bin-hadoop2.7.tgz
[sudo] linuxidc 的密碼:
linuxidc@linuxidc:/opt/spark$ ls
spark-2.4.4-bin-hadoop2.7  spark-2.4.4-bin-hadoop2.7.tgz

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

使用命令: ./bin/run-example SparkPi 10 測試spark的安裝

配置環境變量SPARK_HOME

linuxidc@linuxidc:/opt/spark/spark-2.4.4-bin-hadoop2.7$ sudo nano /etc/profile

export SPARK_HOME=/opt/spark/spark-2.4.4-bin-hadoop2.7
export PATH=${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${SPARK_HOME}/bin:$PATH

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

source /etc/profile

配置配置spark-env.sh

進入到spark/conf/

sudo cp /opt/spark/spark-2.4.4-bin-hadoop2.7/conf/spark-env.sh.template /opt/spark/spark-2.4.4-bin-hadoop2.7/conf/spark-env.sh

linuxidc@linuxidc:/opt/spark/spark-2.4.4-bin-hadoop2.7/conf$ sudo nano spark-env.sh

export JAVA_HOME=/opt/java/jdk1.8.0_231
export HADOOP_HOME=/opt/hadoop/hadoop-2.7.7
export HADOOP_CONF_DIR=/opt/hadoop/hadoop-2.7.7/etc/hadoop
export SPARK_HOME=/opt/spark/spark-2.4.4-bin-hadoop2.7
export SCALA_HOME=/opt/scala/scala-2.11.8
export SPARK_MASTER_IP=127.0.0.1
export SPARK_MASTER_PORT=7077
export SPARK_MASTER_WEBUI_PORT=8099
export SPARK_WORKER_CORES=3
export SPARK_WORKER_INSTANCES=1
export SPARK_WORKER_MEMORY=5G
export SPARK_WORKER_WEBUI_PORT=8081
export SPARK_EXECUTOR_CORES=1
export SPARK_EXECUTOR_MEMORY=1G
export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:$HADOOP_HOME/lib/native

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

Java,Hadoop等具體路徑根據自己實際環境設置。

啟動bin目錄下的spark-shell

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

可以看到已經進入到scala環境,此時就可以編寫代碼啦。

spark-shell的web界面http://127.0.0.1:4040

Ubuntu 18.04下搭建單機Hadoop和Spark集群環境

暫時先這樣,如有什么疑問,請在Linux公社下面的評論欄里提出。

贊(0)
分享到: 更多 (0)
?
網站地圖   滬ICP備18035694號-2    滬公網安備31011702889846號
免费免费视频片在线观看| 男女作爱网站免费观看全过程| 久久久久国产精品免费免费搜索| 精品无人区一区二区三区的特点| 久久AV无码AV高潮AV喷吹| 久久久久99精品成人片试看| 麻花传媒MV一二三区别在哪里| 免费人成视网站在线不卡| 欧美老熟妇乱人伦人妻| 日韩AV无码中文一区二区三区 | 欧美人和黑人牲交网站上线| 日日摸夜夜添夜夜添亚洲女人 | 国产精品成人亚洲777| 国内精品伊人久久久久妇| 精品无码人妻夜人多侵犯18| 毛片无码免费无码播放| 人妻无码一区二区不卡无码AV| 色综合天天综合狠狠爱| 亚洲AV无码XXX麻豆艾秋| 永久黄网站免费视频性色| TPU色母和PA6色母的性能| 国产高清免费AV片在线观看不卡 | 久久久久久一区国产精品| 欧美另类AV重囗味| 玩弄白嫩少妇XXXXX性| 亚洲精品成人无码| 97久人人做人人妻人人玩精品| 纯爱无遮挡H肉动漫| 国精产品一线二线三线区别| 老乞丐没完没了73节| 人妻少妇(11一32)章| 无码中文AV波多野结衣| 亚洲无人区一码二码三码区别大吗| 99久热RE在线精品99RE| 国产精品久久久久电影院| 久久久久久久精品国产亚洲87| 爱情岛网站亚洲禁18进入| 豆国产97在线 | 韩国| 狠狠躁夜夜躁青青草原| 女士不遮阴小内搭| 我和几个亲戚都做了爱| 艳妇乳肉豪妇荡乳XXX| 处破痛哭A√18成年片免费| 精产国品一二三产品区别在| 欧美色欧美亚洲高清在线观看| 无码人妻品一区二区三区精99| 一对浑圆的胸乳被揉捏动态图| 成人乱码一区二区三区四区| 精品成人乱色一区二区| 情人伊人久久综合亚洲| 亚洲—本道 在线无码AV发| 99精品无人区乱码1区2区3区 | 99久久国产露脸国语对白| 国产精品原创巨作AV女教师| 美国一面亲上边一面膜下边| 天天做天天爱夜夜爽| 在线天天看片视频免费观看| 国产激情久久久久影院蜜桃AV | 人禽杂交18禁网站免费| 亚洲欧美精品水蜜桃| 错位关系C1V1一块五花肉| 久久久久99人妻一区二区三区| 日韩精品无码区免费专区| 阳台顶着岳刘晓莉的肥臀| 国产XXXX色视频在线观看| 老子影院午夜精品无码| 无码人妻一区二区三区免费N鬼沢| 中国大陆女RAPPER欢迎你| 国产巨大爆乳在线观看| 欧美熟妇精品一区二区三区| 亚洲国产美女精品久久久久∴| 成人午夜亚洲精品无码网站| 狂猛欧美激情性XXXX大豆行情 | 国产无遮挡又黄又爽无VIP| 欧美日韩人妻精品一区在线| 亚洲精品国偷自产在线99正片| 成人一区二区免费视频| 麻豆E奶女教师国产精品| 性生生活大片又黄又| 成年女人毛片免费观看中文| 两口子交换真实刺激高潮| 亚洲AⅤ无码精品一区二区三区 | 日韩一区二区三区av| 中文天堂在线最新版在线WWW| 国产色婷婷精品综合在线| 日本多人强伦姧人妻完整版| 亚洲中文字幕无码久久2017| 国产麻豆MD传媒视频| 日本免费一区二区三区四区五六区| 在教室伦流澡到高潮H强圩| 国语自产精品视频在线区 | 宝宝湿透了还嘴硬怎么回事| 久久无码高潮喷水免费看| 亚洲AV片不卡无码潮| 疯狂做受ⅩⅩⅩⅩ高潮高清视频| 欧美成人区精品一区二区婷婷 | 无码AV免费一区二区三区四区 | 中文在线っと好きだっ最新版 | 一本一本久久AA综合精品| 国精产品W灬源码1688伊在| 少妇搡BBBBⅩXX搡BBB| BT天堂资源种子在线| 旧里番YY6080在线播放| 亚洲国产精品久久艾草| 国产精品高潮呻吟爱久久AV无码| 人人爽人人澡人人人妻、百度| √8天堂资源地址中文在线 | 日本成AⅤ人片日本伦| 2022最新韩国理伦片在线观看| 精品人人妻人人爽D∨D| 亚洲AV日韩AV高潮潮喷无码| 国产成人剧情AV麻豆果冻| 日韩在线观看视频一区二区| ZLJZLJZLJ日本人水多多| 妺妺窝人体色WWW在线直播| 一面亲上边一面膜的免费| 精品无码国产自产拍在线观看蜜桃| 国产精品美女一区二区视频| 亚洲AV片在线观看| 被老头玩弄邻居人妻中文字幕| 国产乱人伦偷精精品视频 | 98色精品视频在线| 美女直播全婐网站免费高清| 亚洲人成网站色7799| 激情综合亚洲色婷婷五月APP | 日本免费精品一区二区三区| YW亚洲AV无码乱码在线观看| 欧美人与性动交Α欧美精品| 97国产精华最好的产品亚洲| 男女猛烈激情XX00免费视频| 中文字幕精品久久久久人妻| 麻豆精品一区二区综合AV| 与亲女洗澡时伦了| 美女无遮挡直播软件免费看| 重囗味SM在线观看无码| 男人的天堂在线视频| 97久久人人超碰国产精品| 哦┅┅快┅┅用力啊┅警花少妇| 99精品人妻少妇一区二区| 欧美人与动性XXXXBBBB| YY6080久久亚洲精品| 日本丰满护士爆乳XXXX无遮挡| 草草CCYY免费看片线路| 色一情一乱一乱一区91Av奶水| 公天天吃我奶躁我| 无码人妻精一区二区三区 | 亚洲AV无码片在线观看| 鳮巴又大又爽我高潮了免费视频| 亚洲乱亚洲乱少妇无码99P| 久久人搡人人玩人妻精品| 中国小帅男男GAYXNXX| 欧美成人一区在线| 成人全部免费的A毛片在线看| 丝袜国偷自产中文字幕| 国产午夜毛片V一区二区三区| 亚洲国产区男人本色| 久久久亚洲精品无码| 99精品国产福利在线观看| 人人爽人人爽人人片A∨不卡| 高清国产天干天干天干| 午夜香吻电视剧免费观看| 精品欧洲AV无码一区二区| 玉蒲团之极乐宝鉴| 亲生乖女好紧H下| 高清人人天天夜夜曰狠狠狠狠| 午夜人妻免费视频| 久久96国产精品久久| 18禁强伦姧人妻又大又| 日韩AV无码社区一区二区三区| 国产精品VA在线观看无码 | 少妇精品揄拍高潮少妇| 国产丝袜无码一区二区视频| 亚洲欲色欲色XXXXX在线| 欧美黑人又大又粗XXXXX吞精| 大肥波BBWWHBBWW| 亚洲AV网站在线观看| 乱肉怀孕又粗又大| 成人无码特黄特黄AV片在线| 无码午夜人妻一区二区不卡视频| 精品久久久久久国产潘金莲| 69日本人XXXX16-18| 色五月丁香五月综合五月4438 | 免费人成视频XVIDEOS| 成人羞羞视频免费网站| 亚洲AV自慰白浆喷水网站少妇 | 手机在线永久免费观看AV片 | 亚洲国产精品久久一线不卡| 妺妺窝人体色www仙踪林| 成人无码免费视频在线观看网址| 亚洲AV六月丁香七月婷婷| 男女超爽视频免费播放| 国产AV无码专区亚洲AV毛片搜| 亚洲精品又粗又大又爽A片| 欧洲老妇做爰XXXⅩ性活电影| 国产乱色国产精品免费视频| 在线天堂おっさんとわたしWWW| 色欲AV蜜臀AV一区在线| 久久精品国产亚洲AV麻豆网站| 菠萝蜜视频高清在线观看| 亚洲韩国精品无码一区二区|