久久久精品一区ed2k-女人被男人叉到高潮的视频-中文字幕乱码一区久久麻豆樱花-俄罗斯熟妇真实视频

如何安裝spark依賴yarn執(zhí)行

這篇文章將為大家詳細(xì)講解有關(guān)如何安裝spark依賴yarn執(zhí)行,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。

創(chuàng)新互聯(lián)是一家集網(wǎng)站建設(shè),新建企業(yè)網(wǎng)站建設(shè),新建品牌網(wǎng)站建設(shè),網(wǎng)站定制,新建網(wǎng)站建設(shè)報價,網(wǎng)絡(luò)營銷,網(wǎng)絡(luò)優(yōu)化,新建網(wǎng)站推廣為一體的創(chuàng)新建站企業(yè),幫助傳統(tǒng)企業(yè)提升企業(yè)形象加強企業(yè)競爭力。可充分滿足這一群體相比中小企業(yè)更為豐富、高端、多元的互聯(lián)網(wǎng)需求。同時我們時刻保持專業(yè)、時尚、前沿,時刻以成就客戶成長自我,堅持不斷學(xué)習(xí)、思考、沉淀、凈化自己,讓我們?yōu)楦嗟钠髽I(yè)打造出實用型網(wǎng)站。

由于之前安裝hadoop版本是3.30  所以這里下載spark3 

spark下載地址      包含了對應(yīng)hadoop3的jar包   http://archive.apache.org/dist/spark/spark-3.0.1/spark-3.0.1-bin-hadoop3.2.tgz

完成之后解壓  tar -zxvf spark-3.0.1-bin-hadoop3.2.tgz   mv   spark-3.0.1-bin-hadoop3.2   spark-3 

修改hadoop配置文件/opt/module/hadoop/etc/hadoop/yarn-site.xml, 并分發(fā)

修改hadoop配置文件/opt/module/hadoop/etc/hadoop/yarn-site.xml, 并分發(fā)
<!--是否啟動一個線程檢查每個任務(wù)正使用的物理內(nèi)存量,如果任務(wù)超出分配值,則直接將其殺掉,默認(rèn)是true -->
<property>
     <name>yarn.nodemanager.pmem-check-enabled</name>
     <value>false</value>
</property>

<!--是否啟動一個線程檢查每個任務(wù)正使用的虛擬內(nèi)存量,如果任務(wù)超出分配值,則直接將其殺掉,默認(rèn)是true -->
<property>
     <name>yarn.nodemanager.vmem-check-enabled</name>
     <value>false</value>
</property>

修改配置文件 spark-env.sh 

#jdk路徑
export JAVA_HOME=/bigdata/jdk1.8.0_161
#yarn路徑
YARN_CONF_DIR=/bigdata/hadoop-3.3.0/etc/hadoop
#歷史服務(wù)配置
export SPARK_HISTORY_OPTS="
-Dspark.history.ui.port=18080 
-Dspark.history.fs.logDirectory=hdfs://hadoop1:9000/directory 
-Dspark.history.retainedApplications=30"

修改 spark-defaults.conf

spark.eventLog.enabled          true
#hdfs地址  路徑是先建好的  hdfs dfs -mkdir /directory
spark.eventLog.dir               hdfs://hadoop1:9000/directory
#歷史服務(wù)的web地址
spark.yarn.historyServer.address=hadoop1:18080
spark.history.ui.port=18080
#jar包托管在hdfs中的地址
spark.yarn.jars hdfs://hadoop1:9000/hadoop/spark_jars/*

將spark整合hadoop3的jar包傳到hdfs上

hdfs dfs -mkdir /hadoop
hdfs dfs -mkdir /hadoop/spark_jars
hdfs dfs -put /usr/local/spark-3/jars/* /hadoop/spark_jars

如何安裝spark依賴yarn執(zhí)行

啟動歷史服務(wù)        sbin/start-history-server.sh

訪問ui沒有問題后創(chuàng)建一個測試任務(wù)

/bigdata/spark/bin/spark-submit --class mapTest --master yarn    --driver-memory 512m  --executor-memory 512m  --deploy-mode cluster   /spark-demo.jar

如何安裝spark依賴yarn執(zhí)行

完成

關(guān)于“如何安裝spark依賴yarn執(zhí)行”這篇文章就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,使各位可以學(xué)到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。

網(wǎng)頁題目:如何安裝spark依賴yarn執(zhí)行
文章網(wǎng)址:http://sd-ha.com/article2/jggdoc.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供營銷型網(wǎng)站建設(shè)、自適應(yīng)網(wǎng)站App開發(fā)、網(wǎng)站導(dǎo)航、商城網(wǎng)站、全網(wǎng)營銷推廣

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

網(wǎng)站建設(shè)網(wǎng)站維護公司