码迷,mamicode.com
首页 > 其他好文 > 详细

打包运行 项目部署 startalone模式 和 yarn模式

时间:2020-05-11 15:06:35      阅读:88      评论:0      收藏:0      [点我收藏+]

标签:tar   tun   shu   释放   输入输出   hdfs   exe   pac   文件   

 1  打包运行  项目部署  startalone模式  和 yarn模式
 2 1:把local 本地运行删掉    输入输出路径改为args(0) args(1)  删除左边target文件    
 3 顶部 bulid->bulid project  然后右侧打包package   在target下拷贝jar包到桌面上 
 4 2:必须启动 hdfs(hadoop)  spark
 5 3:进入hdfs的sbin目录    执行:  hadoop fs -ls /  查看hdfs目录     hadoop fs -mkdir /wcdata  创建单词统计的文件夹  
 6 hadoop fs -put  /usr/local/xujunqi/aa.txt  /wcdata  把文件上传到wcdata 目录下   netstat -tunl(表示看一下释放的端口)
 7 hadoop  fs -cat   hdfs://hadoop101:9000/wcdata/aa.txt  查看txt文件内容
 8 
 9 hadoop  fs -ls /wcresult     hadoop  fs -cat /wcresult2/part-00000
10 Standalone模式     在spark的bin目录下运行
11 
12  #Linux单核、代码删除设置setMaster("spark://hdp1:7077")
13  ./spark-submit14  --class com.xiangmu_bushu.Stream_WordCount15  --master spark://hadoop101:7077\
16  --executor-memory 1G17  --total-executor-cores 318  /opt/module/jars/monthlycheck-1.0-SNAPSHOT.jar19   hdfs://hadoop101:9000/wcdata/aa.txt\
20  hdfs://hadoop101:9000/wcresult/
21  
22  
23 
24  3:Yarn模式将
25  export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop 追加到spark-env.sh
26 ./spark-submit27  --class com.xiangmu_bushu.Stream_WordCount28  --master yarn --deploy-mode cluster29  --executor-memory 1G30  --executor-cores 331  /opt/module/jars/monthlycheck-1.0-SNAPSHOT.jar32  hdfs://hadoop101:9000/wcdata/aa.txt\
33  hdfs://hadoop101:9000/wcresult2/

 

打包运行 项目部署 startalone模式 和 yarn模式

标签:tar   tun   shu   释放   输入输出   hdfs   exe   pac   文件   

原文地址:https://www.cnblogs.com/xjqi/p/12868930.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!