乡村销客
乡村销客官网 : http://www.vilsale.com
乡村销客是面向化肥行业的企业互联网营销工具。通过“移动应用+云计算+应用市场”的互联网领先技术,帮助化肥生产销售企业快速实现
- 移动化市场营销及客户拜访,
- 解决调度发运响应不畅
- 客户账户对账不准等问题,
- 帮助肥料企业营销及客户管理 ”。
乡村销客基于软件即服务的互联网理念,创建国内第一个专注 肥料行业的SAAS平台 ,为肥料企业打造性价比最高的企业互联网营销工具。
———–这是广告结束的分割线————————–
提交spark job 到 yarn
spark run on yarn :
http://spark.apache.org/docs/latest/running-on-yarn.html
submit application:
http://spark.apache.org/docs/latest/submitting-applications.html
submit to master1
2
3
4
5
6./bin/spark-submit \
--name "WordCount" \
--master spark://192.168.0.61:7077 \
--executor-memory 1G \
--class et.log.vis.WordCount \
spark-1.jar /data/china/china.txt /data/china.txt
submit to yarn1
2
3
4spark-submit --name "SaleAndTaskJob" \
--master yarn --executor-memory 1G \
--class et.theme.vis.SaleAndTaskJob \
/data/sparkjar/spark-1.jar hdfs:///user/root/access.log /data/china
spark 读写 mysql
Advanced spark-env增加配置
1 | export SPARK_CLASSPATH=$SPARK_CLASSPATH:/usr/hdp/mysql-connector-java-5.1.25-bin.jar |
上传mysql jar 包到 安装 spark amb docker 容器的目录中
spark 读写 hive
sql中写 库名.表名
1 | String sql = " select * from hdfstest.bd_product "; |
spark DataFrame sql 和 join 应用
1 | String sql = " select l.request_time , l.request_path, l.app_flag, " |