扫二维码与项目经理沟通
我们在微信上24小时期待你的声音
解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流
小编给大家分享一下spark1.4 Windows local调试环境如何搭建,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!
创新互联专注于鹤峰网站建设服务及定制,我们拥有丰富的企业做网站经验。 热诚为您提供鹤峰营销型网站建设,鹤峰网站制作、鹤峰网页设计、鹤峰网站官网定制、小程序设计服务,打造鹤峰网络公司原创品牌,更为您提供鹤峰网站排名全网营销落地服务。
spark1.4 Windows local调试环境搭建总结
1.scala版本 scala-2.10.4 官方推荐 scala-2.11.7【不推荐,非sbt项目、需要后加载】
2.spark版本 spark-1.4.0-bin-hadoop2.6.tgz
3.hadoop 3.1版本 hadoop-2.6.0.tar.gz 3.2环境变量 HADOOP_HOME=E:/ysg.tools/spark/hadoop-2.6.0 或 System.setProperty("hadoop.home.dir", "E:\ysg.tools\spark\hadoop-2.6.0"); 3.3winutils.exe
winutils.exe拷贝至spark/hadoop-2.6.0/bin
文件下载地址 http://files.cnblogs.com/files/yjmyzz/hadoop2.6%28x64%29V0.2.zip
4.idea 新建 NO-SBT项目
libraties 增加 scala sdk spark-1.4.0-bin-hadoop2.6\lib\spark-assembly-1.4.0-hadoop2.6.0.jar
spark.test.iml 先加载 spark-assembly-1.4.0-hadoop2.6.0 再加载 scala-sdk-2.11.7
以上是“spark1.4 Windows local调试环境如何搭建”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联行业资讯频道!
我们在微信上24小时期待你的声音
解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流