定制化开发spark-在IDEA中搭建scala编程环境

第一步,新建maven工程,配置pom.xml(定制化开发配置依赖时,定制化开发要注意版本的对应,定制化开发在最后说明)

  1. <dependencies>
  2. <!-- https://mvnrepository.com/artifact/org.scala-lang/scala-library -->
  3. <dependency>
  4. <groupId>org.scala-lang</groupId>
  5. <artifactId>scala-library</artifactId>
  6. <version>2.12.4</version>
  7. </dependency>
  8. <dependency>
  9. <groupId>org.apache.spark</groupId>
  10. <artifactId>spark-core_2.12</artifactId>
  11. <version>2.4.4</version>
  12. </dependency>
  13. <dependency>
  14. <groupId>org.apache.spark</groupId>
  15. <artifactId>spark-streaming_2.12</artifactId>
  16. <version>2.4.4</version>
  17. </dependency>
  18. <dependency>
  19. <groupId>com.github.scopt</groupId>
  20. <artifactId>scopt_2.12</artifactId>
  21. <version>3.5.0</version>
  22. </dependency>
  23. </dependencies>

    

第二步,在idea上下载-sdk。(2.12.4)(定制化开发如果已经添加了就不用再添加)

点击 Add Framework Support        

选择Scala,点击Create,选择2.12.4版本,最后点击DownLoad下载 

第三步,开启spark

 首先cd命令进入spark定制化开发所在的目录。

        然后启动spark,命令为 

bin/spark-shell

图示即为启动成功

 第四步,在main下新建scala文件夹,并设置成为Source Root

第五步,新建scala文件

右键scala文件夹,new中找到Scala Class并点击

随便取一个名称,Kind里面选择Object,然后ok即创建成功 

第六步,创建启动环境

         在刚刚新建的scala文件中输入代码:(注意 object 后面的对象名字,和scala的文件名称保持一致

  1. import org.apache.spark.{SparkConf, SparkContext} //import spark包
  2. object scala_test {
  3. def main(args: Array[String]): Unit = {
  4. //1.初始化spark配置信息并建立与spark的连接
  5. val sparkConf = new SparkConf().setMaster("local[*]").setAppName("bigdata01")
  6. val sc = new SparkContext(sparkConf)
  7. val rdd = sc.parallelize(Array(1,2,3)) //创建rdd
  8. rdd.collect().foreach(println) //输出rdd
  9. sc.stop() //关闭与spark的连接,必须关闭,否则无输出结果
  10. }
  11. }

运行此代码,会自动创建一个启动环境。

第七步,在idea中添加连接spark的启动环境

选择Run,点击 Edit Configurations

在Vm options里添加-Dspark.master=spark://spark所在的电脑ip地址:端口号 ,这里的IP地址和端口可以在启动spark后,通过浏览器访问spark界面得到,一般访问spark页面的路径为 ip:8080 或者 ip:8081

可以从spark的页面中得到连接端口,我的为7077端口

得到端口便在VM options中输入 -Dspark.master=spark://spark所在的电脑ip地址:端口号

设置完成后点击 Apply 即可(若在web端页面找不到端口,直接填写4040端口)

第八步,测试scala是否搭建成功

         在刚刚新建的scala文件中输入代码:(注意 object 后面的对象名字,和scala的文件名称保持一致

如果输出了1,2,3,那就代表连接spark成功,也可以在此文件中进行rdd编程

网站建设定制开发 软件系统开发定制 定制软件开发 软件开发定制 定制app开发 app开发定制 app开发定制公司 电商商城定制开发 定制小程序开发 定制开发小程序 客户管理系统开发定制 定制网站 定制开发 crm开发定制 开发公司 小程序开发定制 定制软件 收款定制开发 企业网站定制开发 定制化开发 android系统定制开发 定制小程序开发费用 定制设计 专注app软件定制开发 软件开发定制定制 知名网站建设定制 软件定制开发供应商 应用系统定制开发 软件系统定制开发 企业管理系统定制开发 系统定制开发