900字范文,内容丰富有趣,生活中的好帮手!
900字范文 > idea搭建spark开发环境完整版(windows)

idea搭建spark开发环境完整版(windows)

时间:2021-09-24 01:41:26

相关推荐

idea搭建spark开发环境完整版(windows)

利用intellij idea 搭建spark开发环境(windows)

本文配置所有环境

Win10 企业版长期服务版

Jdk1.8.0.131

Hadoop2.7.3

Spark2.2.0

Scala2.11.12

一、Jdk环境配置

下载

/technetwork/cn/java/javase/downloads/jdk8-downloads-2133151-zhs.html

可能需要oracle账号,目前更新到了151版。没有账号的可以移步

链接: /s/1jIaj0NW 密码: kpdb

配置环境变量

set JAVA_ENV=D:\javaEnv\Java\jdk1.8.0_131set JAVA_HOME=%JAVA_ENV%\Java\jdk1.8.0_131set CLASSPATH=.;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar;set PATH=%PATH%;%JAVA_HOME%\bin;%JAVA_HOME%\jre\bin;

根据实际情况配置。

二、hadoop环境搭建

下载代码

https://mirrors.tuna./apache/hadoop/common/

这个镜像库中已经没有2.7.3版本,如需下载请移步

配置环境变量

set HADOOP_HOME=D:\javaEnv\hadoop-2.7.3set PATH=%PATH%;%HADOOP_HOME%\bin;

根据自己的实际情况配置。

三、spark环境搭建

下载代码

链接: /s/1jIgUV6e 密码: tphe

配置环境变量

SPARK_HOME=D:\javaEnv\spark-2.2.0-bin-hadoop2.7set PATH=%PATH%;%SPARK_HOME%\bin;

根据自己的实际情况配置。

四、Scala安装

下载文件

链接: /s/1bZdMH4 密码: qtgm

配置环境变量

SCALA_HOME=D:\javaEnv\scala-2.11.12set PATH=%PATH%;%SCALA_HOME%\bin;

根据自己的实际情况配置。

五、安装intellij idea

我这里使用的是ideaIU-.3.7

下载地址/idea/download/previous.html

下载安装即可

破解方法,自己去百度即可

六、IntelliJ IDEA自定义配置和缓存位置

将.IntelliJIdeaXX 目录移到其他分区的办法:

1、将C盘的.IntelliJIdeaXX 目录拷贝至自定义位置;

2、修改intellij idea安装目录下 \bin\idea.properties文件,将所有的 ${user.home} 替换为自定义位置 (注意斜杠的方向)

cfg = D:/JetBrainsidea.config.path=${cfg}/.IntelliJIdea.3/configidea.system.path=${cfg}/.IntelliJIdea.3/system

3、启动 IntelliJ Idea 16,选择previous配置(即自定义位置)

七、添加scala插件和配置JDK、SDK

搜索scala并安装

重启程序即可。

2.配置SDK和JDK

添加JDK

添加scala sdk

八、配置maven

九、创建WordCount工程实例

1.创建maven工程

2.设置groupId和artifactId

4.设置工程目录

点击完成即可

5.为工程添加scala框架支持

6.在src文件夹中创建一个WordCount文件夹并设定为resources root

7.在WordCount中新建package和scala程序

将以下代码复制进去

package com.unicom.cuiyufei/*** Created by cuiyufei on /2/12.*/import org.apache.spark.SparkContextimport org.apache.spark.SparkContext._import org.apache.spark.SparkConfobject WordCount {def main(args: Array[String]) {val inputFile = "F:\\spark\\spark.txt"val conf = new SparkConf().setAppName("WordCount").setMaster("local")val sc = new SparkContext(conf)val textFile = sc.textFile(inputFile)val wordCount = textFile.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey((a, b) => a + b)wordCount.foreach(println)}}

在pom.xml中添加

<?xml version="1.0" encoding="UTF-8"?><project xmlns="/POM/4.0.0"xmlns:xsi="/2001/XMLSchema-instance"xsi:schemaLocation="/POM/4.0.0 /xsd/maven-4.0.0.xsd"><modelVersion>4.0.0</modelVersion><groupId>WODAS</groupId><artifactId>WordCount</artifactId><version>1.0-SNAPSHOT</version><properties><spark.version>2.1.0</spark.version><scala.version>2.11</scala.version></properties><repositories><repository><id>nexus-aliyun</id><name>Nexus aliyun</name><url>/nexus/content/groups/public</url></repository></repositories><dependencies><dependency><groupId>org.apache.spark</groupId><artifactId>spark-core_${scala.version}</artifactId><version>${spark.version}</version></dependency><dependency><groupId>org.apache.spark</groupId><artifactId>spark-streaming_${scala.version}</artifactId><version>${spark.version}</version></dependency><dependency><groupId>org.apache.spark</groupId><artifactId>spark-sql_${scala.version}</artifactId><version>${spark.version}</version></dependency><dependency><groupId>org.apache.spark</groupId><artifactId>spark-hive_${scala.version}</artifactId><version>${spark.version}</version></dependency><dependency><groupId>org.apache.spark</groupId><artifactId>spark-mllib_${scala.version}</artifactId><version>${spark.version}</version></dependency></dependencies><build><plugins><plugin><groupId>org.scala-tools</groupId><artifactId>maven-scala-plugin</artifactId><version>2.15.2</version><executions><execution><goals><goal>compile</goal><goal>testCompile</goal></goals></execution></executions></plugin><plugin><artifactId>maven-compiler-plugin</artifactId><version>3.6.0</version><configuration><source>1.8</source><target>1.8</target></configuration></plugin><plugin><groupId>org.apache.maven.plugins</groupId><artifactId>maven-surefire-plugin</artifactId><version>2.19</version><configuration><skip>true</skip></configuration></plugin></plugins></build></project>

8.右键整个工程Generate Sources and Update Folders,在scala代码界面右键点击执行代码

执行的过程中出现如下错误

Command line is too long. Shorten command line for WordCount or also for Application default configure

通过在shorten command line选择JAR manifest

10.打包执行

十、Intellij idea 常用插件

1.Key promoterKey promoter这款插件适合新手使用。当你点击鼠标一个功能的时候,可以提示你这个功能快捷键是什么2.Maven Helper3. JRebel for IntelliJjrebel,热部署插件,能够在开发过程中帮助开发者节约大量的部署等待时间,几乎所有的代码改动都不需要重启应用服务器,连Spring增加一个Bean都可以热部署。4. IdeaVim如果喜欢Vim那种移动光标的快捷键,也有一个类似Vim的插件,IdeaVim,可以在Editor里面体验Vim的感觉。5.画UML的话推荐 PlantUML 插件6.mybatis plus自由在java的interface与mapper文件间跳转7.GsonFormatKey promoter 快捷键提示 /plugin/4455?pr=ideaString Manipulation 驼峰式命名和下划线命名交替变化 /plugin/2162?pr=ideaCheckStyle-IDEA 代码规范检查 /plugin/1065?pr=ideaFindBugs-IDEA 潜在 Bug 检查 /plugin/3847?pr=ideaMetricsReloaded 代码复杂度检查 /plugin/93?pr=ideaStatistic 代码统计 /plugin/4509?pr=ideaJRebel Plugin 热部署 /plugin/?id=4441CodeGlance 在编辑代码最右侧,显示一块代码小地图 /plugin/7275?pr=ideaGsonFormat 把 JSON 字符串直接实例化成类 /plugin/7654?pr=ideaMultiMarkdown 书写 Markdown 文章 /plugin/7896?pr=ideaEclipse Code Formatter 使用 Eclipse 的代码格式化风格,在一个团队中如果公司有规定格式化风格,这个可以使用。 /plugin/6546?pr=ideaJindent-Source Code Formatter 自定义类、方法、doc、变量注释模板/plugin/2170?pr=ideaECTranslation 翻译插件 /Skykai521/ECTranslation/releases

该文章摘抄自:/yiluohan0307/article/details/79568363

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。