0%
1.4k 字 6 分钟

群内2018_6月讨论整理

说明

以下内容来自群中出现的问题,大家讨论的结果
Q群:432600958
微信群:加微信w3aboutyun,附上about云铁粉
部分内容整理时,已经注明出处,但很多内容,较为零碎,也无暇整理,如有不妥,请联系我,谢谢。

两个集群间迁徙hive数据有什么方案 —by 阿黄生

时间

2018.06.01

内容

Step1
迁移hdfs数据至新集群,通过distcp实现

Step2
源集群metastore数据备份导出(mysql导出)

Step3
新的集群导入metastore数据(mysql导入)

Step4
升级hive内容库(如果hive版本需要升级操作,同版本不需要操作)

Step5
修改 metastore 内容库的集群信息(重要)

REF

Distcp
hadoop跨集群之间迁移hive数据

Scala优雅的实现

时间

2018.06.01

问题

存在一个Array[String] 例如 Array(“A”,”B”,”C”,”D”,…..”Z”)
现在希望替换B为 b1,b2,b3,b4,b5,然后转为String
即生成如下结果

Ab1CDEF…Z
Ab2CDEF…Z
Ab3CDEF…Z
Ab4CDEF…Z
Ab5CDEF…Z

怎么能写的优雅点?

思路

生成一个可变的Array,替换array(2) 然后mkString

创建SparkContext 两种写法

时间

2018.06.05

内容

第一种写法

1
val sc = new SparkContext(sparkConf)

第二种写法
1
val sc = SparkContext,getOrCreate(conf)

两者的区别在于,第一种写法是根据SparkConf 新建一个sparkContext,这里注意一旦设置完成SparkConf,就不可被使用者修改。
第二种写法,是先使用现用的SparkContext,没有再创建一个。主要用于多applications共享SparkContext。
api解释:

This function may be used to get or instantiate a SparkContext and register it as a singleton object. Because we can only have one active SparkContext per JVM, this is useful when applications may wish to share a SparkContext.
This method allows not passing a SparkConf (useful if just retrieving).
Note: This function cannot be used to create multiple SparkContext instances even if multiple contexts are allowed.

在实际应用中,如果没有多applications 共享sparkContext的业务需求,两者无差别。(不过getOrCreate这种写法看着好像厉害点)

编写应用的jar包 和 spark自带的jar包冲突

时间

2018.06.10

内容

问题描述

使用jpmml 报错如下:

1
2
3
java.lang.NoSuchMethodError: org.jpmml.model.JAXBUtil.createFilteredSource(Lorg/xml/sax/InputSource;[Lorg/xml/sax/XMLFilter;)Ljavax/xml/transform/sax/SAXSource;
at org.jpmml.model.filters.ImportFilter.apply(ImportFilter.java:94)
at org.jpmml.model.PMMLUtil.unmarshal(PMMLUtil.java:33)

查看jar包,能够发现有这个类。

查看依赖是否有冲突
mvn -Dverbose dependency:tree —> tree.txt

1
2
3
[INFO] +- org.jpmml:pmml-evaluator:jar:1.4.1:compile
[INFO] | +- (org.jpmml:pmml-model:jar:1.4.1:compile - omitted for conflict with 1.2.15)
[INFO] | +- com.google.guava:guava:jar:24.0-jre:compile

可以发现,使用jpmml时,使用的pmml的版本为1.4.1

1
2
3
4
5
<dependency>
<groupId>org.jpmml</groupId>
<artifactId>pmml-evaluator</artifactId>
<version>1.4.1</version>
</dependency>

但是spark mllib 中自带的jpmml的版本为1.2.15,直接使用的时候,会因为jar包依赖冲突报错

解决方案

具体思路是使用shade。

Step1
新建一个空的项目,将jpmml以及它的相关依赖包以shade的打包成一个独立的jar包,对应jpmml相关类的使用均从此jar包引用。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
<dependencies>
<dependency>
<groupId>org.jpmml</groupId>
<artifactId>pmml-evaluator</artifactId>
<version>1.4.1</version>
</dependency>
<dependency>
<groupId>org.jpmml</groupId>
<artifactId>pmml-evaluator-extension</artifactId>
<version>1.4.1</version>
</dependency>
</dependencies>


<build>
<plugins>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-shade-plugin</artifactId>
<version>2.4.2</version>
<configuration>
<createDependencyReducedPom>false</createDependencyReducedPom>
</configuration>
<executions>
<execution>
<phase>package</phase>
<goals>
<goal>shade</goal>
</goals>
<configuration>
<relocations>
<relocation>
<pattern>org.jpmml</pattern>
<shadedPattern>my.pmml.jpmml</shadedPattern>
</relocation>
<relocation>
<pattern>org.dmg</pattern>
<shadedPattern>my.pmml.dmg</shadedPattern>
</relocation>

</relocations>
</configuration>
</execution>
</executions>
</plugin>
</plugins>
</build>

  • 将org.jpmml映射为my.pmml.jpmml
  • 将org.dmg映射为my.pmml.dmg
    然后利用mvn clean install命令进行打包得到jpmml-base-1.0-SNAPSHOT.jar,创建一个属于你自己版本的jpmml包。之后将该包上传到私服maven镜像。

Step2
在工程中使用自己的jpmml包
原始的maven 依赖

1
2
3
4
5
<dependency>
<groupId>org.jpmml</groupId>
<artifactId>pmml-evaluator</artifactId>
<version>1.4.1</version>
</dependency>

新的maven 依赖

1
2
3
4
5
<dependency>
<groupId>my.pmml.jpmml</groupId>
<artifactId>pmml-evaluator</artifactId>
<version>1.0-SNAPSHOT</version>
</dependency>

原来的import

1
2
3
4
5
import org.dmg.pmml.FieldName;
import org.dmg.pmml.PMML;
import org.jpmml.evaluator.ModelEvaluator;
import org.jpmml.evaluator.ModelEvaluatorFactory;
import org.jpmml.model.PMMLUtil;

新的import

1
2
3
4
import my.pmml.dmg.pmml.FieldName;
import my.pmml.dmg.pmml.PMML;
import my.pmml.jpmml.evaluator.*;
import my.pmml.jpmml.model.PMMLUtil;

Ref

jpmml
用dependency:tree查看maven引入jar包的传递依赖
java 依赖包冲突,使用maven的Shade方式解决

关于图计算

时间

2018.06.26

内容

  • spark graphx实现的算法都比较简单,复杂的一般都得自己再写
  • 如果,数据量不大,java之类的都有一些开源的图计算jar包,能够支持
  • 我们对关系计算,引入了neo4j数据库,大数据量就在库中查询实现,小数据量引用开源图算法包

一个奇怪的问题: A master URL must be set in your configuration

时间

2018.06.28

内容

1
2
val sparkConf = new SparkConf().setAppName("XXXX")
val sc = new SparkContext(sparkConf)

这个放在main方法外面就会报异常。非常诡异。

REF

异常解决:A master URL must be set in your configuration

资料分享

Spark Summits介绍及如何下载相关视频资料

链接 密码:kuxh