Spark笔记1--以表头创建空的dataset

浏览: 4493

最近上手Spark相关的项目,实践过程中遇到的几个问题,来此记录下。

1.引入maven包

<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.3.0</version>
</dependency>

<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.11</artifactId>
<version>2.3.0</version>
</dependency>

2.给定一串表头,建立空的dataFrame

       public static void main(String[] args) {
SparkSession sparkSession = SparkSession.builder().appName("Test").master("local")
.config("spark.sql.inMemoryColumnarStorage.compressed", "true").getOrCreate();
//给定一串表头
String colstr = "编号,姓名,性别,年龄";
//以,分割
String[] cols = colstr.split(",");
List<StructField> fields = new ArrayList<>();
for (String fieldName : cols) {
//创建StructField,因不知其类型,默认转为字符型
StructField field = DataTypes.createStructField(fieldName, DataTypes.StringType, true);
fields.add(field);
}
//创建StructType
StructType schema = DataTypes.createStructType(fields);
List<Row> rows = new ArrayList<>();
//创建只包含schema的Dataset
Dataset<Row> data = sparkSession.createDataFrame(rows, schema);
data.show();
}

image.png

推荐 1
本文由 _缘君_ 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。
转载、引用前需联系作者,并署名作者且注明文章出处。
本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。

0 个评论

要回复文章请先登录注册