热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

理解Spark中SparkSQL模块DataSource中JSONFiles

SparkSQL可以自动推断JSON数据集的模式,并将其作为数据集[Row]加载。可以使用数据集[String]或JSON文件上的SparkSession.read.

Spark SQL可以自动推断JSON数据集的模式,并将其作为数据集[Row]加载。 可以使用数据集[String]或JSON文件上的SparkSession.read.json()完成此转换。

请注意,作为json文件提供的文件不是典型的JSON文件。 每行必须包含一个单独的,自包含的有效JSON对象。 有关更多信息,请参阅JSON Lines文本格式,也称为换行符分隔的JSON。

 

import spark.implicits._val path = "exampls/xxx.json"val peopleDF = spark.read.json(path)peopleDF.printSchema()peopleDF.createOrReplaceTempView("people")val teenagerNamesDF = spark.sql("SELECT name FROM people WHERE age BETWEEN 13 AND 19")
teenagerNamesDF.show()val otherPeopleDataset = spark.createDataset("""{"name":"Yin","address":{"city":"Columbus","state":"Ohio"}}""" :: Nil)val otherPeople = spark.read.json(otherPeopleDataset)otherPeople.show()

 


推荐阅读
author-avatar
再见看淡_266
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有