news 2026/3/24 18:47:15

头歌Scala-Spark SQL 多数据源操作(Scala)(含通关代码)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
头歌Scala-Spark SQL 多数据源操作(Scala)(含通关代码)

第1关:加载与保存操作

编程要求


打开右侧代码文件窗口,在 Begin 至 End 区域补充代码,完善程序。读取本地文件 file:///data/bigfiles/demo.json,根据年龄字段 age 设置降序,输出结果。

demo.json 文件内容如下所示:

{"name": "zhangsan", "age": 20, "sex": "m"},
{"name": "lisi", "age": 21, "sex": "m"},
{"name": "tiantian", "age": 22, "sex": "f"},
{"name": "lihua", "age": 23, "sex": "f"},
{"name": "zhaoliu", "age": 24, "sex": "m"},
{"name": "liguanqing", "age": 25, "sex": "f"},
{"name": "zhangqi", "age": 26, "sex": "m"},
{"name": "zhaoai", "age": 27, "sex": "m"},
{"name": "wangjiu", "age": 28, "sex": "f"}
开始任务前,注意先启动 Hadoop 与 Hive 环境:start-all.sh、nohup hive --service metastore &

测试说明
平台将对你编写的代码进行评测,如果与预期结果一致,则通关,否则测试失败。

代码1

import org.apache.spark.sql.{DataFrame, SaveMode, SparkSession} object First_Question { def main(args: Array[String]): Unit = { val spark: SparkSession = SparkSession .builder() .appName("First_Question") .master("local[*]") .getOrCreate() /******************* Begin *******************/ // 1. 读取指定路径的JSON文件,生成DataFrame val df: DataFrame = spark.read.json("file:///data/bigfiles/demo.json") // 2. 根据age字段进行降序排序 val sortedDf = df.orderBy(df.col("age").desc) // 3. 输出排序后的结果 sortedDf.show() /******************* End *******************/ spark.stop() } }

祝你通过顺利~

第2关:Parquet 格式文件

编程要求


打开右侧代码文件窗口,在 Begin 至 End 区域补充代码,根据下列要求,完善程序。

读取本地文件 file:///data/bigfiles/demo.json,使用 Parquet 完成分区,列名为 student=1,保存到本地路径file:///result/下。

读取本地文件 file:///data/bigfiles/demo2.json,使用 Parquet 完成分区,列名为 student=2,保存到本地路径file:///result/下。

demo.json 文件内容如下所示:

{"name": "zhangsan", "age": 20, "sex": "m"},
{"name": "lisi", "age": 21, "sex": "m"},
{"name": "tiantian", "age": 22, "sex": "f"},
{"name": "lihua", "age": 23, "sex": "f"},
{"name": "zhaoliu", "age": 24, "sex": "m"},
{"name": "liguanqing", "age": 25, "sex": "f"},
{"name": "zhangqi", "age": 26, "sex": "m"},
{"name": "zhaoai", "age": 27, "sex": "m"},
{"name": "wangjiu", "age": 28, "sex": "f"}
demo2.json 文件内容如下所示:

{"name": "hongkong", "age": 20, "sex": "m"},
{"name": "kulu", "age": 21, "sex": "m"},
{"name": "huxiaotian", "age": 22, "sex": "f"},
{"name": "yueming", "age": 23, "sex": "f"},
{"name": "wangsan", "age": 24, "sex": "m"},
{"name": "zhaojiu", "age": 25, "sex": "f"},
{"name": "wangqiqi", "age": 26, "sex": "m"},
{"name": "wangxiantian", "age": 27, "sex": "m"},
{"name": "zhaoba", "age": 28, "sex": "f"}
开始任务前,注意先启动 Hadoop 与 Hive 环境:start-all.sh、nohup hive --service metastore &

测试说明
平台将对你编写的代码进行评测,如果与预期结果一致,则通关,否则测试失败。

代码2

import org.apache.spark.sql.{DataFrame, SaveMode, SparkSession} object Second_Question { def main(args: Array[String]): Unit = { val spark: SparkSession = SparkSession .builder() .appName("Second_Question") .master("local[*]") .getOrCreate() /******************* Begin *******************/ // 1. 读取第一个JSON文件 val df1: DataFrame = spark.read.json("file:///data/bigfiles/demo.json") // 2. 将数据以Parquet格式保存到student=1分区路径,使用覆盖模式避免冲突 df1.write.mode(SaveMode.Overwrite).parquet("file:///result/student=1") // 3. 读取第二个JSON文件 val df2: DataFrame = spark.read.json("file:///data/bigfiles/demo2.json") // 4. 将数据以Parquet格式保存到student=2分区路径,使用覆盖模式 df2.write.mode(SaveMode.Overwrite).parquet("file:///result/student=2") /******************* End *******************/ spark.stop() } }

祝你通过顺利~

第3关:ORC 格式文件

编程要求


根据下列要求,完善程序。

创建 Orc 格式的 Hive 数据表 student,添加字段id(int),name(string),age(int),class(string)。

按顺序插入如下数据:

1001,"王刚",19,"大数据一班"
1002,"李虹",18,"大数据一班"
1003,"张子萱",20,"大数据一班"
1004,"赵云",18,"大数据一班"
1005,"李晓玲",19,"大数据一班"
1006,"张惠",18,"大数据二班"
1007,"秦散",19,"大数据二班"
1008,"王丽",18,"大数据二班"
1009,"田忌",20,"大数据二班"
1010,"张花",18,"大数据二班"
打开右侧代码文件窗口,在 Begin 至 End 区域补充代码,编写 spark sql 程序,读取创建的 student 表并按字段 id 升序输出。
开始任务前,注意先启动 Hadoop 与 Hive 环境:start-all.sh、nohup hive --service metastore &

测试说明
平台将对你编写的代码进行评测,如果与预期结果一致,则通关,否则测试失败。

代码3

import org.apache.spark.sql.{DataFrame, SaveMode, SparkSession} object Third_Question { def main(args: Array[String]): Unit = { val spark: SparkSession = SparkSession .builder() .appName("Third_Question") .master("local[*]") .enableHiveSupport() .getOrCreate() /******************* Begin *******************/ spark.sql("select * from student").orderBy("id").show() /******************* End *******************/ spark.stop() } }

祝你通过顺利~

第4关:JSON 格式文件

编程要求

打开右侧代码文件窗口,在 Begin 至 End 区域补充代码,完善程序。读取本地文件 file:///data/bigfiles/test.json,不改变原数据排列顺序进行输出。

test.json 文件内容如下所示:

{"id":1001,"name":"王刚","age":19,"class":"大数据一班"},
{"id":1002,"name":"李虹","age":18,"class":"大数据一班"},
{"id":1003,"name":"张子萱","age":20,"class":"大数据一班"},
{"id":1004,"name":"赵云","age":18,"class":"大数据一班"},
{"id":1005,"name":"李晓玲","age":19,"class":"大数据一班"},
{"id":1006,"name":"张惠","age":18,"class":"大数据二班"},
{"id":1007,"name":"秦散","age":19,"class":"大数据二班"},
{"id":1008,"name":"王丽","age":18,"class":"大数据二班"},
{"id":1009,"name":"田忌","age":20,"class":"大数据二班"},
{"id":1010,"name":"张花","age":18,"class":"大数据二班"}
开始任务前,注意先启动 Hadoop 与 Hive 环境:start-all.sh、nohup hive --service metastore &

测试说明
平台将对你编写的代码进行评测,如果与预期结果一致,则通关,否则测试失败。

代码4

import org.apache.spark.sql.{DataFrame, SaveMode, SparkSession} object Forth_Question { def main(args: Array[String]): Unit = { val spark: SparkSession = SparkSession .builder() .appName("Forth_Question") .master("local[*]") .getOrCreate() /******************* Begin *******************/ val dataFrame:DataFrame = spark.read.json("file:///data/bigfiles/test.json") dataFrame.createOrReplaceTempView("data") spark.sql("select id,name,age,class from data").orderBy("id").show() /******************* End *******************/ spark.stop() } }

祝你通过顺利~

第5关:JDBC 操作数据库

编程要求


打开右侧代码文件窗口,在 Begin 至 End 区域补充代码,完善程序。读取本地 csv 文件 file:///data/bigfiles/job58_data.csv(有表头),将加载的数据以覆盖的方式保存到本地 Mysql 数据库的 work.job_data 表中,数据库连接信息如下:

账号:root

密码:123123

端口:3306

注意设置 useSSL=false。

开始任务前,注意先启动 Hadoop 与 Hive 环境:start-all.sh、nohup hive --service metastore &

测试说明
平台将对你编写的代码进行评测,如果与预期结果一致,则通关,否则测试失败。

代码5

import org.apache.spark.sql.{DataFrame, SaveMode, SparkSession} object Fifth_Question { def main(args: Array[String]): Unit = { val spark: SparkSession = SparkSession .builder() .appName("Fifth_Question") .master("local[*]") .getOrCreate() /******************* Begin *******************/ val dataFrame: DataFrame = spark.read .option("header", "true") .csv("file:///data/bigfiles/job58_data.csv") dataFrame.write .format("jdbc") .option("url", "jdbc:mysql://localhost:3306/work?useSSL=false") .option("driver", "com.mysql.jdbc.Driver") .option("user", "root") .option("password", "123123") .option("dbtable", "job_data") .mode(SaveMode.Overwrite) .save() /******************* End *******************/ spark.stop() } }

祝你通过顺利~

第6关:Hive 表操作

编程要求


打开右侧代码文件窗口,在 Begin 至 End 区域补充代码,根据下列要求,完善程序。

在 Hive 中创建数据表 employee,添加字段eid(string),ename(string),age(int),part(string)。

插入如下数据:

"A568952","王晓",25,"财务部"
"B256412","张天",28,"人事部"
"C125754","田笑笑",23,"销售部"
"D265412","赵云",24,"研发部"
"F256875","李姿姿",26,"后勤部"
编写 spark sql 程序,直接采用 Spark on Hive 的方式读取创建的 employee 表并按字段 eid 升序输出。
开始任务前,注意先启动 Hadoop 与 Hive 环境:start-all.sh、nohup hive --service metastore &

测试说明
平台将对你编写的代码进行评测,如果与预期结果一致,则通关,否则测试失败。

代码6

import org.apache.spark.sql.{DataFrame, SparkSession} object Sixth_Question { def main(args: Array[String]): Unit = { /******************* Begin *******************/ //val spark: SparkSession.builder() val spark: SparkSession = SparkSession.builder() .appName("Sixth_Question") .master("local[*]") .enableHiveSupport() .getOrCreate() val dataFrame : DataFrame = spark.sql("select * from employee order by eid") dataFrame.show() spark.stop() /******************* End *******************/ } }

祝你通过顺利~

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/23 1:25:52

9、探索GIMP滤镜:从图像优化到艺术创作

探索GIMP滤镜:从图像优化到艺术创作 1. 滤镜基础 在GIMP中,滤镜是一项强大且实用的功能。它不仅能增强图像效果,还能创造出各种令人惊叹的特殊效果。使用滤镜可以节省大量手动操作的时间,尤其是在频繁使用某些图像时。 1.1 滤镜的定义 滤镜本质上属于GIMP中的插件。插件…

作者头像 李华
网站建设 2026/3/23 15:09:56

11、照片合成与修复增强全攻略

照片合成与修复增强全攻略 1. 照片合成 1.1 合成的定义 合成就是将多个独立的部分或元素组合在一起。在照片和图形图像领域,合成指的是将两张或更多的图像合并为一张。常见的合成方法有利用图层、不透明度、混合模式、蒙版和渐变等,还可以使用选择工具选取部分图像进行组合…

作者头像 李华
网站建设 2026/3/23 16:38:32

FreeMove终极指南:三步快速解决C盘空间不足问题

FreeMove终极指南:三步快速解决C盘空间不足问题 【免费下载链接】FreeMove Move directories without breaking shortcuts or installations 项目地址: https://gitcode.com/gh_mirrors/fr/FreeMove 还在为C盘爆满而烦恼吗?FreeMove这款开源神器能…

作者头像 李华
网站建设 2026/3/20 3:54:36

开发者福利:LobeChat开放API接口调用说明

开发者福利:LobeChat开放API接口调用说明 在大语言模型能力突飞猛进的今天,一个现实问题愈发凸显:我们有了强大的“大脑”,却还缺一副好用的“面孔”。 很多团队花重金接入 GPT、Claude 或本地部署 Llama,结果用户一…

作者头像 李华
网站建设 2026/3/22 17:25:20

【嵌入式】CAN总线

基本特性 多主而非一主多从CAN过滤器是硬件级的实时过滤机制,类似于MQTT的主题匹配,不过CAN是硬件实现的,速度快。过滤是为了减少CPU压力,减少无效消息占用CPU。 总线仲裁 优先级仲裁规则 CAN控制器会对总线上的消息ID进行优先级仲…

作者头像 李华
网站建设 2026/3/24 0:12:28

温度传感器类型与比较介绍

温度传感器是将温度这一非电量转换为电量(电压、电流、电阻)的器件。在模拟电路中,我们需要对其输出信号进行调理(放大、线性化、补偿),然后才能被ADC采集或用于控制。选择合适的传感器是设计的第一步。一、…

作者头像 李华