SparkSQL---使用样例类创建DataFrame

该博客展示了如何使用Scala创建Spark DataFrame,通过case class将数据封装,并使用SparkSession的implicits转换为DataFrame。之后,创建了一个临时视图并执行SQL查询,最后展示查询结果,整个过程演示了Spark SQL的基本用法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

package sparksql.day01
/*
使用样例类,创建DataFrame对象,
df = rdd   +  schema 信息
*/
import org.apache.spark.sql.SparkSession
//使用case class 类 创建DataFrame
object SparkDataFram {
  def main(args: Array[String]): Unit = {
//构建sparksession对象
    val session = SparkSession.builder()
      .master("local[*]")
      .appName("dataframe")
      .getOrCreate()
//获取SparkContext对象
    val sc = session.sparkContext
//根据SparkContext对象创建RDD

    val rdd = sc.parallelize(List("test001,12","test002,13"))
    val urdd = rdd.map(line => {
      val strings = line.split(",")
//使用样例类,将RDD信息封装一层,
      Person(strings(0), strings(1))
    })
//导入隐式声明 不导入,无法将使用rdd.toDF方法
    import session.implicits._
    val df = urdd.toDF()
//创建一个临时视图,在视图中,命名表名
    df.createTempView("tb")
//使用session对象,sql语法查询
    val sqldf = session.sql("select * from tb")
//显示查询的结果
    sqldf.show()
    session.stop()
  }
}

case  class Person(name:String,age:String)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值