Spark SQL 可以通过 JDBC 从关系型数据库中读取数据的方式创建 DataFrame,通过对DataFrame 一系列的计算后,还可以将数据再写回关系型数据库中。如果使用 spark-shell 操作,可在启动 shell 时指定相关的数据库驱动路径或者将相关的数据库驱动放到 spark 的类路径下。
1 | bin/spark-shell --jars mysql-connector-java-5.1.27-bin.jar |
我们这里只演示在 Idea 中通过 JDBC 对 Mysql 进行操作。
导入依赖
1 | <dependency> |
读取数据
1 | val conf: SparkConf = new |
写入数据
1 | case class User2(name: String, age: Long) |