標籤(空格分隔): Spark
[toc]
前言
Spark SQL的介紹只包含官方文檔的Getting Started、DataSource、Performance Tuning和Distributed SQL Engine部分。不含其他的遷移和PySpark等部分。
Spark SQL介紹
Spark SQL是一個Spark模塊用於結構化數據處理。與基本的Spark RDD API不同,Spark SQL提供的接口爲Spark提供了有關數據結構和正在執行的計算的更多信息。 在內部,Spark SQL使用此額外信息來執行額外的優化。 有幾種與Spark SQL交互的方法,包括SQL和Dataset API。 在使用相同的執行引擎計算結果時,與使用表達計算的API或者語言無關。 這種統一意味着開發人員可以輕鬆地在不同的API之間來回切換,從而提供表達給定轉換的最自然的方式。
SQL
Spark SQL的一個用途是執行SQL查詢。Spark SQL還可用於從現有Hive中讀取數據。 有關如何配置此功能的更多信息,請參閱Hive Tables部分。 從其他編程語言中運行SQL時,結果將作爲Dataset/DataFrame返回。 還可以使用命令行或JDBC/ODBC與SQL接口進行交互。
Dataset和DataFrame
Dataset數據集是分佈式數據集合。數據集是Spark 1.6中添加的一個新接口,它提供了RDD的優勢(強類型,使用強大的lambda函數的能力)和Spark SQL優化執行引擎的優點。 數據集可以從JVM對象構造,然後使用功能轉換(map,flatMap,filter等)進行操作。 數據集API在Scala和Java中可用。 Python沒有對Dataset API的支持。 但由於Python的動態特性,數據集API的許多好處已經可用(即可以通過名稱自然地訪問行的字段row.columnName)。 R的情況類似。
DataFrame是一個組織成命名列的數據集。 它在概念上等同於關係數據庫中的表或R / Python中的數據框,但在底層具有更豐富的優化。 DataFrame可以從多種來源構建,例如:結構化數據文件,Hive中的表,外部數據庫或現有RDD。 DataFrame API在Scala,Java,Python和R中可用。在Scala和Java中,DataFrame由行數據集表示。 在Scala API中,DataFrame只是Dataset[Row]的類型別名。 而在Java API中,用戶需要使用Dataset<Row>來表示DataFrame。
Spark SQL入門知識
SparkSession
Spark中所有功能的入口點是SparkSession類。通過類似下面的代碼來創建:
import org.apache.spark.sql.SparkSession
val spark = SparkSession
.builder()
.appName("Spark SQL basic example")
.config("spark.some.config.option", "some-value")
.getOrCreate()
// For implicit conversions like converting RDDs to DataFrames
import spark.implicits._
Spark 2.0中的SparkSession爲Hive功能提供內置支持,包括使用HiveQL編寫查詢,訪問Hive UDF以及從Hive表讀取數據的功能。 要使用這些功能,並不需擁有現有的Hive設置。
創建DataFrame
使用SparkSession,應用程序可以從現有RDD,Hive表或Spark數據源創建DataFrame。作爲示例,以下內容基於JSON文件的內容創建DataFrame:
val df = spark.read.json("examples/src/main/resources/people.json")
// Displays the content of the DataFrame to stdout
df.show()
// +----+-------+
// | age| name|
// +----+-------+
// |null|Michael|
// | 30| Andy|
// | 19| Justin|
// +----+-------+
無類型數據集操作(又名DataFrame操作)
DataFrames爲Scala,Java,Python和R中的結構化數據操作提供一種DSL的語言。如上所述,在Spark 2.0中,DataFrames只是Scala和Java API中的行數據集。與“類型轉換”相比,這些操作也稱爲“無類型轉換”,帶有強類型Scala / Java數據集。這裏展示使用數據集進行結構化數據處理的一些基本示例:
// This import is needed to use the $-notation
import spark.implicits._
// Print the schema in a tree format
df.printSchema()
// root
// |-- age: long (nullable = true)
// |-- name: string (nullable = true)
// Select only the "name" column
df.select("name").show()
// +-------+
// | name|
// +-------+
// |Michael|
// | Andy|
// | Justin|
// +-------+
// Select everybody, but increment the age by 1
df.select($"name", $"age" + 1).show()
// +-------+---------+
// | name|(age + 1)|
// +-------+---------+
// |Michael| null|
// | Andy| 31|
// | Justin| 20|
// +-------+---------+
// Select people older than 21
df.filter($"age" > 21).show()
// +---+----+
// |age|name|
// +---+----+
// | 30|Andy|
// +---+----+
// Count people by age
df.groupBy("age").count().show()
// +----+-----+
// | age|count|
// +----+-----+
// | 19| 1|
// |null| 1|
// | 30| 1|
// +----+-----+
以編程方式運行SQL查詢
SparkSession上的sql函數使應用程序能夠以編程方式運行SQL查詢並將結果作爲DataFrame返回。
// Register the DataFrame as a SQL temporary view
df.createOrReplaceTempView("people")
val sqlDF = spark.sql("SELECT * FROM people")
sqlDF.show()
// +----+-------+
// | age| name|
// +----+-------+
// |null|Michael|
// | 30| Andy|
// | 19| Justin|
// +----+-------+
全局臨時視圖
Spark SQL中的臨時視圖是會話範圍的,如果創建它的會話終止,它將消失。 如果希望擁有一個在所有會話之間共享的臨時視圖並保持活動狀態,直到Spark應用程序終止,您可以創建一個全局臨時視圖。 全局臨時視圖與系統保留的數據庫global_temp綁定,我們必須使用限定名稱來引用它,例如 SELECT * FROM global_temp.view1
。
// Register the DataFrame as a global temporary view
df.createGlobalTempView("people")
// Global temporary view is tied to a system preserved database `global_temp`
spark.sql("SELECT * FROM global_temp.people").show()
// +----+-------+
// | age| name|
// +----+-------+
// |null|Michael|
// | 30| Andy|
// | 19| Justin|
// +----+-------+
// Global temporary view is cross-session
spark.newSession().sql("SELECT * FROM global_temp.people").show()
// +----+-------+
// | age| name|
// +----+-------+
// |null|Michael|
// | 30| Andy|
// | 19| Justin|
// +----+-------+
創建數據集
數據集與RDD類似,但是,它們不使用Java序列化或Kryo,而是使用專用的編碼器來序列化對象以便通過網絡進行處理或傳輸。 雖然編碼器和標準序列化都負責將對象轉換爲字節,但編碼器是動態生成的代碼,並使用一種格式,允許Spark執行許多操作,如過濾,排序和散列,而無需將字節反序列化爲對象。
case class Person(name: String, age: Long)
// Encoders are created for case classes
val caseClassDS = Seq(Person("Andy", 32)).toDS()
caseClassDS.show()
// +----+---+
// |name|age|
// +----+---+
// |Andy| 32|
// +----+---+
// Encoders for most common types are automatically provided by importing spark.implicits._
val primitiveDS = Seq(1, 2, 3).toDS()
primitiveDS.map(_ + 1).collect() // Returns: Array(2, 3, 4)
// DataFrames can be converted to a Dataset by providing a class. Mapping will be done by name
val path = "examples/src/main/resources/people.json"
val peopleDS = spark.read.json(path).as[Person]
peopleDS.show()
// +----+-------+
// | age| name|
// +----+-------+
// |null|Michael|
// | 30| Andy|
// | 19| Justin|
// +----+-------+
與RDD交互操作
Spark SQL支持兩種不同的方法將現有RDD轉換爲數據集。 第一種方法使用反射來推斷包含特定類型對象的RDD的schema。 這種基於反射的方法可以提供更簡潔的代碼,並且在您編寫Spark應用程序時已經瞭解schema時可以很好地工作。
創建數據集的第二種方法是通過編程接口,這種方法允許你構建模式,然後將其應用於現有RDD。 雖然此方法更繁瑣一些,但它允許在直到運行時才知道列及其類型時構造數據集。
利用反射推斷的方法
Spark SQL的Scala接口支持自動將包含RDD的case class轉換爲DataFrame。 case class用來定義表的模式。 case類的參數名稱是通過反射讀取的,這些名稱會成爲列的名稱。 case類也可以被嵌套或包含複雜類型,如Seqs或Arrays。 此RDD可以隱式轉換爲DataFrame,然後註冊爲表。而這個表可以在後續SQL語句中使用。
// For implicit conversions from RDDs to DataFrames
import spark.implicits._
// Create an RDD of Person objects from a text file, convert it to a Dataframe
val peopleDF = spark.sparkContext
.textFile("examples/src/main/resources/people.txt")
.map(_.split(","))
.map(attributes => Person(attributes(0), attributes(1).trim.toInt))
.toDF()
// Register the DataFrame as a temporary view
peopleDF.createOrReplaceTempView("people")
// SQL statements can be run by using the sql methods provided by Spark
val teenagersDF = spark.sql("SELECT name, age FROM people WHERE age BETWEEN 13 AND 19")
// The columns of a row in the result can be accessed by field index
teenagersDF.map(teenager => "Name: " + teenager(0)).show()
// +------------+
// | value|
// +------------+
// |Name: Justin|
// +------------+
// or by field name
teenagersDF.map(teenager => "Name: " + teenager.getAs[String]("name")).show()
// +------------+
// | value|
// +------------+
// |Name: Justin|
// +------------+
// No pre-defined encoders for Dataset[Map[K,V]], define explicitly
implicit val mapEncoder = org.apache.spark.sql.Encoders.kryo[Map[String, Any]]
// Primitive types and case classes can be also defined as
// implicit val stringIntMapEncoder: Encoder[Map[String, Any]] = ExpressionEncoder()
// row.getValuesMap[T] retrieves multiple columns at once into a Map[String, T]
teenagersDF.map(teenager => teenager.getValuesMap[Any](List("name", "age"))).collect()
// Array(Map("name" -> "Justin", "age" -> 19))
利用編程接口聲明schema的方法
如果無法提前定義case類(例如,記錄的結構以字符串形式編碼,或者文本數據集將被解析,字段將針對不同的用戶進行不同的映射),則可以通過三個步驟以編程方式創建DataFrame。
- 從原始RDD創建行RDD;
- 創建由與步驟1中創建的RDD中的行結構匹配的StructType表示的schema。
- 通過SparkSession提供的createDataFrame方法將schema應用於行RDD。
import org.apache.spark.sql.types._
// Create an RDD
val peopleRDD = spark.sparkContext.textFile("examples/src/main/resources/people.txt")
// The schema is encoded in a string
val schemaString = "name age"
// Generate the schema based on the string of schema
val fields = schemaString.split(" ")
.map(fieldName => StructField(fieldName, StringType, nullable = true))
val schema = StructType(fields)
// Convert records of the RDD (people) to Rows
val rowRDD = peopleRDD
.map(_.split(","))
.map(attributes => Row(attributes(0), attributes(1).trim))
// Apply the schema to the RDD
val peopleDF = spark.createDataFrame(rowRDD, schema)
// Creates a temporary view using the DataFrame
peopleDF.createOrReplaceTempView("people")
// SQL can be run over a temporary view created using DataFrames
val results = spark.sql("SELECT name FROM people")
// The results of SQL queries are DataFrames and support all the normal RDD operations
// The columns of a row in the result can be accessed by field index or by field name
results.map(attributes => "Name: " + attributes(0)).show()
// +-------------+
// | value|
// +-------------+
// |Name: Michael|
// | Name: Andy|
// | Name: Justin|
// +-------------+
聚合
內置的DataFrames函數提供常見的聚合,如count(),countDistinct(),avg(),max(),min()等。雖然這些函數是爲DataFrames設計的,但Spark SQL也有類型安全的版本 其中一些在Scala和Java中使用強類型數據集。 此外,用戶不限於使用預定義的聚合函數,也可以創建自己的聚合函數。
無類型的UDAF
用戶必須擴展UserDefinedAggregateFunction抽象類以實現自定義無類型聚合函數。 例如,用戶定義的平均值可能如下所示:
import org.apache.spark.sql.{Row, SparkSession}
import org.apache.spark.sql.expressions.MutableAggregationBuffer
import org.apache.spark.sql.expressions.UserDefinedAggregateFunction
import org.apache.spark.sql.types._
object MyAverage extends UserDefinedAggregateFunction {
// Data types of input arguments of this aggregate function
def inputSchema: StructType = StructType(StructField("inputColumn", LongType) :: Nil)
// Data types of values in the aggregation buffer
def bufferSchema: StructType = {
StructType(StructField("sum", LongType) :: StructField("count", LongType) :: Nil)
}
// The data type of the returned value
def dataType: DataType = DoubleType
// Whether this function always returns the same output on the identical input
def deterministic: Boolean = true
// Initializes the given aggregation buffer. The buffer itself is a `Row` that in addition to
// standard methods like retrieving a value at an index (e.g., get(), getBoolean()), provides
// the opportunity to update its values. Note that arrays and maps inside the buffer are still
// immutable.
def initialize(buffer: MutableAggregationBuffer): Unit = {
buffer(0) = 0L
buffer(1) = 0L
}
// Updates the given aggregation buffer `buffer` with new input data from `input`
def update(buffer: MutableAggregationBuffer, input: Row): Unit = {
if (!input.isNullAt(0)) {
buffer(0) = buffer.getLong(0) + input.getLong(0)
buffer(1) = buffer.getLong(1) + 1
}
}
// Merges two aggregation buffers and stores the updated buffer values back to `buffer1`
def merge(buffer1: MutableAggregationBuffer, buffer2: Row): Unit = {
buffer1(0) = buffer1.getLong(0) + buffer2.getLong(0)
buffer1(1) = buffer1.getLong(1) + buffer2.getLong(1)
}
// Calculates the final result
def evaluate(buffer: Row): Double = buffer.getLong(0).toDouble / buffer.getLong(1)
}
// Register the function to access it
spark.udf.register("myAverage", MyAverage)
val df = spark.read.json("examples/src/main/resources/employees.json")
df.createOrReplaceTempView("employees")
df.show()
// +-------+------+
// | name|salary|
// +-------+------+
// |Michael| 3000|
// | Andy| 4500|
// | Justin| 3500|
// | Berta| 4000|
// +-------+------+
val result = spark.sql("SELECT myAverage(salary) as average_salary FROM employees")
result.show()
// +--------------+
// |average_salary|
// +--------------+
// | 3750.0|
// +--------------+
類型安全的用戶定義聚合函數
強類型數據集的用戶定義聚合通過Aggregator抽象類來實現。 例如,類型安全的用戶定義平均值可能如下所示:
import org.apache.spark.sql.{Encoder, Encoders, SparkSession}
import org.apache.spark.sql.expressions.Aggregator
case class Employee(name: String, salary: Long)
case class Average(var sum: Long, var count: Long)
object MyAverage extends Aggregator[Employee, Average, Double] {
// A zero value for this aggregation. Should satisfy the property that any b + zero = b
def zero: Average = Average(0L, 0L)
// Combine two values to produce a new value. For performance, the function may modify `buffer`
// and return it instead of constructing a new object
def reduce(buffer: Average, employee: Employee): Average = {
buffer.sum += employee.salary
buffer.count += 1
buffer
}
// Merge two intermediate values
def merge(b1: Average, b2: Average): Average = {
b1.sum += b2.sum
b1.count += b2.count
b1
}
// Transform the output of the reduction
def finish(reduction: Average): Double = reduction.sum.toDouble / reduction.count
// Specifies the Encoder for the intermediate value type
def bufferEncoder: Encoder[Average] = Encoders.product
// Specifies the Encoder for the final output value type
def outputEncoder: Encoder[Double] = Encoders.scalaDouble
}
val ds = spark.read.json("examples/src/main/resources/employees.json").as[Employee]
ds.show()
// +-------+------+
// | name|salary|
// +-------+------+
// |Michael| 3000|
// | Andy| 4500|
// | Justin| 3500|
// | Berta| 4000|
// +-------+------+
// Convert the function to a `TypedColumn` and give it a name
val averageSalary = MyAverage.toColumn.name("average_salary")
val result = ds.select(averageSalary)
result.show()
// +--------------+
// |average_salary|
// +--------------+
// | 3750.0|
// +--------------+
數據源
Spark SQL支持通過DataFrame接口對各種數據源進行操作。 DataFrame可以使用關係型轉換操作進行操作,也可以用於創建臨時視圖。 將DataFrame註冊爲臨時視圖允許您對其數據運行SQL查詢。 下面的部分會介紹使用Spark數據源加載和保存數據的一般方法,然後介紹可用於內置數據源的特定配置選項。
通用加載/保存功能
在最簡單的形式中,默認數據源(parquet文件,除非另外由spark.sql.sources.default配置指定)將用於所有操作。
val usersDF = spark.read.load("examples/src/main/resources/users.parquet")
usersDF.select("name", "favorite_color").write.save("namesAndFavColors.parquet")
手動指定選項
你還可以手動指定將要使用的數據源以及要傳遞給數據源的任何其他選項。 數據源由其完全限定名稱(即org.apache.spark.sql.parquet)指定,但對於內置源,你還可以使用其短名稱(json,parquet,jdbc,orc,libsvm,csv,text)。 從任何數據源類型加載的DataFrame都可以使用此語法轉換爲其他類型。
加載一個json文件可以用如下方法:
val peopleDF = spark.read.format("json").load("examples/src/main/resources/people.json")
peopleDF.select("name", "age").write.format("parquet").save("namesAndAges.parquet")
而加載一個csv可以這樣:
val peopleDFCsv = spark.read.format("csv")
.option("sep", ";")
.option("inferSchema", "true")
.option("header", "true")
.load("examples/src/main/resources/people.csv")
在寫操作期間也使用額外選項。 例如,您可以控制ORC數據源的bloom過濾器和字典編碼。 以下ORC示例將在favorite_color上創建bloom過濾器,並對name和favorite_color使用字典編碼。 對於Parquet,也存在parquet.enable.dictionary。 要查找有關額外ORC / Parquet選項的更多詳細信息,請訪問官方Apache ORC / Parquet網站。
usersDF.write.format("orc")
.option("orc.bloom.filter.columns", "favorite_color")
.option("orc.dictionary.key.threshold", "1.0")
.save("users_with_options.orc")
直接在文件上運行SQL
您可以直接使用SQL查詢該文件,而不是使用讀取API將文件加載到DataFrame並進行查詢。
val sqlDF = spark.sql("SELECT * FROM parquet.`examples/src/main/resources/users.parquet`")
保存模式
保存操作可以有選擇地使用SaveMode,不同選項模式指定如何處理現有數據(如果存在)。 重要的是要意識到這些保存模式不使用任何鎖定並且不是原子的。 此外,執行覆蓋時,將在寫出新數據之前刪除數據。
Scala/Java | Any Language | Meaning |
---|---|---|
SaveMode.ErrorIfExists (default) |
"error" or "errorifexists" (default) |
將DataFrame保存到數據源時,如果數據已存在,則會引發異常。 |
SaveMode.Append |
"append" |
將DataFrame保存到數據源時,如果數據/表已存在,則DataFrame的內容應附加到現有數據。 |
SaveMode.Overwrite |
"overwrite" |
覆蓋模式意味着在將DataFrame保存到數據源時,如果數據/表已經存在,則預期現有數據將被DataFrame的內容覆蓋。 |
SaveMode.Ignore |
"ignore" |
忽略模式意味着在將DataFrame保存到數據源時,如果數據已存在,則預期保存操作不會保存DataFrame的內容而不會更改現有數據。 這類似於SQL中的CREATE TABLE IF NOT EXISTS 。
|
保存到持久表
也可以使用saveAsTable命令將DataFrames作爲持久表保存到Hive Metastore中。請注意,使用此功能不需要現有的Hive部署。 Spark將爲您創建默認的本地Hive Metastore(使用Derby)。 與createOrReplaceTempView命令不同,saveAsTable將實現DataFrame的內容並創建指向Hive Metastore中數據的指針。 只要您保持與同一Metastore的連接,即使您的Spark程序重新啓動後,持久表仍然存在。 可以通過使用表的名稱調用SparkSession上的table方法來創建持久表的DataFrame。
對於基於文件的數據源,例如 text,parquet,json等,你可以通過路徑選項指定自定義表路徑,例如 df.write.option(“path”,“/ some / path”).saveAsTable(“t”)
。 刪除表時,將不會刪除自定義表路徑,並且表數據仍然存在。 如果未指定自定義表路徑,則Spark會將數據寫入倉庫目錄下的默認表路徑。 刪除表時,也將刪除默認表路徑。
從Spark 2.1開始,持久數據源表將每個分區元數據存儲在Hive Metastore中。 這帶來了幾個好處:
- 由於Metastore只能返回查詢所需的分區,因此不再需要在表的第一個查詢中發現所有分區。
- 現在,對於使用Datasource API創建的表,可以使用
ALTER TABLE PARTITION ... SET LOCATION
等Hive DDL。
請注意,在創建外部數據源表(具有路徑選項的表)時,默認情況下不會收集分區信息。 要同步Metastore中的分區信息,可以調用MSCK REPAIR TABLE
。
分桶、排序和分區
對於基於文件的數據源,也可以對輸出進行分桶和排序或分區。 分桶和排序僅適用於持久表:
peopleDF.write.bucketBy(42, "name").sortBy("age").saveAsTable("people_bucketed")
分區可以在使用數據集API時與save
和saveAsTable
一起使用。
usersDF.write.partitionBy("favorite_color").format("parquet").save("namesPartByColor.parquet")
可以對單個表同時使用分區和分桶:
usersDF
.write
.partitionBy("favorite_color")
.bucketBy(42, "name")
.saveAsTable("users_partitioned_bucketed")
partitionBy
會創建一個目錄結構,如”分區發現“這一章所述。 因此,它對具有高基數的列的適用性有限。 相比之下,bucketBy
可以在固定數量的桶中分配數據,並且可以在出現許多無界的唯一值時使用。
Parquet文件
Parquet是一種面向列的存儲格式,許多數據處理系統都支持它。Spark SQL支持讀取和寫入Parquet文件,這些文件自動保留原始數據的schema。 在寫Parquet文件時,出於兼容性原因,所有列都會自動轉換爲可爲空(nullable)模式。
以編程方式加載數據
使用如下的例子來實現:
// Encoders for most common types are automatically provided by importing spark.implicits._
import spark.implicits._
val peopleDF = spark.read.json("examples/src/main/resources/people.json")
// DataFrames can be saved as Parquet files, maintaining the schema information
peopleDF.write.parquet("people.parquet")
// Read in the parquet file created above
// Parquet files are self-describing so the schema is preserved
// The result of loading a Parquet file is also a DataFrame
val parquetFileDF = spark.read.parquet("people.parquet")
// Parquet files can also be used to create a temporary view and then used in SQL statements
parquetFileDF.createOrReplaceTempView("parquetFile")
val namesDF = spark.sql("SELECT name FROM parquetFile WHERE age BETWEEN 13 AND 19")
namesDF.map(attributes => "Name: " + attributes(0)).show()
// +------------+
// | value|
// +------------+
// |Name: Justin|
// +------------+
分區發現
表分區是Hive等系統中常用的優化方法。 在分區表中,數據通常存儲在不同的目錄中,分區列值被編碼爲每個分區目錄路徑。所有內置文件源(包括Text / CSV / JSON / ORC / Parquet)都能夠自動發現和推斷分區信息。 例如,我們可以使用以下目錄結構將所有以前使用的人口數據存儲到分區表中,並將兩個額外的列(性別和國家)作爲分區列:
path
└── to
└── table
├── gender=male
│ ├── ...
│ │
│ ├── country=US
│ │ └── data.parquet
│ ├── country=CN
│ │ └── data.parquet
│ └── ...
└── gender=female
├── ...
│
├── country=US
│ └── data.parquet
├── country=CN
│ └── data.parquet
└── ...
通過將 path/to/table 傳遞給SparkSession.read.parquet
或SparkSession.read.load
,Spark SQL將自動從路徑中提取分區信息。 現在返回的DataFrame的schema變爲:
root
|-- name: string (nullable = true)
|-- age: long (nullable = true)
|-- gender: string (nullable = true)
|-- country: string (nullable = true)
請注意,分區列的數據類型是自動推斷的。 目前,支持數字數據類型,日期,時間戳和字符串類型。 有時,用戶可能不希望自動推斷分區列的數據類型。 對於這些用例,可以通過spark.sql.sources.partitionColumnTypeInference.enabled
配置自動類型推斷,默認爲true。 禁用類型推斷時,字符串類型將用於分區列。
從Spark 1.6.0開始,分區發現默認只查找給定路徑下的分區。 對於上面的示例,如果用戶將path/to/table/gender=male
傳遞給SparkSession.read.parquet
或SparkSession.read.load
,則不會將性別視爲分區列。 如果用戶需要指定分區發現應該從哪個基本路徑開始,則可以在數據源選項中設置basePath。 例如,當path/to/table/gender=male
是數據的路徑並且用戶將basePath設置爲path/to/table/時,gender將是分區列。
模式合併Schema Merging
與Protocol Buffer,Avro和Thrift一樣,Parquet也支持模式演變。 用戶可以從簡單模式開始,並根據需要逐漸向模式添加更多列。 通過這種方式,用戶可能最終得到具有不同但相互兼容的模式的多個Parquet文件。 Parquet數據源現在能夠自動檢測這種情況併合並所有這些文件的模式。
由於模式合併是一項相對昂貴的操作,並且在大多數情況下不是必需的,因此我們默認從1.5.0開始關閉它。 您可以通過以下兩種方式啓用它:
- 在讀取Parquet文件時將數據源選項mergeSchema設置爲true(如下面的示例所示),或
- 將全局SQL選項
spark.sql.parquet.mergeSchema
設置爲true。
// This is used to implicitly convert an RDD to a DataFrame.
import spark.implicits._
// Create a simple DataFrame, store into a partition directory
val squaresDF = spark.sparkContext.makeRDD(1 to 5).map(i => (i, i * i)).toDF("value", "square")
squaresDF.write.parquet("data/test_table/key=1")
// Create another DataFrame in a new partition directory,
// adding a new column and dropping an existing column
val cubesDF = spark.sparkContext.makeRDD(6 to 10).map(i => (i, i * i * i)).toDF("value", "cube")
cubesDF.write.parquet("data/test_table/key=2")
// Read the partitioned table
val mergedDF = spark.read.option("mergeSchema", "true").parquet("data/test_table")
mergedDF.printSchema()
// The final schema consists of all 3 columns in the Parquet files together
// with the partitioning column appeared in the partition directory paths
// root
// |-- value: int (nullable = true)
// |-- square: int (nullable = true)
// |-- cube: int (nullable = true)
// |-- key: int (nullable = true)
Hive Metastore Parquet錶轉換
在讀取和寫入Hive Metastore Parquet表時,Spark SQL將嘗試使用自己的Parquet支持而不是Hive SerDe來獲得更好的性能。 此行爲由spark.sql.hive.convertMetastoreParquet
配置控制,默認情況下處於打開狀態。
Hive/Parquet Schema Reconciliation
從表模式處理的角度來看,Hive和Parquet之間存在兩個主要區別。
- Hive不區分大小寫,而Parquet則區分大小寫
- Hive認爲所有列都可以爲空,而Parquet中的可空性設定很重要
由於這個原因,在將Hive Metastore Parquet錶轉換爲Spark SQL Parquet表時,我們必須將Hive Metastore模式與Parquet模式進行協調。 相應的規則是:
- 兩個模式中具有相同名稱的字段必須具有相同的數據類型,而不管可空性如何。 協調字段應具有Parquet端的數據類型,以便遵循可爲空性。
- 協調的模式要精準的包含Hive Metastore模式中定義的那些字段。
- 僅出現在Parquet模式中的任何字段都將在協調的模式中被放棄。
- 僅出現在Hive Metastore模式中的任何字段都將在協調模式中添加爲可空字段。
元數據刷新Metadata Refreshing
Spark SQL緩存Parquet元數據以獲得更好的性能。 啓用Hive Metastore Parquet錶轉換後,還會緩存這些轉換表的元數據。 如果這些表由Hive或其他外部工具更新,則需要手動刷新它們以確保元數據一致。
// spark is an existing SparkSession
spark.catalog.refreshTable("my_table")
配置
可以使用SparkSession上的setConf方法或使用SQL運行SET key = value命令來完成Parquet的配置。
Property Name | Default | Meaning |
---|---|---|
spark.sql.parquet.binaryAsString |
false | 其他一些Parquet生產系統,特別是Impala,Hive和舊版本的Spark SQL在寫出Parquet模式時,不要區分二進制數據和字符串。 這個flag告訴Spark SQL將二進制數據解釋爲字符串,以提供與這些系統的兼容性。 |
spark.sql.parquet.int96AsTimestamp |
true | 一些Parquet生產系統,特別是Impala和Hive,將時間戳存儲到INT96中。 這個flag告訴Spark SQL將INT96數據解釋爲時間戳,以提供與這些系統的兼容性。 |
spark.sql.parquet.compression.codec |
snappy |
設置編寫Parquet文件時使用的壓縮編解碼器。 如果是compression 或parquet.compression 在聲明表的選項/屬性中指定聲明,優先級爲compression ,parquet.compression ,spark.sql.parquet.compression.codec 。 可接受的值包括:none,uncompressed,snappy,gzip,lzo,brotli,lz4,zstd。注意zstd 需要在Hadoop 2.9.0之前安裝ZStandardCodec ,brotli 需要要安裝BrotliCodec 。
|
spark.sql.parquet.filterPushdown |
true | 設置爲true時啓用Parquet過濾器下推優化。 |
spark.sql.hive.convertMetastoreParquet |
true | 設置爲false時,Spark SQL將使用Hive SerDe作爲Parquet而不是內置支持。 |
spark.sql.parquet.mergeSchema |
false |
如果爲true,則Parquet數據源合併從所有數據文件收集的模式,否則從摘要文件選取模式,如果沒有可用的摘要文件,則從隨機數據文件中選取模式。 |
spark.sql.optimizer.metadataOnly |
true |
如果爲true,則利用表的元數據來做僅元數據查詢優化生成分區列而不是表掃描。 它適用於掃描的所有列都是分區列,並且查詢具有滿足distinct語義的聚合運算符的情況。 |
spark.sql.parquet.writeLegacyFormat |
false | 如果爲true,則數據將以Spark 1.4及更早版本的方式寫入。 例如,十進制值將以Apache Parquet的固定長度字節數組格式編寫,供其他系統如Apache Hive和Apache Impala使用。如果爲false,將使用Parquet中的較新格式。例如,十進制數將以基於int的格式編寫。如果打算使用Parquet輸出的對應系統不支持此新格式,請設置爲true。 |
ORC Files
從Spark 2.3開始,Spark使用新ORC文件格式的向量化的ORC reader來支持ORC文件。爲此,新添加了以下配置。 當spark.sql.orc.impl
設置爲native並且spark.sql.orc.enableVectorizedReader
設置爲true時,向量化reader用於原生ORC表(例如,使用USING ORC子句創建的表)。對於Hive ORC serde表(例如,使用USING HIVE OPTIONS(fileFormat'ORC')子句創建的表),當spark.sql.hive.convertMetastoreOrc
也設置爲true時,使用向量化reader。
Property Name | Default | Meaning |
---|---|---|
spark.sql.orc.impl |
native |
ORC實現的名稱。 它可以是 native 和 hive 之一。 native 表示在Apache ORC 1.4上構建的原生ORC支持。 hive 表示Hive 1.2.1中的ORC庫。 |
spark.sql.orc.enableVectorizedReader |
true |
在 native 實現中啓用矢量化orc解碼。如果 false ,則在 native 實現中使用新的非向量化ORC reader。 對於 hive 實現,這將被忽略。 |
JSON Files
Spark SQL可以自動推斷JSON數據集的模式,並將其作爲Dataset[Row]加載。 可以使用Dataset[String]或JSON文件上的SparkSession.read.json()完成此轉換。
請注意,作爲json文件提供的文件不是典型的JSON文件。 每行必須包含一個單獨的,自包含的有效JSON對象。 有關更多信息,請參閱JSON Lines文本格式,也稱爲換行符分隔的JSON。
For a regular multi-line JSON file, set the multiLine option to true.
對於一個常規的多行JSON文件,設置multiLine選項爲true。
// Primitive types (Int, String, etc) and Product types (case classes) encoders are
// supported by importing this when creating a Dataset.
import spark.implicits._
// A JSON dataset is pointed to by path.
// The path can be either a single text file or a directory storing text files
val path = "examples/src/main/resources/people.json"
val peopleDF = spark.read.json(path)
// The inferred schema can be visualized using the printSchema() method
peopleDF.printSchema()
// root
// |-- age: long (nullable = true)
// |-- name: string (nullable = true)
// Creates a temporary view using the DataFrame
peopleDF.createOrReplaceTempView("people")
// SQL statements can be run by using the sql methods provided by spark
val teenagerNamesDF = spark.sql("SELECT name FROM people WHERE age BETWEEN 13 AND 19")
teenagerNamesDF.show()
// +------+
// | name|
// +------+
// |Justin|
// +------+
// Alternatively, a DataFrame can be created for a JSON dataset represented by
// a Dataset[String] storing one JSON object per string
val otherPeopleDataset = spark.createDataset(
"""{"name":"Yin","address":{"city":"Columbus","state":"Ohio"}}""" :: Nil)
val otherPeople = spark.read.json(otherPeopleDataset)
otherPeople.show()
// +---------------+----+
// | address|name|
// +---------------+----+
// |[Columbus,Ohio]| Yin|
// +---------------+----+
Hive表Hive Tables
Spark SQL還支持讀取和寫入存儲在Apache Hive中的數據。 但是,由於Hive具有大量依賴項,而這些依賴項不包含在默認的Spark分發版本中。如果可以在類路徑上找到Hive依賴項,Spark將自動加載它們。 請注意,這些Hive依賴項也必須存在於所有工作節點上,因爲它們需要訪問Hive序列化和反序列化庫(SerDes)才能訪問存儲在Hive中的數據。
通過在conf/中放置hive-site.xml,core-site.xml(用於安全性配置)和hdfs-site.xml(用於HDFS配置)文件來完成Hive的配置。
使用Hive時,必須使用Hive支持來實例化SparkSession,包括連接到持久化的Hive Metastore,支持Hive serdes和Hive用戶定義函數。 沒有現有Hive部署的用戶仍可以啓用Hive支持。 當未由hive-site.xml配置時,上下文會自動在當前目錄中創建metastore_db,並創建一個由spark.sql.warehouse.dir配置的目錄,該目錄默認爲當前目錄中的spark-warehouse目錄,Spark應用程序從此開始。 請注意,自Spark 2.0.0起,不推薦使用hive-site.xml中的hive.metastore.warehouse.dir屬性。 而是使用spark.sql.warehouse.dir指定倉庫中數據庫的默認位置。 您可能需要向啓動Spark應用程序的用戶授予寫入權限。
import java.io.File
import org.apache.spark.sql.{Row, SaveMode, SparkSession}
case class Record(key: Int, value: String)
// warehouseLocation points to the default location for managed databases and tables
val warehouseLocation = new File("spark-warehouse").getAbsolutePath
val spark = SparkSession
.builder()
.appName("Spark Hive Example")
.config("spark.sql.warehouse.dir", warehouseLocation)
.enableHiveSupport()
.getOrCreate()
import spark.implicits._
import spark.sql
sql("CREATE TABLE IF NOT EXISTS src (key INT, value STRING) USING hive")
sql("LOAD DATA LOCAL INPATH 'examples/src/main/resources/kv1.txt' INTO TABLE src")
// Queries are expressed in HiveQL
sql("SELECT * FROM src").show()
// +---+-------+
// |key| value|
// +---+-------+
// |238|val_238|
// | 86| val_86|
// |311|val_311|
// ...
// Aggregation queries are also supported.
sql("SELECT COUNT(*) FROM src").show()
// +--------+
// |count(1)|
// +--------+
// | 500 |
// +--------+
// The results of SQL queries are themselves DataFrames and support all normal functions.
val sqlDF = sql("SELECT key, value FROM src WHERE key < 10 ORDER BY key")
// The items in DataFrames are of type Row, which allows you to access each column by ordinal.
val stringsDS = sqlDF.map {
case Row(key: Int, value: String) => s"Key: $key, Value: $value"
}
stringsDS.show()
// +--------------------+
// | value|
// +--------------------+
// |Key: 0, Value: val_0|
// |Key: 0, Value: val_0|
// |Key: 0, Value: val_0|
// ...
// You can also use DataFrames to create temporary views within a SparkSession.
val recordsDF = spark.createDataFrame((1 to 100).map(i => Record(i, s"val_$i")))
recordsDF.createOrReplaceTempView("records")
// Queries can then join DataFrame data with data stored in Hive.
sql("SELECT * FROM records r JOIN src s ON r.key = s.key").show()
// +---+------+---+------+
// |key| value|key| value|
// +---+------+---+------+
// | 2| val_2| 2| val_2|
// | 4| val_4| 4| val_4|
// | 5| val_5| 5| val_5|
// ...
// Create a Hive managed Parquet table, with HQL syntax instead of the Spark SQL native syntax
// `USING hive`
sql("CREATE TABLE hive_records(key int, value string) STORED AS PARQUET")
// Save DataFrame to the Hive managed table
val df = spark.table("src")
df.write.mode(SaveMode.Overwrite).saveAsTable("hive_records")
// After insertion, the Hive managed table has data now
sql("SELECT * FROM hive_records").show()
// +---+-------+
// |key| value|
// +---+-------+
// |238|val_238|
// | 86| val_86|
// |311|val_311|
// ...
// Prepare a Parquet data directory
val dataDir = "/tmp/parquet_data"
spark.range(10).write.parquet(dataDir)
// Create a Hive external Parquet table
sql(s"CREATE EXTERNAL TABLE hive_ints(key int) STORED AS PARQUET LOCATION '$dataDir'")
// The Hive external table should already have data
sql("SELECT * FROM hive_ints").show()
// +---+
// |key|
// +---+
// | 0|
// | 1|
// | 2|
// ...
// Turn on flag for Hive Dynamic Partitioning
spark.sqlContext.setConf("hive.exec.dynamic.partition", "true")
spark.sqlContext.setConf("hive.exec.dynamic.partition.mode", "nonstrict")
// Create a Hive partitioned table using DataFrame API
df.write.partitionBy("key").format("hive").saveAsTable("hive_part_tbl")
// Partitioned column `key` will be moved to the end of the schema.
sql("SELECT * FROM hive_part_tbl").show()
// +-------+---+
// | value|key|
// +-------+---+
// |val_238|238|
// | val_86| 86|
// |val_311|311|
// ...
spark.stop()
指定Hive表的存儲格式
創建Hive表時,需要定義此表應如何從/向文件系統讀取/寫入數據,即“輸入格式”和“輸出格式”。 您還需要定義此表如何將數據反序列化爲行,或將行序列化爲數據,即“serde”。 以下選項可用於指定存儲格式(“serde”,“輸入格式”,“輸出格式”),例如, CREATE TABLE src(id int) USING hive OPTIONS(fileFormat 'parquet')
。 默認情況下,我們將表文件作爲純文本讀取。 請注意,創建表時尚不支持Hive存儲handler,您可以使用Hive端的存儲handler創建表,並使用Spark SQL讀取它。
Property Name | Meaning |
---|---|
fileFormat |
fileFormat是一種存儲格式規範包,包括“serde”,“input format”和“output format”。 目前我們支持6種fileFormats:'sequencefile','rcfile','orc','parquet','textfile'和'avro'。 |
inputFormat, outputFormat |
這兩個選項將相應的InputFormat 和OutputFormat 類的名稱指定爲字符串文字,例如org.apache.hadoop.hive.ql.io.orc.OrcInputFormat 。 這兩個選項必須成對出現,如果已經指定了fileFormat 選項,你不能請再指定它們。
|
serde |
此選項指定serde類的名稱。 指定fileFormat 選項時,如果給定的fileFormat 已經包含了serde的信息則請勿再指定此選項。 目前“sequencefile”,“textfile”和“rcfile”不包含serde信息,您可以將此選項與這3個fileFormats一起使用。
|
fieldDelim, escapeDelim, collectionDelim, mapkeyDelim, lineDelim |
這些選項只能與“textfile”文件格式一起使用。 它們定義瞭如何將文件內容分隔爲行。 |
與不同版本的Hive Metastore交互
Spark SQL的Hive支持最重要的部分之一是與Hive Metastore的交互,這使得Spark SQL能夠訪問Hive表的元數據。從Spark 1.4.0開始,可以使用單個二進制構建的Spark SQL來查詢不同版本的Hive Metastores,使用下面描述的配置。 請注意,獨立於用於與Metastore通信的Hive版本,Spark SQL將針對Hive 1.2.1進行編譯作爲內部實現,並使用這些類進行內部執行(serdes,UDF,UDAF等)。
下面的選項用來配置Hive的版本,從而檢索元數據。
Property Name | Default | Meaning |
---|---|---|
spark.sql.hive.metastore.version |
1.2.1 |
Hive metastore的版本。可選的配置從0.12.0 到 2.3.3 。
|
spark.sql.hive.metastore.jars |
builtin |
用來實例化HiveMetastoreClient的jar包的地址。可以是一下3個選項之一:
-Phive 時,使用Hive 1.2.1,這是與Spark綁定的版本。當選擇該項時,spark.sql.hive.metastore.version 必須是1.2.1 或者無定義。
maven
使用從Maven倉庫中下載的指定的Hive jar包。該配置在生產環境不推薦。
JVM標準格式的類路徑。 此類路徑必須包含Hive及其所有依賴項,包括正確版本的Hadoop。 這些jar包只需要存在於驅動程序中,但如果您以yarn集羣模式運行,則必須確保它們與您的應用程序一起打包。
|
spark.sql.hive.metastore.sharedPrefixes |
com.mysql.jdbc, |
以逗號分隔的類前綴列表,應使用在Spark SQL和特定版本的Hive之間共享的類加載器加載。 舉個應該被共享的類的示例是與Metastore進行通信所需的JDBC驅動程序。 其他需要共享的類是與已共享的類交互的類。 例如,log4j使用的自定義appender。 |
spark.sql.hive.metastore.barrierPrefixes |
(empty) |
以逗號分隔的類前綴列表,應爲Spark SQL在與每個Hive版通信時需要顯式重新加載的類。 例如,在前綴中聲明的Hive的UDF就是典型的需要被共享的。(例如 |
JDBC To Other Databases
Spark SQL還包括一個可以使用JDBC從其他數據庫讀取數據的數據源。 與使用JdbcRDD相比,此功能應該更受歡迎。 這是因爲這樣操作的結果作爲DataFrame返回,可以在Spark SQL中輕鬆處理,也可以與其他數據源連接。 JDBC數據源也更易於在Java或Python中使用,因爲它不需要用戶提供ClassTag。 (請注意,這與Spark SQL JDBC服務器不同,後者允許其他應用程序使用Spark SQL運行查詢)。
首先,您需要在spark類路徑中包含特定數據庫的JDBC驅動程序。 例如,要從Spark Shell連接到postgres,您將運行以下命令:
bin/spark-shell --driver-class-path postgresql-9.4.1207.jar --jars postgresql-9.4.1207.jar
可以使用Data Sources API將遠程數據庫中的表加載爲DataFrame或Spark SQL臨時視圖。用戶可以在數據源選項中指定JDBC連接屬性。 用戶名和密碼通常作爲登錄數據源的連接屬性提供。 除連接屬性外,Spark還支持以下不區分大小寫的選項:
Property Name | Meaning |
---|---|
url |
JDBC連接串URL。特定源的連接屬性以URL的形式聲明。比如jdbc:postgresql://localhost/test?user=fred&password=secret
|
dbtable |
應該讀取或寫入的JDBC表。 請注意,在讀取路徑中使用它時,可以使用SQL查詢的 FROM 子句中有效的任何內容。 例如,您也可以在括號中使用子查詢,而不是完整的表。 不允許同時指定dbtable 和query 選項。
|
query |
將數據讀入Spark的查詢。指定的查詢將被括起來並用作 FROM 子句中的子查詢。 Spark還會爲子查詢子句分配別名。 例如,spark將向JDBC Source發出以下形式的查詢。 SELECT <columns> FROM (<user_specified_query>) spark_gen_alias 使用此選項時,以下是一些限制。
|
driver |
JDBC驅動的類名。 |
partitionColumn, lowerBound, upperBound |
如果指定了任何選項,則必須全部指定這些選項。 此外,必須指定 numPartitions 。 它們描述了在從多個工作者並行讀取時如何對錶進行分區。 partitionColumn 必須是相關表中的數字、日期或時間戳列。 請注意, lowerBound 和 upperBound 僅用於決定分區步幅,而不是用於過濾表中的行。 因此,表中的所有行都將被分區並返回。 此選項僅適用於讀數據。
|
numPartitions |
可用於並行讀取和寫入的表的最大分區數。還確定了最大併發JDBC連接數。如果要寫入的分區數超過此限制,我們通過在寫入之前調用coalesce(numPartitions) 將其減少到此限制。
|
queryTimeout |
驅動程序等待Statement對象執行到指定秒數的超時時長。 0意味着沒有限制。在寫入路徑中,此選項取決於JDBC驅動程序如何實現 setQueryTimeout 這個API,例如,h2 JDBC驅動程序檢查每個查詢的超時而不是整個JDBC批處理。它默認爲 0 。
|
fetchsize |
JDBC的fetch大小,用於確定每次讀取回合要獲取的行數。這有助於JDBC驅動程序的性能,默認爲低fetch大小(例如,Oracle是10行)。 此選項僅適用於讀取。 |
batchsize |
JDBC批處理大小,用於確定每次IO往返要插入的行數。 這有助於JDBC驅動程序的性能。此選項僅適用於寫入。默認爲 1000 。
|
isolationLevel |
事務隔離級別,適用於當前連接。它可以是 NONE , READ_COMMITTED , READ_UNCOMMITTED , REPEATABLE_READ 或 SERIALIZABLE 之一 ,對應於JDBC的Connection對象定義的標準事務隔離級別,默認爲 READ_UNCOMMITTED 。此選項僅適用於寫入。 請參閱 java.sql.Connection 中的文檔。
|
sessionInitStatement |
在向遠程數據庫打開每個數據庫會話之後,在開始讀取數據之前,此選項將執行自定義SQL語句(或PL/SQL塊)。使用它來實現會話初始化代碼。 示例:option("sessionInitStatement", """BEGIN execute immediate 'alter session set "_serial_direct_read"=true'; END;""")
|
truncate |
這是JDBC writer相關選項。啓用 SaveMode.Overwrite code>時,此選項會導致Spark截斷現有表,而不是刪除並重新創建它。 這可以更有效,並且防止刪除表元數據(例如,索引)。 但是,在某些情況下,例如新數據具有不同的schema時,它將無法工作。 它默認爲
|
cascadeTruncate |
這是JDBC writer相關選項。 如果JDBC數據庫(目前是PostgreSQL和Oracle)啓用並支持,則此選項允許執行 TRUNCATE TABLE t CASCADE (在PostgreSQL的情況下, TRUNCATE TABLE ONLY t CASCADE 以防止無意中截斷下層的表)。這將影響其他表,因此應謹慎使用。 此選項僅適用於寫入。它默認爲當前配置的JDBC數據庫的默認級聯截斷行爲,在每個JDBCDialect中的 isCascadeTruncate 中指定。
|
createTableOptions |
這是JDBC writer相關選項。如果指定,則此選項允許在創建表時設置特定於數據庫的表和分區選項(例如,CREATE TABLE t (name string) ENGINE=InnoDB )。此選項僅適用於寫入。
|
createTableColumnTypes |
創建表時要使用的數據庫列的數據類型而不是默認值。應以與CREATE TABLE列語法相同的格式指定數據類型信息(例如:"name CHAR(64), comments VARCHAR(1024)") 。指定的類型應該是有效的spark sql數據類型。此選項僅適用於寫入。
|
customSchema |
用於從JDBC連接器讀取數據的自定義schema。例如,"id DECIMAL(38, 0), name STRING" 。 您還可以只指定部分字段,其他字段使用默認類型映射。 例如,"id DECIMAL(38, 0)" 。 列名應與JDBC表的相應列名相同。用戶可以指定Spark SQL的相應數據類型,而不是使用默認值。此選項僅適用於讀取。
|
pushDownPredicate |
這個選項用於在JDBC數據源啓用或禁用謂詞下推。默認值爲true,在這種情況下,Spark會儘可能地將過濾條件下推到JDBC數據源。否則,如果設置爲false,則不會將過濾條件下推到JDBC數據源,因此所有過濾條件都將由Spark處理。當Spark能夠比JDBC數據源更快地執行謂詞過濾時,謂詞下推通常會被關閉。 |
// Note: JDBC loading and saving can be achieved via either the load/save or jdbc methods
// Loading data from a JDBC source
val jdbcDF = spark.read
.format("jdbc")
.option("url", "jdbc:postgresql:dbserver")
.option("dbtable", "schema.tablename")
.option("user", "username")
.option("password", "password")
.load()
val connectionProperties = new Properties()
connectionProperties.put("user", "username")
connectionProperties.put("password", "password")
val jdbcDF2 = spark.read
.jdbc("jdbc:postgresql:dbserver", "schema.tablename", connectionProperties)
// Specifying the custom data types of the read schema
connectionProperties.put("customSchema", "id DECIMAL(38, 0), name STRING")
val jdbcDF3 = spark.read
.jdbc("jdbc:postgresql:dbserver", "schema.tablename", connectionProperties)
// Saving data to a JDBC source
jdbcDF.write
.format("jdbc")
.option("url", "jdbc:postgresql:dbserver")
.option("dbtable", "schema.tablename")
.option("user", "username")
.option("password", "password")
.save()
jdbcDF2.write
.jdbc("jdbc:postgresql:dbserver", "schema.tablename", connectionProperties)
// Specifying create table column data types on write
jdbcDF.write
.option("createTableColumnTypes", "name CHAR(64), comments VARCHAR(1024)")
.jdbc("jdbc:postgresql:dbserver", "schema.tablename", connectionProperties)
Apache Avro 數據源
從Spark 2.4後,Spark SQL提供對於讀寫Apache Avro數據的內置支持。
部署
spark-avro模塊是外置的,默認情況下不包含在spark-submit或spark-shell中。
與任何Spark應用程序一樣,spark-submit用於啓動您的應用程序。 使用--packages可以將spark-avro_2.11及其依賴項直接添加到spark-submit,例如,
./bin/spark-submit --packages org.apache.spark:spark-avro_2.11:2.4.0 ...
對於在spark-shell上進行試驗,您也可以使用--packages直接添加org.apache.sparkspark-avro_2.11及其依賴項,
./bin/spark-shell --packages org.apache.spark:spark-avro_2.11:2.4.0 ...
Load and Save Functions
由於spark-avro模塊是外部的,因此DataFrameReader或DataFrameWriter中沒有.avro API。
要以Avro格式加載/保存數據,您需要將數據源選項格式指定爲avro(或org.apache.spark.sql.avro)。
val usersDF = spark.read.format("avro").load("examples/src/main/resources/users.avro")
usersDF.select("name", "favorite_color").write.format("avro").save("namesAndFavColors.avro")
to_avro() and from_avro()
Avro軟件包提供了to_avro函數,可以將列編碼爲Avro格式的二進制文件,from_avro()將Avro二進制數據解碼爲列。兩個函數都將一列轉換爲另一列,輸入/輸出SQL數據類型可以是複雜類型或基本類型。
在讀取或寫入像Kafka這樣的流式數據源時,將Avro記錄作爲列非常有用。 每個Kafka鍵值記錄都會增加一些元數據,例如Kafka的攝取時間戳,Kafka的偏移量等。
- 如果包含數據的“value”字段位於Avro中,則可以使用from_avro()提取數據,豐富數據,清理數據,然後再將其推送到Kafka下游或將其寫入文件。
- to_avro()可用於將結構體轉換爲Avro記錄。 在將數據寫入Kafka時,如果要將多個列重新編碼爲單個列,此方法特別有用。
這兩個方法目前僅支持Scala和Java。
import org.apache.spark.sql.avro._
// `from_avro` requires Avro schema in JSON string format.
val jsonFormatSchema = new String(Files.readAllBytes(Paths.get("./examples/src/main/resources/user.avsc")))
val df = spark
.readStream
.format("kafka")
.option("kafka.bootstrap.servers", "host1:port1,host2:port2")
.option("subscribe", "topic1")
.load()
// 1. Decode the Avro data into a struct;
// 2. Filter by column `favorite_color`;
// 3. Encode the column `name` in Avro format.
val output = df
.select(from_avro('value, jsonFormatSchema) as 'user)
.where("user.favorite_color == \"red\"")
.select(to_avro($"user.name") as 'value)
val query = output
.writeStream
.format("kafka")
.option("kafka.bootstrap.servers", "host1:port1,host2:port2")
.option("topic", "topic2")
.start()
數據源選項
Avro的數據源選項可以通過DataFrameReader或者DataFrameWriter的.option方法來設置。
Property Name | Default | Meaning | Scope |
---|---|---|---|
avroSchema |
None | 用戶以JSON格式提供可選的Avro schema。記錄字段的日期類型和命名應匹配輸入的Avro數據或Catalyst數據,否則讀/寫操作將失敗。 | read and write |
recordName |
topLevelRecord | 在寫入結果時的頂層記錄名字,這在Avro的spec是需要的 | write |
recordNamespace |
"" | 寫入結果的記錄命名空間 | write |
ignoreExtension |
true |
該選項控制在讀取時忽略沒有 .avro 擴展名的文件。如果啓用該選項,則加載所有文件(帶有和不帶 .avro 擴展名)。 |
read |
compression |
snappy |
compression 選項允許指定write中使用的壓縮編解碼器目前支持的編解碼器有 uncompressed , snappy , deflate , bzip2 和 xz 。如果未設置該選項,則要考慮配置 spark.sql.avro.compression.codec
|
write |
配置
可以使用SparkSession的setConf
方法或使用SQL運行SET key = value
命令來完成Avro的配置。
Property Name | Default | Meaning |
---|---|---|
spark.sql.legacy.replaceDatabricksSparkAvro.enabled | true |
如果設置爲true,則數據源提供者 com.databricks.spark.avro 將映射到內置的外部Avro數據源模塊,以實現向後兼容性。 |
spark.sql.avro.compression.codec | snappy | 用於編寫AVRO文件的壓縮編解碼器。支持的編解碼器:uncompressed,deflate,snappy,bzip2和xz。默認編解碼器是snappy。 |
spark.sql.avro.deflate.level | -1 | 用於編寫AVRO文件的deflate編解碼器的壓縮級別。 有效值必須介於1到9之間(包括1或9)或-1。 默認值爲-1,對應於當前實現中的6級。 |
Compatibility with Databricks spark-avro
此Avro數據源模塊最初來自Databricks的開源存儲庫spark-avro並與之兼容。
默認情況下,啓用SQL配置spark.sql.legacy.replaceDatabricksSparkAvro.enabled,數據源提供者com.databricks.spark.avro將映射到此內置Avro模塊。對於在目錄元數據庫中使用Provider屬性創建的Spark表作爲com.databricks.spark.avro,如果您使用此內置Avro模塊,則映射對於加載這些表至關重要。
請注意,在Databricks的spark-avro中,爲快捷函數.avro()創建了隱式類AvroDataFrameWriter和AvroDataFrameReader。在這個內置但外部的模塊中,兩個隱式類都被刪除了。請改用DataFrameWriter或DataFrameReader中的.format(“avro”),它應該乾淨且足夠好。
如果您更喜歡使用自己構建的spark-avro jar文件,則只需禁用配置spark.sql.legacy.replaceDatabricksSparkAvro.enabled,並在部署應用程序時使用選項--jars。有關詳細信息,請閱讀“應用程序提交指南”中的“高級依賴關係管理”部分。
Supported types for Avro -> Spark SQL conversion
目前,Spark支持在Avro記錄下讀取所有原始類型和複雜類型。
Avro type | Spark SQL type |
---|---|
boolean | BooleanType |
int | IntegerType |
long | LongType |
float | FloatType |
double | DoubleType |
string | StringType |
enum | StringType |
fixed | BinaryType |
bytes | BinaryType |
record | StructType |
array | ArrayType |
map | MapType |
union | See below |
除了上面列出的類型,它還支持讀取聯合類型。 以下三種類型被視爲基本聯合類型:
- union(int, long)將映射到LongType。
- union(float, double)將映射到DoubleType。
- union(something, null),其中something是任何支持的Avro類型。這將被映射到與something相同的Spark SQL類型,並將nullable設置爲true。所有其他聯合類型都被認爲是複雜的 根據union的成員,它們將映射到StructType,其中字段名稱是member0,member1等。 這與Avro和Parquet之間的轉換行爲一致。
它還支持讀取以下Avro邏輯類型:
Avro logical type | Avro type | Spark SQL type |
---|---|---|
date | int | DateType |
timestamp-millis | long | TimestampType |
timestamp-micros | long | TimestampType |
decimal | fixed | DecimalType |
decimal | bytes | DecimalType |
目前,它忽略了Avro文件中存在的文檔,別名和其他屬性。
Supported types for Spark SQL -> Avro conversion
Spark支持將所有Spark SQL類型寫入Avro。 對於大多數類型,從Spark類型到Avro類型的映射很簡單(例如,IntegerType轉換爲int); 但是,下面列出了一些特殊情況:
Spark SQL type | Avro type | Avro logical type |
---|---|---|
ByteType | int | |
ShortType | int | |
BinaryType | bytes | |
DateType | int | date |
TimestampType | long | timestamp-micros |
DecimalType | fixed | decimal |
您還可以使用選項avroSchema指定整個輸出Avro schema,以便可以將Spark SQL類型轉換爲其他Avro類型。 默認情況下不應用以下轉換,並且需要用戶指定的Avro schema:
Spark SQL type | Avro type | Avro logical type |
---|---|---|
BinaryType | fixed | |
StringType | enum | |
TimestampType | long | timestamp-millis |
DecimalType | bytes | decimal |
故障排除Troubleshooting
- JDBC驅動程序類必須對客戶端會話和所有執行程序上的原始類加載器可見。 這是因爲Java的DriverManager類進行了安全檢查,導致它忽略了當打開連接時原始類加載器不可見的所有驅動程序。 一種方便的方法是修改所有工作節點上的compute_classpath.sh以包含驅動程序JAR。
- 某些數據庫(如H2)會將所有名稱轉換爲大寫。您需要使用大寫字母在Spark SQL中引用這些名稱。
- 用戶可以在數據源選項中指定特定於供應商的JDBC連接屬性以進行特殊處理。例如,
spark.read.format("jdbc").option("url", oracleJdbcUrl).option("oracle.jdbc.mapDateToTimestamp", "false")
。 oracle.jdbc.mapDateToTimestamp默認爲true,用戶通常需要禁用此標誌以避免Oracle日期被解析爲時間戳。
性能調優
對於某些工作負載,可以通過在內存中緩存數據或打開一些實驗選項來提高性能。
Caching Data In Memory
Spark SQL可以通過調用spark.catalog.cacheTable("tableName")或dataFrame.cache()使用內存中的列式格式來緩存表。 然後,Spark SQL將僅掃描所需的列,並自動調整壓縮以最小化內存使用和GC壓力。 您可以調用spark.catalog.uncacheTable("tableName")從內存中刪除表。
可以使用SparkSession的setConf方法或使用SQL運行SET key = value命令來完成內存中緩存的配置。
Property Name | Default | Meaning |
---|---|---|
spark.sql.inMemoryColumnarStorage.compressed |
true | 設置爲true時,Spark SQL將根據數據統計信息自動爲每列選擇壓縮編解碼器。 |
spark.sql.inMemoryColumnarStorage.batchSize |
10000 | 控制列存緩存的批次大小。較大的批處理大小可以提高內存利用率和壓縮率,但在緩存數據時存在OOM風險。 |
其他配置項
以下選項也可用於調整查詢執行的性能。由於更多優化會自動執行,因此在將來的版本中可能會棄用這些選項。
Property Name | Default | Meaning |
---|---|---|
spark.sql.files.maxPartitionBytes |
134217728 (128 MB) | 讀取文件時打包到單個分區的最大字節數。 |
spark.sql.files.openCostInBytes |
4194304 (4 MB) | 打開文件的估計成本是通過可以在同一時間掃描的字節數測量的。這在將多個文件放入分區時是有用的。最好是做過度估計,這樣使用較小文件的分區將比較大文件的分區(首先安排的分區)更快。 |
spark.sql.broadcastTimeout |
300 |
廣播連接中廣播等待時間的超時(以秒爲單位) |
spark.sql.autoBroadcastJoinThreshold |
10485760 (10 MB) |
配置在執行join時將廣播到所有工作節點的表的最大大小(以字節爲單位)。 通過將此值設置爲-1,可以禁用廣播。請注意,當前的統計信息僅支持Hive Metastore表,並且其中命令ANALYZE TABLE <tableName> COMPUTE STATISTICS noscan 已經運行。
|
spark.sql.shuffle.partitions |
200 | 配置在爲join或聚合shuffle數據時要使用的分區數。 |
Broadcast Hint for SQL Queries
BROADCAST hint指導Spark在將其與另一個表或視圖join時廣播每個指定的表。 當Spark決定join方法時,廣播散列連接(broadcast hash join即BHJ)是首選,即使統計信息高於spark.sql.autoBroadcastJoinThreshold配置的。當join的兩端都被指定時,Spark會廣播具有較低統計信息的那一方。 注意Spark並不保證始終選擇BHJ,因爲並非所有情況(例如全外連接)都支持BHJ。 當選擇廣播嵌套循環連接(broadcast nested loop join)時,我們仍然聽從hint的。
import org.apache.spark.sql.functions.broadcast
broadcast(spark.table("src")).join(spark.table("records"), "key").show()
分佈式SQL引擎Distributed SQL Engine
Spark SQL還可以使用其JDBC/ODBC或命令行界面充當分佈式查詢引擎。 在此模式下,最終用戶或應用程序可以直接與Spark SQL交互以運行SQL查詢,而無需編寫任何代碼。
Running the Thrift JDBC/ODBC server
此處實現的Thrift JDBC/ODBC服務器對應於Hive 1.2.1中的HiveServer2。 您可以使用Spark或Hive 1.2.1附帶的beeline腳本測試JDBC服務器。
要啓動JDBC / ODBC服務器,請在Spark目錄中運行以下命令:
./sbin/start-thriftserver.sh
此腳本接受所有bin/spark-submit命令行選項,以及--hiveconf選項以指定Hive屬性。 您可以運行./sbin/start-thriftserver.sh --help
以獲取所有可用選項的完整列表。默認情況下,服務器監聽localhost:10000。您可以通過任一環境變量覆蓋此行爲,例如:
export HIVE_SERVER2_THRIFT_PORT=<listening-port>
export HIVE_SERVER2_THRIFT_BIND_HOST=<listening-host>
./sbin/start-thriftserver.sh \
--master <master-uri> \
...
或者系統屬性system properties
./sbin/start-thriftserver.sh \
--hiveconf hive.server2.thrift.port=<listening-port> \
--hiveconf hive.server2.thrift.bind.host=<listening-host> \
--master <master-uri>
...
現在您可以使用beeline來測試Thrift JDBC/ODBC服務器:
./bin/beeline
使用以下方式直接連接到JDBC/ODBC服務器:
beeline> !connect jdbc:hive2://localhost:10000
Beeline會詢問您的用戶名和密碼。在非安全模式下,只需在您的計算機上輸入用戶名和空白密碼即可。對於安全模式,請按照beeline文檔中的說明進行操作。
通過將hive-site.xml,core-site.xml和hdfs-site.xml文件放在conf/中來完成Hive的配置。
您也可以使用Hive附帶的beeline腳本。
Thrift JDBC服務器還支持通過HTTP傳輸發送thrift RPC消息。使用以下設置將HTTP模式作爲系統屬性或在conf/中的hive-site.xml文件中啓用:
hive.server2.transport.mode - Set this to value: http
hive.server2.thrift.http.port - HTTP port number to listen on; default is 10001
hive.server2.http.endpoint - HTTP endpoint; default is cliservice
要進行測試,請使用beeline以http模式連接到JDBC/ODBC服務器:
beeline> !connect jdbc:hive2://<host>:<port>/<database>?hive.server2.transport.mode=http;hive.server2.thrift.http.path=<http_endpoint>
Running the Spark SQL CLI
Spark SQL CLI是一種方便的工具,可以在本地模式下運行Hive Metastore服務,並執行從命令行輸入的查詢。 請注意,Spark SQL CLI無法與Thrift JDBC服務器通信。
要啓動Spark SQL CLI,請在Spark目錄中運行以下命令:
./bin/spark-sql
通過將hive-site.xml,core-site.xml和hdfs-site.xml文件放在conf/中來完成Hive的配置。 您可以運行./bin/spark-sql --help
以獲取所有可用選項的完整列表。