Spark建立空的DataFrame
原創地址:
前言
本文主要給出Spark建立空的DataFrame的程式碼示例,這裡講的空的DataFrame主要指有列名(可以自己隨意指定),但是沒有行的DataFrame,因為自己在開發過程中有這個需求,之前並不知道怎麼建立,就查了一下,發現資料並不多,不知道因為太簡單還是用的人少,至於具體什麼需求就不闡述了,主要給有這方面需求的小夥伴參考一下。還有另一種空的DataFrame就是沒有任何行任何列的DataFrame,不知道有什麼用,反正貼在程式碼裡,萬一有人用呢
1、程式碼
程式碼較簡單,如下
package com.dkl.leanring.spark.dfimport org.apache.spark.sql.SparkSessionimport org.apache.spark.sql.types._import org.apache.spark.sql.Rowimport org.apache.spark.rdd.EmptyRDD/** * Spark建立空DataFrame示例 */object EmptyDataFrame { def main(args: Array[String]): Unit = { val spark = SparkSession.builder().appName("EmptyDataFrame").master("local").getOrCreate() /** * 建立一個空的DataFrame,代表使用者 * 有四列,分別代表ID、名字、年齡、生日 */ val colNames = Array("id", "name", "age", "birth") //為了簡單起見,欄位型別都為String val schema = StructType(colNames.map(fieldName => StructField(fieldName, StringType, true))) //主要是利用了spark.sparkContext.emptyRDD val emptyDf = spark.createDataFrame(spark.sparkContext.emptyRDD[Row], schema) emptyDf.show /** * 也可以給每列指定相對應的型別 */ val schema1 = StructType( Seq( StructField("id", IntegerType, true), StructField("name", StringType, true), StructField("age", IntegerType, true), StructField("birth", StringType, true))) val emptyDf1 = spark.createDataFrame(spark.sparkContext.emptyRDD[Row], schema1) emptyDf1.show //還有一種空的DataFrame,沒有任何行任何列 spark.emptyDataFrame.show spark.stop() } }
2、結果
作者:董可倫
連結:
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/75/viewspace-2811956/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 【Spark篇】---SparkSQL初始和建立DataFrame的幾種方式SparkSQL
- Spark DataFrame的groupBy vs groupByKeySpark
- Spark2 Dataset DataFrame空值null,NaN判斷和處理SparkNullNaN
- Spark API 全集(1):Spark SQL Dataset & DataFrame APISparkAPISQL
- SparkSQL /DataFrame /Spark RDD誰快?SparkSQL
- spark dataframe 型別轉換Spark型別
- 15、Spark Sql(一),生成DataFrame的方式SparkSQL
- Spark SQL中的RDD與DataFrame轉換SparkSQL
- Spark SQL學習——DataFrame和DataSetSparkSQL
- Apache Spark Dataframe Join語法教程ApacheSpark
- Python中建立DataFrame的方法Python
- spark: RDD與DataFrame之間的相互轉換Spark
- Spark SQL,如何將 DataFrame 轉為 json 格式SparkSQLJSON
- Spark註冊UDF函式,用於DataFrame DSL or SQLSpark函式SQL
- Spark修煉之道(進階篇)——Spark入門到精通:第八節 Spark SQL與DataFrame(一)SparkSQL
- 從 Spark 的 DataFrame 中取出具體某一行詳解Spark
- Spark SQL 1.3.0 DataFrame介紹、使用及提供了些完整的資料寫入SparkSQL
- 客快物流大資料專案(四十六):Spark操作Kudu dataFrame操作kudu大資料Spark
- Spark Task 的執行流程② - 建立、分發 TaskSpark
- python--建立一個與已有DataFrame行數相同的資料框的方式Python
- pyspark.sql.DataFrame與pandas.DataFrame之間的相互轉換SparkSQL
- oracle建立表空間Oracle
- 建立加密表空間加密
- Oracle OCP(47):表空間的建立Oracle
- 表空間的建立修改等操作
- 命令建立表空間的基本格式
- Spark2 載入儲存檔案,資料檔案轉換成資料框dataframeSpark
- sparkrdd轉dataframe的兩種方式Spark
- RDD、DataFrame和DataSet的區別
- 資料分析: DataFrame
- 【pyspark】dataframe常用操作Spark
- Pandas - DataFrame.loc
- 建立包含N個空物件的陣列物件陣列
- ORACLE表空間的建立修改刪除Oracle
- 在 mac 上建立 Python 的 Kafka 與 Spark 環境MacPythonKafkaSpark
- LINUX 建立swap空間Linux
- Rust的資料DataFrame庫有哪些?Rust
- DB2建立資料庫,建立表空間DB2資料庫