Spark建立空的DataFrame
原創地址:
前言
本文主要給出Spark建立空的DataFrame的程式碼示例,這裡講的空的DataFrame主要指有列名(可以自己隨意指定),但是沒有行的DataFrame,因為自己在開發過程中有這個需求,之前並不知道怎麼建立,就查了一下,發現資料並不多,不知道因為太簡單還是用的人少,至於具體什麼需求就不闡述了,主要給有這方面需求的小夥伴參考一下。還有另一種空的DataFrame就是沒有任何行任何列的DataFrame,不知道有什麼用,反正貼在程式碼裡,萬一有人用呢
1、程式碼
程式碼較簡單,如下
package com.dkl.leanring.spark.dfimport org.apache.spark.sql.SparkSessionimport org.apache.spark.sql.types._import org.apache.spark.sql.Rowimport org.apache.spark.rdd.EmptyRDD/** * Spark建立空DataFrame示例 */object EmptyDataFrame { def main(args: Array[String]): Unit = { val spark = SparkSession.builder().appName("EmptyDataFrame").master("local").getOrCreate() /** * 建立一個空的DataFrame,代表使用者 * 有四列,分別代表ID、名字、年齡、生日 */ val colNames = Array("id", "name", "age", "birth") //為了簡單起見,欄位型別都為String val schema = StructType(colNames.map(fieldName => StructField(fieldName, StringType, true))) //主要是利用了spark.sparkContext.emptyRDD val emptyDf = spark.createDataFrame(spark.sparkContext.emptyRDD[Row], schema) emptyDf.show /** * 也可以給每列指定相對應的型別 */ val schema1 = StructType( Seq( StructField("id", IntegerType, true), StructField("name", StringType, true), StructField("age", IntegerType, true), StructField("birth", StringType, true))) val emptyDf1 = spark.createDataFrame(spark.sparkContext.emptyRDD[Row], schema1) emptyDf1.show //還有一種空的DataFrame,沒有任何行任何列 spark.emptyDataFrame.show spark.stop() } }
2、結果
作者:董可倫
連結:
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/75/viewspace-2811956/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- Spark DataFrame的groupBy vs groupByKeySpark
- Spark API 全集(1):Spark SQL Dataset & DataFrame APISparkAPISQL
- 15、Spark Sql(一),生成DataFrame的方式SparkSQL
- SparkSQL /DataFrame /Spark RDD誰快?SparkSQL
- Python中建立DataFrame的方法Python
- Spark SQL中的RDD與DataFrame轉換SparkSQL
- Apache Spark Dataframe Join語法教程ApacheSpark
- Spark SQL學習——DataFrame和DataSetSparkSQL
- 【01】DataFrame的建立和屬性
- Spark SQL,如何將 DataFrame 轉為 json 格式SparkSQLJSON
- 從 Spark 的 DataFrame 中取出具體某一行詳解Spark
- 16、表空間 建立表空間
- pandas.DataFrame讀取特定的列並刪除某列空值所在的行
- Spark Task 的執行流程② - 建立、分發 TaskSpark
- python--建立一個與已有DataFrame行數相同的資料框的方式Python
- Oracle OCP(47):表空間的建立Oracle
- LINUX 建立swap空間Linux
- 客快物流大資料專案(四十六):Spark操作Kudu dataFrame操作kudu大資料Spark
- 在 mac 上建立 Python 的 Kafka 與 Spark 環境MacPythonKafkaSpark
- Scala - DataFrame
- 建立包含N個空物件的陣列物件陣列
- 2.5.6 建立預設的永久表空間
- python pandas DataFrame-A 更新 DataFrame-B中指定列相同的資料Python
- 2.4.11 Step 10: 建立額外的表空間
- 2.5.3 建立本地管理的SYSTEM表空間
- DB2建立資料庫,建立表空間DB2資料庫
- 鐵威馬NAS建立儲存空間的方法
- db2 建立bufferpool,表空間DB2
- DataFrame概述與使用
- Pandas - DataFrame.loc
- 【pyspark】dataframe常用操作Spark
- 資料分析: DataFrame
- Pandas DataFrame常用方法
- Rust的資料DataFrame庫有哪些?Rust
- spark 三種建立 資料集的方法,及測試(Scala程式碼)Spark
- oracle 建立表空間和使用者Oracle
- Oracle建立表空間和使用者Oracle
- 2.5.7 建立預設臨時表空間