spark_home的配置
import sys, os
# Path for spark source folder
os.environ['SPARK_HOME'] = "/opt/spark-2.0.1-bin-hadoop2.7"
# Append pyspark to Python Path
sys.path.append("/opt/spark-2.0.1-bin-hadoop2.7/python/")
sys.path.append("/opt/spark-2.0.1-bin-hadoop2.7/python/lib/")
try:
from pyspark import SparkContext
from pyspark import SparkConf
from pyspark.sql import SparkSession
from pyspark.sql import SQLContext
print("Successfully imported Spark Modules")
except ImportError as e:
print("Can not import Spark Modules", e)
sys.exit(1)
from pyspark.sql import Row
相關文章
- apache 配置檔案的配置(轉)Apache
- mybatis的配置MyBatis
- webpack的配置Web
- JDK的配置JDK
- nginx的配置Nginx
- VNC的配置VNC
- SpringMvc的xml配置與annotation配置的例子的區別SpringMVCXML
- 配置CKEditor顯示的圖示及配置
- nuxt的代理的配置UX
- 系統配置的最佳化:例項的初始配置
- flowjs 的 配置JS
- RIP的基本配置
- Istio 的配置分析
- Yaf框架的配置框架
- VLAN的配置模式模式
- nginx location 的配置Nginx
- Express Route的配置Express
- Oracle Undo 的配置Oracle
- solaris的dns配置DNS
- cjpeg 的 cmake配置
- 配置sqlalchemy的地址SQL
- 特殊需求的配置
- Spring的DataSource配置、將Hibernate配置全部寫到Spring配置Spring
- Anaconda的安裝配置及Python配置Python
- “微信公眾號-設定-基本配置”的配置
- 加密(Asp.Net配置檔案的)配置節加密ASP.NET
- VSCode 的 Vim 配置和快捷鍵配置VSCode
- 安卓1:x86的配置,上網配置,快捷鍵等各種配置安卓
- 系列文章:spring的xml配置是如何對應註解配置的之配置介紹SpringXML
- Linux的NTP的配置Linux
- 常用的jvm配置引數 :永久區引數配置JVM
- Udev的配置,配置IP轉發,計劃任務dev
- OpenHarmony的init程式、init配置與啟動項配置
- Apollo啟動配置排查,超時時間的配置
- FastDFS的配置、部署與API使用解讀(6)FastDFS配置詳解之Storage配置ASTAPI
- FastDFS的配置、部署與API使用解讀(5)FastDFS配置詳解之Tracker配置ASTAPI
- FastDFS的配置、部署與API使用解讀(4)FastDFS配置詳解之Client配置ASTAPIclient
- Nginx的跨域配置Nginx跨域