大資料學習系列之八----- Hadoop、Spark、HBase、Hive搭建環境遇到的錯誤以及解決方法
前言
在搭建大資料Hadoop相關的環境時候,遇到很多了很多錯誤。我是個喜歡做筆記的人,這些錯誤基本都記載,並且將解決辦法也寫上了。因此寫成部落格,希望能夠幫助那些搭建大資料環境的人解決問題。
說明: 遇到的問題以及相應的解決辦法是對於個人當時的環境,具體因人而異。如果碰到同樣的問題,本部落格的方法無法解決您的問題,請先檢查環境配置問題。
Hadoop偽分散式相關的問題
1,FATAL conf.Configuration: error parsing conf hdfs-site.xml
原因: 字元編碼問題。
解決辦法: 統一編碼,將檔案開啟,另存為統一編碼,如UTF-8 即可。
2,Use of this script to execute hdfs command is deprecated。
原因:hadoop版本問題,命令過時。
解決辦法: 將hadoop命令改成hdfs。
3,org.apache.hadoop.hdfs.server.namenode.NameNode。
原因:沒有指定路徑
解決辦法:修改hadoop-env.sh檔案。安裝的hadoop路徑是“/usr/local/hadoop/hadoop-2.8.2”, 在此路徑下執行 vim etc/hadoop/hadoop-env.sh 在檔案最後面新增 export HADOOP_PREFIX=/usr/local/hadoop/hadoop-2.8.2 ,並儲存。
Hadoop相關的錯誤
1,啟動hadoop時候報錯:localhost: ssh: Could not resolve hostname localhost: Temporary failure in name resolution”
原因: hadoop的環境沒有配置好,或者沒有使配置生效。
解決辦法: 如果沒有配置Hadoop的環境變數,就填加配置。
例如:
export JAVA_HOME=/opt/java/jdk
export HADOOP_HOME=/opt/hadoop/hadoop2.8
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
然後使配置檔案生效
輸入:
source /etc/profile
2,mkdir: `/user/hive/warehouse’: No such file or directory
原因: 使用hadoop新建目錄的時候報錯,命名格式有問題
解決辦法: 輸入正確的命令格式
例如:
$HADOOP_HOME/bin/hadoop fs -mkdir -p /user/hive/warehouse
3,bash:…: is a directory
原因:可能是/etc/profile 配置未能成功配置
解決辦法: 確認配置檔案沒有問題之後,發現環境變數後面多了空格,將環境變數後面的空格去掉之後就好了。
4,Hadoop警告:Unable to load native-hadoop library for your platform… using builtin-java classes where applicable
原因:Apache提供的hadoop本地庫是32位的,而在64位的伺服器上就會有問題,因此需要自己編譯64位的版本。
解決辦法:
1.編譯64位版本的lib包,可以使用這個網站提供的編譯好的http://dl.bintray.com/sequenceiq/sequenceiq-bin/ 。
2. 將這個解壓包解壓到 hadoop/lib和hadoop/lib/native 目錄下。
3. 設定環境變數,在/etc/profile中新增
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
- 輸入 hadoop checknative –a 檢查
參考:
http://blog.csdn.net/jack85986370/article/details/51902871
5,hadoop成功配置之後,namenode沒有成功啟動。
原因:可能是hadoop的叢集的配置不正確
解決方案: 檢查hadoop/ etc/hadoop 的主要配置檔案是否正確配置。
Spark相關的錯誤
1,使用spark sql的時候報錯:javax.jdo.JDOFatalInternalException: Error creating transactional connection factory
原因:可能是沒有新增jdbc的驅動
解決辦法: Spark 中如果沒有配置連線驅動,在spark/conf 目錄下編輯spark-env.sh 新增驅動配置
例如:
export SPARK_CLASSPATH=$SPARK_CLASSPATH:/opt/spark/spark2.2/jars/mysql-connector-java-5.1.41.jar
或者在spark目錄下直接載入驅動
例如輸入:
spark-sql --driver-class-path /opt/spark/spark2.2/jars/mysql-connector-java-5.1.41.jar
2, spark-sql 登入日誌過多
原因: spark的日誌級別設定為了INFO。
解決辦法:
將日誌級別改成WARN就行了。
進入到spark目錄/conf資料夾下,此時有一個log4j.properties.template檔案,我們執行如下命令將其拷貝一份為log4j.properties,並對log4j.properties檔案進行修改。
cp log4j.properties.template log4j.properties
vim log4j.properties
將
log4j.rootCategory=INFO, console
改成
log4j.rootCategory=WARN, console
3,spark sql啟動報錯:org.apache.spark.sql.hive.thriftserver.SparkSQLCLIDriver
在spark/bin 目錄下 修改spark-sql ,新增藍色的字型的內容。
export _SPARK_CMD_USAGE="Usage: ./bin/spark-sql [options] [cli option]"
exec "${SPARK_HOME}" /bin/spark-submit -jars /opt/spark/spark1.6-hadoop2.4-hive/lib/spark-assembly-1.6.3-hadoop2.4.0.jar --class org.apache.spark.sql.hive.thriftserver.SparkSQLCLIDriver "$@"
HBase 相關的錯誤
1,啟動HBase錯誤: -bash: /opt/hbase/hbase-1.2.6/bin: is a directory
原因:未輸入正確的命令,或者Hadoop未能正確執行
解決辦法:
首先檢查命名格式是否正確,然後檢查Hadoop是否成功執行。
2,Java API 連線HBase 報錯
org.apache.hadoop.hbase.client.RetriesExhaustedException: Failed after attempts=36, exceptions:
Tue Jul 19 16:36:05 CST 2016, null, java.net.SocketTimeoutException: callTimeout=60000, callDuration=79721: row ‘testtable,,’ on table ‘hbase:meta’ at region=hbase:meta,,1.1588230740, hostname=ubuntu,16020,1468916750524, seqNum=0
原因:可能是使用了主機名進行連線,而未載windows系統的hosts檔案進行配置。
解決辦法:
1.確認本地和叢集服務之間的通訊沒有問題。
2.修改 C:\Windows\System32\drivers\etc\hosts 的檔案,新增叢集的主機名和IP做對映。
例如:
192.169.0.23 master
192.169.0.24 slave1
192.169.0.25 slave2
Hive相關的錯誤
1,hive2: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
原因: 無法連線後設資料庫,可能沒有初始化後設資料
解決辦法:初始化後設資料
輸入: schematool -dbType mysql -initSchema
然後在輸入: hive
2,進入hive警告:Class path contains multiple SLF4J bindings
原因:日誌檔案衝突。
解決辦法: 移除其中的一個架包就可以了。
例如:移除hive或hadooop相關的一個slf4j.jar就可以;
3,java連線hive報錯:HIVE2 Error: Failed to open new session: java.lang.RuntimeException:org.apache.hadoop.ipc.RemoteExc
原因:沒有設定遠端連線許可權。
解決方案:在hadoop/conf/core-site.xml 中新增如下部分,重啟服務即可:
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
4,java連線hive報錯:hive:jdbc connection refused
原因:可能hive未啟動或者配置未能正確配置
解決辦法:
1.檢視服務是否啟動
輸入:
netstat -anp |grep 10000
2.檢視hive / conf/hive-site.xml配置是否正確,是否新增了這些配置
<property>
<name>hive.server2.thrift.port</name>
<value>10000</value>
</property>
<property>
<name>hive.server2.thrift.bind.host</name>
<value>master</value>
</property>
注: master是我配置主機的名稱,可以替換成主機的IP。
3.確認配置沒有問題之後,輸入hive –service hiveserver2 之後,在使用java連線測試。
5,使用hive警告:WARN conf.HiveConf: HiveConf of name hive.metastore.local does not exist
原因: Hive的這個配置在1.0之後就廢除了。
解決辦法:
在hive / conf/hive-site.xml 去掉這個配置就行了
<property>
<name>hive.metastore.local</name>
<value>true</value>
</property>
6,Hive On Spark報錯:Exception in thread “main” java.lang.NoClassDefFoundError: scala/collection/Iterable
原因:缺少spark編譯的jar包
解決辦法:
我是使用的spark-hadoop-without-hive 的spark,如果使用的不是這種,可以自行編譯spark-without-hive。
1.將spark/lib 目錄下的spark-assembly-1.6.3-hadoop2.4.0.jar 拷貝到hive/lib目錄下。
2.在hive/conf 中的hive-env.sh 設定該jar的路徑。
注:spark-assembly-1.6.3-hadoop2.4.0.jar 架包在spark-1.6.3-bin-hadoop2.4-without-hive 解壓包中.
下載地址:http://mirror.bit.edu.cn/apache/spark
7, hive 使用spark引擎報錯:Failedto execute spark task, with exception’org.apache.hadoop.hive.ql.metadata.HiveException(Failed to create sparkclient.)
原因:在使用Hive on Spark 執行查詢命令的時候,出現這個錯誤。
解決辦法:
1.檢查hive和spark的版本是否正確,如果不相匹配,則配置相匹配的版本。
2.編輯hive/conf 目錄下的hive-site.xml 檔案,新增
<property>
<name>spark.master</name>
<value>spark://hserver1:7077</value>
</property>
8,初始化hive後設資料報錯:Error: Duplicate key name ‘PCS_STATS_IDX’ (state=42000,code=1061)
原因:這可能是metastore_db資料夾已經存在;
解決辦法: 刪除該檔案
9,hive 初始化後設資料庫報錯:
org.apache.hadoop.hive.metastore.HiveMetaException: Failed to get schema version.
Underlying cause: java.sql.SQLException : Access denied for user ‘root’@’master’ (using password: YES)
SQL Error code: 1045
原因: 以為資料庫連線使用者名稱密碼或許可權問題,然而檢查hive/hive-site.xml配置,和mysql設定的使用者名稱和密碼以及許可權,都沒問題。
解決辦法: 將hive/hive-site.xml連線資料庫的別名改成ip地址就可以了。
9,hive使用mr進行關聯查詢報錯:FAILED: Execution Error, return code 2 from org.apache.hadoop.hive.ql.exec.mr.MapredLocalTask
原因:記憶體太小了。
解決辦法:將mr記憶體設定大一點
set mapred.reduce.tasks = 2000;
set mapreduce.reduce.memory.mb=16384;
set mapreduce.reduce.java.opts=-Xmx16384m;
Zookeeper相關的錯誤
1,zookeeper叢集啟動之後輸入status 報:Error contacting service. It is probably not running.
原因:可能是zoopkeeper叢集未能成功配置以及相關的環境未配置好。
解決辦法:
1. 叢集成功配置並且啟動成功後,檢查叢集中的防火牆是否關閉;
2.檢查myid和zoo.cfg檔案配置格式是否正確,注意空格!!!
3.輸入jps檢視zookeeper是否成功啟動。
4.zookeeper叢集全部都啟動成功之後,再輸入zkServer.sh status 檢視。
Zoo.cfg完整的配置
dataDir=/opt/zookeeper/data
dataLogDir=/opt/zookeeper/dataLog
server.1=master:2888:3888
server.2=slave1:2888:3888
server.3=slave2:2888:3888
myid的配置為 1、2、3
相關文章
- 大資料學習之--hadoop2.7.3環境搭建大資料Hadoop
- Hadoop2.7.3+Hive2.1.1+Spark2.1.0環境搭建HadoopHiveSpark
- 大資料實戰之環境搭建(八)大資料
- Hadoop+hive環境搭建HadoopHive
- Hadoop叢集之 ZooKeeper和Hbase環境搭建Hadoop
- Spark學習進度-Spark環境搭建&Spark shellSpark
- HADOOP SPARK 叢集環境搭建HadoopSpark
- hadoop hive hbase 入門學習 (三)HadoopHive
- Hadoop大資料實戰系列文章之HBaseHadoop大資料
- Hadoop大資料實戰系列文章之HiveHadoop大資料Hive
- Hadoop2.3、Hbase0.98、Hive0.13之Hive的安裝部署配置以及資料測試HadoopHive
- 【重製版】全網最詳細ubuntu虛擬機器搭建hadoop+spark+zookeeper+hbase+kafka大資料環境Ubuntu虛擬機HadoopSparkKafka大資料
- HBase學習之四: mapreduce處理資料後儲存到hbase及錯誤java.lang.NoClassDefFoundError的解決辦法JavaError
- Hadoop環境中管理大資料儲存八大技巧Hadoop大資料
- webpack 4.0 學習日誌(一)——配置方法以及錯誤解決Web
- Spark2學習1之基本環境搭建(win)問題Spark
- 大資料時代之hadoop(六):hadoop 生態圈(pig,hive,hbase,ZooKeeper,Sqoop)大資料HadoopHive
- Hive環境搭建Hive
- GitChat·大資料 | 史上最詳細的Hadoop環境搭建Git大資料Hadoop
- Fabric 環境搭建遇到問題及解決
- hadoop之旅7-centerOS7 : Hive環境搭建HadoopROSHive
- 大資料技術Hbase和Hive詳解大資料Hive
- 大資料學習(hbase,hive,sqoop2對資料的簡單操作)大資料HiveOOP
- 大資料技術之Hadoop(入門)第3章 Hadoop執行環境搭建大資料Hadoop
- git 遇到的錯誤以及解決方式(持續更新...)Git
- hadoop日常錯誤解決方法整理Hadoop
- Hadoop 系列(四)—— Hadoop 開發環境搭建Hadoop開發環境
- docker 學習筆記之實戰 lnmp 環境搭建系列 (2) ------ 手動搭建 lnmp 環境Docker筆記LNMP
- spark環境搭建Spark
- Hadoop大資料平臺之HBase部署Hadoop大資料
- hive 2.3.4環境搭建Hive
- Hadoop 學習之-HBase安裝Hadoop
- Hadoop 基礎之搭建環境Hadoop
- 如何使用Docker搭建大資料Hadoop環境?學會這9步,快速上手Docker大資料Hadoop
- hadoop之旅9-centerOS7 : hbase叢集環境搭建HadoopROS
- Windows下hadoop環境搭建之NameNode啟動報錯WindowsHadoop
- ES系列教程01:Elasticsearch學習環境搭建Elasticsearch
- Hadoop 及Spark 分散式HA執行環境搭建HadoopSpark分散式