【Hadoop踩坑】HDFS上傳、刪除檔案失敗

weixin_34128411發表於2018-06-09

這裡有好幾個版本的解決方案,用來解決這個問題。

11013433-a660132d160d3d93.png
圖片.png

Hadoop部署在我的4臺Linux虛擬機器,我是用window下的eclipse連線master主節點,進行HDFS檔案操作以及MapReduce程式的執行。結果碰到了HDFS檔案操作失敗。在網上查詢了相關資料,現在總結如下:

方案一:也是我認為最簡單的方案
直接修改對應目錄的許可權:
Hadoop fs -chmod 777 filepath

11013433-f3d77ce9293e6035.png
上傳檔案失敗.png

方案二:從配置檔案中進行許可權處理
在hadoop的 hdfs-site.xml 配置檔案中取消許可權校驗,即加入以下配置:

<property>
    <name>dfs.permissions</name>
    <value>false</value>
 </property>

方案三:
右擊計算機-->管理--->使用者和組-->admin。。。改為與Linux下叢集主機名相同

參考資料:

  1. Permission denied: user=administrator, access=WRITE, inode="/":root:supergroup:drwxr-xr-x

2.Eclipse遠端連線hadoop的hdfs時, 報 Permission denied錯誤 - CSDN部落格

相關文章