Hadoop是一個分布式系統基礎架構,他使得用戶可以在不了解分布式底層細節的情況下,開發分布式程序。
Hadoop的重要核心:HDFS和MapReduce。HDFS負責儲存,MapReduce負責計算。
下面介紹安裝Hadoop的重點:
其實安裝Hadoop也不麻煩,主要需要以下的幾點先行條件,如果以下先行條件弄好了,按照官網配置啟動就非常簡單了。
1、Java運行環境,建議Sun的發行版
2、SSH公鑰免密認證
以上環境搞定,剩下的就只是Hadoop的配置了,這部分配置不同版本或許有不同,詳細參照官方文檔說明。
環境
虛擬機:VMWare10.0.1 build-1379776
操作系統:CentOS7 64位
安裝Java環境
下載地址:http://www.oracle.com/technetwork/cn/java/javase/downloads/jdk8-downloads-2133151-zhs.html
根據自己的操作系統版本選擇相應的下載包,如果是支持rpm包的,直接下載rpm,或者使用rpm地址
rpm –ivh http://download.oracle.com/otn-pub/java/jdk/8u20-b26/jdk-8u20-linux-x64.rpm
JDK會持續更新,所以安裝最新版本的JDK需要你自己去官網獲取最新安裝包的rpm地址。
配置SSH公鑰免密認證
CentOS中默認自帶了openssh-server、openssh-clients以及rsync,如果你的系統中沒有,那麼請自行查找安裝方式。
創建共同的賬戶
所有機器上創建hadoop(名稱自定)賬戶,密碼也統一設置為hadoop
useradd -d /home/hadoop -s /usr/bin/bash –g wheel hadoop
passwd hadoop
SSH配置
vi /etc/ssh/sshd_config
找到如下三個配置項,並改成如下設置。如果被注釋了,就去掉前面的#解除注釋使配置生效。
RSAAuthentication yes
PubkeyAuthentication yes
# The default is to check both .ssh/authorized_keys and .ssh/authorized_keys2
# but this is overridden so installations will only check .ssh/authorized_keys
AuthorizedKeysFile .ssh/authorized_keys
.ssh/authorized_keys就是公鑰的存放路徑。
密鑰公鑰生成
用hadoop賬戶登錄。
cd ~
ssh-keygen –t rsa –P ''
將生成的~/.ssh/id_rsa.pub文件保存成~/.ssh/authorized_keys
cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
用scp命令將.ssh目錄拷貝到其他機器上,偷懶做法讓所有的機器的密鑰相同,共享公鑰。
scp ~/.ssh/* hadoop@slave1:~/.ssh/
注意保證~/.ssh/id_rsa的訪問權限必須是600,禁止其他用戶訪問。