本文共 2398 字,大约阅读时间需要 7 分钟。
打开Ubuntu终端
sudo useradd -m hadoop -s /bin/bash #创建hadoop用户,并使用/bin/bash作为shellsudo passwd hadoop #为hadoop用户设置密码,之后需要连续输入两次密码sudo adduser hadoop sudo #为hadoop用户增加管理员权限su - hadoop #切换当前用户为用户hadoopsudo apt-get update #更新hadoop用户的apt,方便后面的安装
sudo apt-get install openssh-server #安装SSH serverssh localhost #登陆SSH,第一次登陆输入yesexit #退出登录的ssh localhostcd ~/.ssh/ #如果没法进入该目录,执行一次ssh localhostssh-keygen -t rsa
输入完 $ ssh-keygen -t rsa 语句以后,需要连续敲击三次回车,如下图:
cat ./id_rsa.pub >> ./authorized_keys #加入授权ssh localhost
如果不需要输入密码(出现下图,既安装成功)
前面有一篇单独安装JDK的,就不在此再次写了
sudo mkdir /hadoop
我的hadoop放在下载文件夹下(中文的乌班图)
1、解压sudo tar -zxvf /home/hadoop/下载/hadoop-2.7.7.tar.gz
2、移动文件
解压后会发现在 下载 文件里 多了个hadoop-2.7.7 文件夹sudo mv hadoop-2.7.7 /hadoop
注意此时我实在下载目录下
打开配置文件
sudo gedit /etc/profile
环境变量(在打开的文件,写入环境变量)
export HADOOP_HOME=/hadoop/hadoop-2.7.7 #相应文件夹路径export PATH=${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:$PATH
使用source /etc/profile
命令使配置文件生效。
在终端输入
hadoop version
注意,和测试JAVA的环境变量不同的是,这里的version
前面没有-
需要修改四个文件,四个文件都在hadoop_path/etc/hadoop/
hadoop_pathhadoop安装目录 1、sore-site.xml
fs.defaultFS hdfs://localhost/
2、hdfs-site.xml
dfs.replication 1
3、mapred-site.xml
注意:目录没有这个文件,但是有一个mapred-site.xml.template,复制并重命名为mapred-site.xml
cp mapred-site.xml.template mapred-site.xml
mapreduce.framework.name yarn
4、yarn-site.xml
yarn.resourcemanager.hostname localhost yarn.nodemanager.aux-services mapreduce_shuffle
hdfs namenode -format
启动的时候遇到一个问题,找不到JAVA_HOME,但是echo $JAVA_HOME 就可以获取到
启动的时候遇到了一个问题,提示权限不够,无法启动
chmod a+w $HADOOP_HOME
增加权限 解决。
start-yarn.sh
可以使用
start-all.sh
启动所有进程
jsp
命令查看所有进程
stop-all.sh
一次推出所有进程stop-dfs.sh stop-yarn.sh
分别关闭进程
转载地址:http://ensnb.baihongyu.com/