你的位置:首页 > 软件开发 > 数据库 > hadoop初次接触

hadoop初次接触

发布时间:2016-06-17 17:00:06
部署环境:OS:Fedora 23JDK:jdk-7u80-linux-x64Hadoop:hadoop-2.7.2VMWare:VMware Workstation 12 Pro 安装JDKrpm -ivh jdk-7u80-linux-x64.rpm配置环境变量用vim编 ...

部署环境:

OS:Fedora 23

JDK:jdk-7u80-linux-x64

Hadoop:hadoop-2.7.2

VMWare:VMware Workstation 12 Pro

 

安装JDK

rpm -ivh jdk-7u80-linux-x64.rpm

配置环境变量

用vim编辑器打开/etc/profile文件,加入环境变量的定义

JAVA_HOME=/usr/java/jdk1.7.0_80/

PATH=$JAVA_HOME/bin:$PATH

export JAVA_HOME

export PATH

 

检查SSH和rsync是否安装

 执行 rpm -qa | grep ssh 

openssh-server-7.1p1-3.fc23.x86_64在配置文件中添加:Ciphers aes128-cbc,aes192-cbc,aes256-cbc,aes128-ctr,aes192-ctr,aes256-ctr,3des-cbc,arcfour128,arcfour256,arcfour,blowfish-cbc,cast128-cbcMACs hmac-md5,hmac-sha1,umac-64@openssh.com,hmac-ripemd160,hmac-sha1-96,hmac-md5-96KexAlgorithms diffie-hellman-group1-sha1,diffie-hellman-group14-sha1,diffie-hellman-group-exchange-sha1,diffie-hellman-group-exchange-sha256,ecdh-sha2-nistp256,ecdh-sha2-nistp384,ecdh-sha2-nistp521,diffie-hellman-group1-sha1,curve25519-sha256@libssh.org重启sshd服务后,即可正常连接。导致此问题的原因是ssh升级后,为了安全,默认不再采用原来一些加密算法,我们手工添加进去即可。

 

克隆虚拟机 修改主机名,IP

  克隆的虚拟机 IP配置里的MAC地址注意修改(HWADDR)

 

建立SSH互信

master执行:

  ssh-keygen -t rsa

  scp id_rsa.pub root@192.168.1.121:/root/.ssh

slave执行:

  cat id_rsa.pub >> authorized_keys

  如果没有authorized_keys文件,重命名id_rsa.pub为authorized_keys(mv id_rsa.pub authorized_keys)

  chmod 600 authorized_keys

测试:ssh 192.168.1.121 无密码即可登录

 

Hadoop配置

  解压文件:tar -xzvf hadoop-2.7.2.tar.gz

  修改配置文件:

    hadoop-env.sh 找到 export JAVA_HOME=${JAVA_HOME} 修改为export JAVA_HOME=/usr/java/jdk1.7.0_80

core-site.

<configuration> <property>  <name>fs.default.name</name>  <value>hdfs://master:9000</value> </property> <property>  <name>Hadoop.tmp.dir</name>  <value>/hadoop-root</value> </property></configuration>

 

海外公司注册、海外银行开户、跨境平台代入驻、VAT、EPR等知识和在线办理:https://www.xlkjsw.com

原标题:hadoop初次接触

关键词:

*特别声明:以上内容来自于网络收集,著作权属原作者所有,如有侵权,请联系我们: admin#shaoqun.com (#换成@)。

可能感兴趣文章

我的浏览记录