星空网 > 软件开发 > 数据库

Hadoop_day01

Hadoop7天课程

课程体系

Hadoop_day01

Day01>>>>>>>>>>>>>>>>>>>>

hadoop项目简介

hadoop简介

hadoop前景

apache的开源项目

  • 解决问题:(核心)

    海量数据的存储(HDFS)

    ---Hadoop分布式文件系统,解决机器怎么存储

    海量数据的分析(MapReduce)

    ----分布的计算模型,解决机器怎么干活,区分主从

    资源管理调度(YARN)

    ---另一个资源调用系统,hadoop2.0之后出现,以前只能MapReduce

    (不局限于mapreduce:storm实时流、mpi等)

  • 作者:Doug Cutting

    Hadoop_day01

    Hadoop的商业版本cdh,已经提供技术支持

    lucene的作者

  • 受Google三篇论文的启发(GFS、MapReduce、BigTable)

    gfs谷歌的分布式文件系统---hdfs数据存储

    mapreduce谷歌分布式计算模型----mapreduce数据分析

    bigtable大表数据库---hbase列式数据库(介于关系型和nosql之间)怎么存储

hadoop能做什么?

hadoop擅长日志分析,主要处理离线数据(分析以前产生的数据),facebook就用Hive来进行日志分析,2009年时facebook就有非编程人员的30%的人使用HiveQL进行数据分析;淘宝搜索中的自定义筛选也使用的Hive;利用Pig还可以做高级的数据处理,包括Twitter、LinkedIn 上用于发现您可能认识的人,可以实现类似Amazon.com的协同过滤的推荐效果。淘宝的商品推荐也是!在Yahoo!的40%的Hadoop作业是用pig运行的,包括垃圾邮件的识别和过滤,还有用户特征建模。(2012年8月25新更新,天猫的推荐系统是Hive,少量尝试mahout!)

storm做实时推荐

hadoop的广泛应用

哪些公司使用hadoop

Hadoop被公认是一套行业大数据标准开源软件,在分布式环境下提供了海量数据的处理能力。几乎所有主流厂商都围绕Hadoop开发工具、开源软件、商业化工具和技术服务。今年大型IT公司,如EMC、Microsoft、Intel、Teradata、Cisco都明显增加了Hadoop方面的投入

hadoop在淘宝

  • 从09年开始,用于对海量数据的离线处理,例如对日志的分析,交易记录的分析等
  • 规模从当初的3~4百台节点,增加到现在的一个集群有3000个节点,淘宝现在已经有2~3个这样的集群
  • 在支付宝的集群规模也有700台节点,使用Hbase对用户的消费记录可以实现毫秒级查询

扩展知识:参照淘宝双十一解决方案

淘宝数据魔方的架构

Hadoop_day01

淘宝数据魔方的真实面目

hadoop生态圈

Hadoop_day01

版本

  • Apache

官方版本(2.4.1)

  • Cloudera---cdh(hadoop的商业版本)

    使用下载最多的版本,稳定,有商业支持,在Apache的基础上打上了一些patch。推荐使用。

  • HDP(Hortonworks Data Platform)

Hortonworks公司发行版本。

Hadoop的核心

Hdfs分布式文件系统

Mapreduce并行计算框架

Yarn资源管理调度系统(运行符合规则的程序)

1.0和2.0

Hadoop_day01Hadoop_day01

Yarn的出现使得hadoop可以支持多个计算框架(不仅是mapreduce)

核心之一---yarn

Hadoop_day01

核心之二--hdfs

怎么解决海量数据的存储

Hadoop_day01

通过水平扩展机器数量来提高存储数据的能力

hdfs的架构

  • 主从结构

    主节点,只有一个: namenode,负责管理

    从节点,有很多个: datanode 负责存储

  • namenode负责:

    接收用户操作请求

    维护文件系统的目录结构

    管理文件与block之间关系,block与datanode之间关系

  • datanode负责:

    存储文件

    文件被分成block存储在磁盘

    为保证数据安全,文件会有多个副本

核心之三--mapreduce编程模型

怎样解决海量数据的计算

map:大任务分解为若干个小任务

reduce:小任务再汇总整合成大任务的结果

Hadoop_day01

hadoop集群的物理分布:

Hadoop_day01

Rack:机架、switch:交换机、datanode:hdfs的小弟(从节点)

单点物理结构

Hadoop_day01

Hadoop部署方式

本地模式:eclipse调试用,只启一个mapper一个reduce

伪分布模式:一台机器模拟多台机器

集群模式:真实的生产环境

hadoop的特点

  • 扩容能力(Scalable):能可靠地(reliably)存储和处理千兆字节(PB)数据。
  • 成本低(Economical):可以通过普通机器组成的服务器群来分发以及处理数据。这些服务器群总计可达数千个节点。
  • 高效率(Efficient):通过分发数据,hadoop可以在数据所在的节点上并行地(parallel)处理它们,这使得处理非常的快速。
  • 可靠性(Reliable):hadoop能自动地维护数据的多份副本,并且在任务失败后能自动地重新部署(redeploy)计算任务。

搭建hadoop的伪分布环境

1.准备Linux环境

    1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 设置网段:192.168.1.0 子网掩码:255.255.255.0 -> apply -> ok

        回到windows --> 打开网络和共享中心 -> 更改适配器设置 -> 右键VMnet1 -> 属性 -> 双击IPv4 -> 设置windows的IP:192.168.1.110 子网掩码:255.255.255.0 -> 点击确定

        在虚拟软件上 --My Computer -> 选中虚拟机 -> 右键 -> settings -> network adapter -> host only -> ok    

    1.1修改主机名

    Hadoop_day01

        vim /etc/sysconfig/network

       .NETWORKING=yes

        HOSTNAME=itcast01 ###

    1.2修改IP

        两种方式:

        第一种:通过Linux图形界面进行修改(强烈推荐)

            进入Linux图形界面 -> 右键点击右上方的两个小电脑 -> 点击Edit connections -> 选中当前网络System eth0 -> 点击edit按钮 -> 选择IPv4 -> method选择为manual -> 点击add按钮 -> 添加IP:192.168.1.119 子网掩码:255.255.255.0 网关:192.168.1.1 -> apply

        第二种:修改配置文件方式(屌丝程序猿专用)

Hadoop_day01

            vim /etc/sysconfig/network-scripts/ifcfg-eth0

            DEVICE="eth0"

            BOOTPROTO="static"

            HWADDR="00:0C:29:2C:BF:E3"

            IPV6INIT="yes"

            NM_CONTROLLED="yes"

            ONBOOT="yes"

            TYPE="Ethernet"

            UUID="ce22eeca-ecde-4536-8cc3-ef0fc36d6a8c"

            IPADDR="192.168.56.32 "

            NETMASK="255.255.255.0"

            GATEWAY="192.168.56.1"

    1.3修改主机名和IP的映射关系

    ----x相当于本地的dns

Hadoop_day01

        vim /etc/hosts

        192.168.56.31    jkdong01

    1.4关闭防火墙

        #查看防火墙状态

Hadoop_day01

        service iptables status

        #关闭防火墙

        service iptables stop

        #查看防火墙开机启动状态

Hadoop_day01

        chkconfig iptables --list

        #关闭防火墙开机启动

        chkconfig iptables off

    1.5重启Linux

        reboot

2.安装JDK

    2.1上传(ftp工具)

    2.2解压jdk

        #创建文件夹

        mkdir /usr/java

        #解压

        tar -zxvf jdk-7u55-linux-i586.tar.gz -C /usr/java/

    2.3将java添加到环境变量中

        vim /etc/profile

Hadoop_day01

        #在文件最后添加

        export JAVA_HOME=/usr/java/jdk1.7.0_55

        export PATH=$PATH:$JAVA_HOME/bin

        #刷新配置

        source /etc/profile

3.安装Hadoop

    3.1上传hadoop安装包

    3.2解压hadoop安装包

        #解压到/itcast/目录下

        tar -zxvf hadoop-2.2.0.tar.gz -C /itcast/

Hadoop_day01

Hadoop_day01

    3.3修改配置文件(5个)

Cd etc/hadoop

Hadoop_day01

        第一个:hadoop-env.sh—指定环境变量

        #在27行修改

Hadoop_day01

        第二个:core-site.

        Hadoop_day01

        第三个:hdfs-site.

        Hadoop_day01

        第四个:mapred-site.

    Hadoop_day01        

第五个:yarn-site.

    Hadoop_day01

    3.4将hadoop添加到环境变量

        命令:vim /etc/profile

        Hadoop_day01        再执行:source /etc/profile刷新配置

    3.5格式化HDFS(namenode)第一次使用时要格式化

        hadoop namenode -format(过时了但是依然可用)

hdfs namenode -format(现用的格式化命令)

Hadoop_day01

    3.6启动hadoop

        先启动HDFS

        sbin/start-dfs.sh

Hadoop_day01

        再启动YARN

        sbin/start-yarn.sh

Hadoop_day01

    3.7验证是否启动成功

        使用jps命令验证

Hadoop_day01

4.配置ssh免密码登陆

Ssh即安全的shell命令

    生成ssh免登陆密钥

    cd ~,进入到我的home目录

    cd .ssh/

    ssh-keygen -t rsa (四个回车)

    执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)

Hadoop_day01

    将公钥拷贝到要免登陆的机器上

/root/.ssh目录下:cp id_rsa.pub authorized_keys

    或

    ssh-copy-id 192.168.56.32

Hadoop_day01

Ssh免密登录的原理

Hadoop_day01

这样server A就可以对server B进行免密码登录

Day02>>>>>>>>>>>>>>>>>>>>

课程安排:

  • 分布式文件系统与HDFS
  • HDFS体系结构与基本概念
  • HDFS的shell操作
  • java接口及常用api

hdfs原理

Hadoop_day01

Datanode会横向流水线方式复制文件产生副本

上传的文件还会分block块(hadoop块的大小128M)

分布式文件系统

用一个系统来管理多台机器上的文件(冗余存储)

允许通过网络分享文件和存储空间

通透性:访问远程文件就像访问本地资源一样

容错:持续运行而不会使数据损失

Hdfs就是一种分布式文件系统,不支持并发写(按block块的顺序写),小文件不适合(hadoop1.x)

常见分布式文件系统:gfs(谷歌文件系统),hdfs、Lustre。。。

 

Day03>>>>>>>>>>>>>>>>>>>>

 

Day04>>>>>>>>>>>>>>>>>>>>

 

Day05>>>>>>>>>>>>>>>>>>>>

 

Day06>>>>>>>>>>>>>>>>>>>>

 

Day07>>>>>>>>>>>>>>>>>>>>

 




原标题:Hadoop_day01

关键词:

*特别声明:以上内容来自于网络收集,著作权属原作者所有,如有侵权,请联系我们: admin#shaoqun.com (#换成@)。

墨西哥站点:https://www.goluckyvip.com/tag/13838.html
限硫令:https://www.goluckyvip.com/tag/13839.html
卖家无淡季:https://www.goluckyvip.com/tag/1384.html
小窍门:https://www.goluckyvip.com/tag/13840.html
涉嫌诈骗罪:https://www.goluckyvip.com/tag/13841.html
权健药品骗局:https://www.goluckyvip.com/tag/13842.html
百崖大峡谷生态旅游景区(探秘中国西南自然风光):https://www.vstour.cn/a/363176.html
海陵岛马尾岛景点介绍 海陵马尾岛图片:https://www.vstour.cn/a/363177.html
相关文章
我的浏览记录
最新相关资讯
海外公司注册 | 跨境电商服务平台 | 深圳旅行社 | 东南亚物流