技术

如何使用RedisTemplate访问Redis数据结构 MySQL重要知识点 OAuth2认证授授权流程 分布式锁 服务调用 MQ的介绍 SpringCloud 使用链 Eureka 的点对点通信 介绍Eureka RabbitMQ与其它MQ的对比 Springboot 启动过程分析 Springboot 入门 Linux内存管理 自定义CNI IPAM 扩展Kubernetes 副本一致性 spring redis 源码分析 kafka实践 spring kafka 源码分析 Linux进程调度 让kafka支持优先级队列 Codis源码分析 Redis源码分析 C语言学习 《趣谈Linux操作系统》笔记 Kubernetes安全机制 jvm crash分析 Prometheus 学习 Kubernetes监控 Kubernetes 控制器模型 容器日志采集 容器狂占cpu怎么办? 容器狂打日志怎么办? Kubernetes资源调度-scheduler 时序性数据库介绍及对比 influxdb入门 maven的基本概念 《Apache Kafka源码分析》——server Kubernetes objects之编排对象 源码分析体会 自动化mock AIOps说的啥 从DevOps中挖掘docker的价值 《数据结构与算法之美》——算法新解 Kubernetes源码分析——controller mananger Kubernetes源码分析——apiserver Kubernetes源码分析——kubelet Kubernetes整体结构 ansible学习 Kubernetes源码分析——从kubectl开始 jib源码分析之Step实现 kubernetes实践 线程排队 jib源码分析之细节 从一个签名框架看待机制和策略 跨主机容器通信 jib源码分析及应用 docker环境下的持续构建 docker环境下的持续发布 一个容器多个进程 kubernetes yaml配置 marathon-client 源码分析 《持续交付36讲》笔记 程序猿应该知道的 mybatis学习 无锁数据结构和算法 《Container-Networking-Docker-Kubernetes》笔记 活用linux 命令 为什么很多业务程序猿觉得数据结构和算法没用? 串一串一致性协议 当我在说PaaS时,我在说什么 《数据结构与算法之美》——数据结构笔记 swagger PouchContainer技术分享体会 harbor学习 用groovy 来动态化你的代码 《深入剖析kubernetes》笔记 精简代码的利器——lombok 学习 java 语言的动态性 rxjava3——背压 rxjava2——线程切换 spring cloud 初识 JVM4——《深入拆解java 虚拟机》笔记 《how tomcat works》笔记 commons-pipeline 源码分析 hystrix 学习 rxjava1——概念 Redis 学习 TIDB 学习 分布式计算系统的那些套路 Storm 学习 AQS3——论文学习 Unsafe Spark Stream 学习 linux 文件系统 mysql 批量操作优化 《自己动手写docker》笔记 java8 实践 中本聪比特币白皮书 细读 区块链泛谈 比特币 大杂烩 总纲——如何学习分布式系统 forkjoin 泛谈 hbase 泛谈 看不见摸不着的cdn是啥 《jdk8 in action》笔记 程序猿视角看网络 calico 问题排查 bgp初识 mesos 的一些tips mesos 集成 calico calico AQS2——粗略的代码分析 我们能用反射做什么 web 跨域问题 《clean code》笔记 compensable-transaction 源码分析 硬件对软件设计的影响 elasticsearch 初步认识 mockito简介及源码分析 线上用docker要解决的问题 《Apache Kafka源码分析》——Producer与Consumer 停止容器 dns隐藏的一个坑 《mysql技术内幕》笔记2 《mysql技术内幕》笔记1 log4j学习 为什么netty比较难懂? 回溯法 apollo client源码分析及看待面向对象设计 java系并发模型的发展 从一个marathon的问题开始的 docker 环境(主要运行java项目)常见问题 Scala的一些梗 OpenTSDB 入门 spring事务小结 事务一致性 javascript应用在哪里 netty中的future和promise 《netty in action》读书笔记 netty对http2协议的解析 ssl证书是什么东西 一些tricky的code http那些事 苹果APNs推送框架pushy apple 推送那些事儿 编写java框架的几大利器 JVM3——java内存模型 java concurrent 工具类 java exception java io涉及到的一些linux知识 network channel network byte buffer 测试环境docker化实践 通用transport层框架pigeon netty(七)netty在框架中的使用套路 Nginx简单使用 《Linux内核设计的艺术》小结 从Go并发编程模型想到的 mesos深入 Macvlan Linux网络源代码学习2 《docker源码分析》小结 对web系统的一些理解 docker中涉及到的一些linux知识 hystrix学习 Linux网络源代码学习 Docker网络五,docker网络的回顾 zookeeper三重奏 数据库的一些知识 Spark 泛谈 commons-chain netty(六)netty回顾 Thrift基本原理与实践(三) Thrift基本原理与实践(二) Thrift基本原理与实践(一) Future 回调 Docker0.1.0源码分析 基于spring boot和Docker搭建微服务 通过Docker Plugin来扩展Docker Engine java gc Docker网络四,基于Centos搭建Docker跨主机网络 google guava的一些理解 Jedis源码分析 Redis概述 Docker回顾 深度学习是个什么鬼 Docker网络三,基于OVS实现Docker跨主机网络 Linux网络命令操作 JTA与TCC 换个角度看待设计模式 Scala初识 netty(四)netty对http协议的实现(废弃) netty(三)netty框架泛谈 向Hadoop学习NIO的使用 以新的角度看数据结构 AQS1——并发相关的硬件与内核支持 使用Ubuntu要做的一些环境准备 Docker网络二,libnetwork systemd 简介 那些有用的sql语句 异构数据库表在线同步 spring aop 实现原理简述——背景知识 quartz 源码分析 基于docker搭建测试环境(二) spring aop 实现原理简述 我们编程的那些潜意识 自己动手写spring(八) 支持AOP 自己动手写spring(七) 类结构设计调整 分析log日志 一次代码调试的过程 自己动手写spring(六) 支持FactoryBean 自己动手写spring(九) 总结 自己动手写spring(五) bean的生命周期管理 自己动手写spring(四) 整合xml与注解方式 自己动手写spring(三) 支持注解方式 自己动手写spring(二) 创建一个bean工厂 自己动手写spring(一) 使用digester varnish 简单使用 docker volume 关于docker image的那点事儿 基于docker搭建测试环境 分布式配置系统 JVM2——JVM和传统OS对比 git spring rmi和thrift maven/ant/gradle使用 再看tcp mesos简介 缓存系统——具体组件 缓存系统 java nio的多线程扩展 多线程设计模式/《Concurrency Models》笔记 回头看Spring IOC IntelliJ IDEA使用 Java泛型 vagrant 使用 Go 常用的一些库 Netty(一)初步了解 java mina Golang开发环境搭建(Windows下) java nio入门 ibatis自动生成类和文件 Python初学 Goroutine 调度模型猜想 一些编程相关的名词 虚拟网络 《程序员的自我修养》小结 VPN(Virtual Private Network) Hadoop安装与调试 Kubernetes持久化存储 Kubernetes 其它特性 访问Kubernetes上的服务 Kubernetes副本管理 Kubernetes pod 组件 使用etcd + confd + nginx做动态负载均衡 nginx安装与简单使用 在CoreOS集群上搭建Kubernetes 如何通过fleet unit files 来构建灵活的服务 CoreOS 安装 定制自己的boot2docker.iso CoreOS 使用 Go初学 JVM1——jvm小结 硬币和扑克牌问题 LRU实现 virtualbox 使用 os->c->java 多线程 容器类概述 zabbix 使用 zabbix 安装 Linux中的一些点 关于集群监控 ThreadLocal小结 我对Hadoop的认识 haproxy安装 docker快速入门

标签


我对Hadoop的认识

2014年08月12日

前言

学习Hadoop已经快半年了,中间断断续续,一直没有找到Hadoop相关的工作机会,只是自己靠兴趣在学,感觉掌握的非常有限。因为没有实践,别人尤其是面试官问起来时经常感觉底气不足,在这里记录下我对Hadoop的一点理解,也算是对半年学习的一个小结。

本文档是我想一点写一点,未完待续,欢迎和大家一起探讨!

Hadoop是什么

上半年参加阿里的面试,临到最后,面试官问我:“你既然学了Hadoop,那你把我当成对Hadoop一点都不了解的人,你怎么给我讲Hadoop?”我当时说:“Hadoop类似于一个操作系统,无非是传统的操作系统只管理一台机器,而它能管理多台机器。”当时Hadoop2.x还没有出来,这样的回答不太合适。Hadoop2.x出来后,Hadoop拥有自己的文件系统HDFS和资源管理组件YARN,这么说就有一点味道了。

笔者最近在学习Ganglia,这是一个分布式的监控软件,可以监控一个集群的各项参数,当然也可以用来监控Hadoop集群。有了两个学习分布式软件的经历,回过头看,hadoop作为一个分布式软件,种种机制就理所当然了。那么运行在多台机器上的分布式软件,一般有哪些共同点呢?

  • 分为主节点和从节点。

    主节点负责和用户交互,从节点负责收集所在主机信息并汇报给主节点,接受并执行主节点的指令。

  • 如何通信。

    这个大体分为两类:“主节点轮询从节点”和“从节点主动向主节点汇报(也叫发送心跳)”。因为要相互通信,所以主节点和从节点都会运行一个守护进程,用来接受和发送数据。除此之外,对于进程间交互,hadoop用到了RPC机制,这对了解hadoop的机理非常重要。

  • 可以容错。

    都预设集群中可能会有主机down掉,并提出方案来解决这个问题。

  • 动态扩展。

    可以根据需求增加和减少节点。

Hadoop的组成

  • 本质

    “存储”分散到多台主机上,“计算”分散到多台主机上

  • 问题

    分散到哪台主机上?如何分散,处理?化整为零后,如何化零为整?

首先谈一下hadoop是干什么的,简单点说,hadoop是处理大数据的,处理大数据,首先要能存储这么大数据。可一台主机存不下,那就需要多台。一个文件存在多个主机上,增删改查,一大堆问题。我们要屏蔽掉这些问题,于是Hadoop有了HDFS,它对外提供一个文件系统抽象,我们只管增删改查文件,其他的问题它来解决。

存储搞定后,就是处理文件中的数据,传统的方式是文件跟着程序走。即先将文件读入程序所运行主机的内存,处理,然后写到磁盘上。这是一套串行的操作,可一是没那么大的内存,就算有,将文件从磁盘加载到内存中,所费时间黄花菜都凉好几回了。

在新的处理方式下,文件分布在多台机器上,我们程序跟着文件走(要知道我们的节点都有计算能力,不用白不用喔)。将程序传送到文件所在的“主机们”上,然后同时运行,汇总结果,输出。这是一套并行化的流程,这里有三个问题:

  • 不是所有串行都能并行化

    并行化要求所处理的数据之间没有关系,处理的先后顺序没有关系。

  • 所写代码已经完全不是一个套路

    • 数据在处理之前位于不同的节点,每个节点的数据之间存在一定的联系,处理之前要消除这种联系

    • 每个节点处理完毕后,要有汇总和善后工作

    • 某个并行节点可能会运行失败,要发现这种失败并进行处理

  • 谁来执行

    假设文件分散在5个节点上,我难道在这5个节点上都启动处理程序么?假设其中有几个很忙,根本没工夫呢?假设某个节点性能不行,根本就处理不了呢?于是问题来了,主节点需要对所管理节点是不是有空,每个节点能吃几碗干饭都有所了解,然后启动合适的多个节点进行处理任务。

HDFS

整体结构如下:

主节点运行Namenode,从节点运行Datanode。

HDFS数据分为两类:文件目录结构,文件数据本身。

分工如下:

Namenode存储meta数据:文件系统目录结构和文件和所包含块的映射关系。

Datanode数据存储文件数据块本身,一个Datanode存储哪些块由datanode启动时向namenode汇报(safemode概念)。

这类似于linux的索引块和一般磁盘块,文件在磁盘中也不是连续存储的,类比一下,道理都是一样的。文件系统嘛,就是完成从文件名(路径)到数据块的映射。(数据库管理系统,完成从记录到磁盘块的映射)

除Namenode和Datanode外,HDFS还有一个重要节点:SecondaryNamenode,详情如下: Namenode为高效访问数据 ==> 将meta信息存入内存 ==> 内存数据易丢失 ==> 将内存信息周期性备份成fsimage文件 ==> 备份和内存数据不同步 ==> 两次备份之间记录日志edits ==> 需要合并fsimage和edits,namenode没空 ==> SecondaryNamenode负责这个工作

YARN

整体结构:主节点ResourceManager,从节点NodeManager

在hadoop2.x版本中,提出了新的组件Yarn,ResourceManager通过NodeManager感知节点的能力和状态,以便分派。

ApplicationMaster代表一个job,和ResourceManager要资源,和NodeManager协作完成工作。

MapReduce思路

现如今,Hadoop还可以选择其它计算模型。

MapReduce,在Hadoop中,整个过程分为六个阶段,主要是map和reduce两个过程。

我们提到,程序跟着文件走,然后存储该文件数据的节点同时运行,最后汇总,输出。但是,A节点该文件块对应的某些数据和B节点的数据有关系,要一块处理。于是,处理之前,要先把所有相关的数据拢到一块,再分别处理。then,处理过程一分为二:

  • Map:先将数据归类,相同特征的数据(或需要一起处理的数据)放一个节点;
  • Reduce:此时节点之间的数据没有瓜葛了,进行处理。(数据归类好后,持久化存储起来是不是更好?)

关于Map和Reduce过程,有一个很形象的比喻,那就是SQL中的group by语句和聚集函数。

select count(*) from student group by sex

该SQL用来计算student表中男女生的人数,总要先将男生和女生从人群中拉出来,站两堆,才数的过来。这里,group by对应map过程,count对应reduce过程。

这里,六大阶段不再赘述,但每个阶段我们都可以个性化,以满足不同的业务需求。

其它

  • 主节点负责响应请求,实际的实施还是由客户端和从节点交互完成的

    • FileSystem从namenode得到文件块所在的datanode后,和datanode交互读取数据
    • ApplicationMaster从ResourceManager要到资源后,和NodeManager交互完成计算过程