hnaa:大数据技术原理与应用2之HBase

第4讲 分布式数据库HBase

4.1 HBase简介

4.1.1 从BigTable说起


因为HBase是BigTable的一个开源实现
BigTable是一个分布式存储系统 BigTable起初用于解决典型的互联网搜索问题


•建立互联网索引
1 爬虫持续不断地抓取新页面,这些页面每页一行地存储到BigTable里
2 MapReduce计算作业运行在整张表上,生成索引,为网络搜索应用做准备
•搜索互联网
3 用户发起网络搜索请求
4 网络搜索应用查询建立好的索引,从BigTable得到网页
5 搜索结果提交给用户





•BigTable是一个分布式存储系统
•利用谷歌提出的MapReduce分布式并行计算模型来处理海量数据
•使用谷歌分布式文件系统GFS作为底层数据存储
•采用Chubby提供协同服务管理
•可以扩展到PB级别的数据和上千台机器,具备广泛应用性、可扩展性、 高性能和高可用性等特点
•谷歌的许多项目都存储在BigTable中,包括搜索、地图、财经、打印、 社交网站Orkut、视频共享网站YouTube和博客网站Blogger等

4.1.2 HBase简介



HBase是一个高可靠、高性能、面向列、可伸缩的分布式数据库,是谷歌BigTable的开源实现,主要用来存储非结构化和半结构化的松散数据。HBase的目标是处理非常庞大的表,可以通过水平扩展的方式,利用廉价计算机集群处理由超过10亿行数据和数百万列元素组成的数据表 。


关系数据库已经流行很多年,并且Hadoop已经有了HDFS和MapReduce,为什么需要HBase?
•Hadoop可以很好地解决大规模数据的离线批量处理问题,但是,受限于Hadoop MapReduce编程框架的高延迟数据处理机制,使得Hadoop无法满足大规模数据实时处理应用的需求
•HDFS面向批量访问模式,不是随机访问模式
•传统的通用关系型数据库无法应对在数据规模剧增时导致的系统扩展性和性能问题 (分库分表也不能很好解决)
•传统关系数据库在数据结构变化时一般需要停机维护;空列浪费存储空间
•因此,业界出现了一类面向半结构化数据存储和处理的高可扩展、低写入/查询延迟的系统,例如,键值数据库、文档数据库和列族数据库(如BigTable和HBase等)
•HBase已经成功应用于互联网服务领域和传统行业的众多在线式数据分析处理系统中

4.1.3 HBase与传统关系数据库的对比分析

HBase与传统的关系数据库的区别主要体现在以下几个方面:
• (1)数据类型:关系数据库采用关系模型,具有丰富的数据类型和存储方式, HBase则采用了更加简单的数据模型,它把数据存储为未经解释的字符串
• (2)数据操作:关系数据库中包含了丰富的操作,其中会涉及复杂的多表连接。 HBase操作则不存在复杂的表与表之间的关系,只有简单的插入、查询、删除、 清空等,因为HBase在设计上就避免了复杂的表和表之间的关系
• (3)存储模式:关系数据库是基于行模式存储的。HBase是基于列存储的,每个列族都由几个文件保存,不同列族的文件是分离的
• (4)数据索引:关系数据库通常可以针对不同列构建复杂的多个索引,以提高数据访问性能。HBase只有一个索引——行键,通过巧妙的设计,HBase中的所有访 问方法,或者通过行键访问,或者通过行键扫描,从而使得整个系统不会慢下来
• (5)数据维护:在关系数据库中,更新操作会用最新的当前值去替换记录中原来 的旧值,旧值被覆盖后就不会存在。而在HBase中执行更新操作时,并不会删除数 据旧的版本,而是生成一个新的版本,旧有的版本仍然保留
• (6)可伸缩性:关系数据库很难实现横向扩展,纵向扩展的空间也比较有限。相反,HBase和BigTable这些分布式数据库就是为了实现灵活的水平扩展而开发的, 能够轻易地通过在集群中增加或者减少硬件数量来实现性能的伸缩

HBase数据库访问


4.2 HBase数据模型

4.3.1 数据模型概述

• HBase是一个稀疏、多维度、排序的映射表,这张表的索引是行键、列族、列限定符和时间戳


• 每个值是一个未经解释的字符串,没有数据类型
• 用户在表中存储数据,每一行都有一个可排序的行键和任意多的列
• 表在水平方向由一个或者多个列族组成,一个列族中可以包含任意多个列,同一 个列族里面的数据存储在一起
• 列族支持动态扩展,可以很轻松地添加一个列族或列,无需预先定义列的数量以 及类型,所有列均以字符串形式存储,用户需要自行进行数据类型转换
• HBase中执行更新操作时,并不会删除数据旧的版本,而是生成一个新的版本, 旧有的版本仍然保留(这是和HDFS只允许追加不允许修改的特性相关的)

4.3.2 数据模型相关概念

• 表:HBase采用表来组织数据,表由行和列组成,列划分为若干个列族
• 行:每个HBase表都由若干行组成,每个行由行键(row key)来标识。
• 列族:一个HBase表被分组成许多“列族” (Column Family)的集合,它是基本的访 问控制单元
• 列限定符:列族里的数据通过列限定符(或 列)来定位
• 单元格:在HBase表中,通过行、列族和列限定符确定一个“单元格”(cell),单元格中存储的数据没有数据类型,总被视为字 节数组byte[]
• 时间戳:每个单元格都保存着同一份数据的多个版本,这些版本采用时间戳进行索引

4.3.3 数据坐标

• HBase中需要根据行键、列族、列限定符和时间戳来确定一个单元格,因此,可以视为一 个“四维坐标”,即[行键, 列族, 列限定符, 时间戳]


4.3.4 概念视图


稀疏表:很多单元格就是空的

4.3.5 物理视图

4.3.6 面向列的存储




4.3 HBase的实现原理

4.3.1 HBase功能组件




HBase的实现包括三个主要的功能组件:
– (1)库函数:链接到每个客户端
– (2)一个Master主服务器
– (3)许多个Region服务器
• 主服务器Master负责管理和维护HBase表的分区信息,维护Region服务器列表,分配Region,负载均衡
• Region服务器负责存储和维护分配给自己的Region,处理来自客户端的读写请求
• 客户端并不是直接从Master主服务器上读取数据,而是在获得Region的存储位置信 息后,直接从Region服务器上读取数据
• 客户端并不依赖Master,而是通过Zookeeper来获得Region位置信息,大多数客户端甚至从来不和Master通信,这种设计方式使得Master负载很小

4.3.2 表和Region


•开始只有一个Region,后来不断分裂
•Region拆分操作非常快,接近瞬间,因为拆分之后的Region读取的仍然是原存储文件,直到“合并”过程把存储文件异步地写到独立的文件之后, 才会读取新文件


•每个Region默认大小是100MB到200MB(2006年以前的硬件配置)
•每个Region的最佳大小取决于单台服务器的有效处理能力
•目前每个Region最佳大小建议1GB-2GB(2013年以后的硬件配置)
•同一个Region不会被分拆到多个Region服务器 •每个Region服务器存储10-1000个Region

4.3.3 Region的定位



•元数据表,又名.META.表,存储了Region和Region服务器的映射关系
•当HBase表很大时, .META.表也会被分裂成多个Region
•根数据表,又名-ROOT-表,记录所有元数据的具体位置
•-ROOT-表只有唯一一个Region,名字是在程序中被写死的
•Zookeeper文件记录了-ROOT-表的位置



•为了加快访问速度,.META.表的全部Region都会被保存在内存中
•假设.META.表的每行(一个映射条目)在内存中大约占用1KB,并且每个Region限制为 128MB,那么,上面的三层结构可以保存的用户数据表的Region数目的计算方法是:
•(-ROOT-表能够寻址的.META.表的Region个数)×(每个.META.表的 Region可以寻址的 用户数据表的Region个数)
•一个-ROOT-表最多只能有一个Region,也就是最多只能有128MB,按照每行(一个映射条 目)占用1KB内存计算,128MB空间可以容纳128MB/1KB=217行,也就是说,一个-ROOT表可以寻址217个.META.表的Region。
•同理,每个.META.表的 Region可以寻址的用户数据表的Region个数是128MB/1KB=217。
•最终,三层结构可以保存的Region数目是(128MB/1KB) × (128MB/1KB) = 234个Region


客户端访问数据时的“三级寻址”
•为了加速寻址,客户端会缓存位置信息,同时,需要解决缓存失效问题
•寻址过程客户端只需要询问Zookeeper服务器,不需要连接Master服务器

4.4 HBase运行机制

4.5.1 HBase系统架构






• 1. 客户端
– 客户端包含访问HBase的接口,同时在缓存中维护着已经访问过的Region位置信息,用来加快后续数据访问过程
• 2. Zookeeper服务器
– Zookeeper可以帮助选举出一个Master作为集群的总管,并保证在任何时刻总有唯一一个Master在运行,这就避免了Master的“单点失效”问题 Zookeeper是一个很好的集群管理工具,被大量用于分布式计算, 提供配置维护、域名服务、分布式同步、组服务等。
• 3. Master
• 主服务器Master主要负责表和Region的管理工作:
– 管理用户对表的增加、删除、修改、查询等操作
– 实现不同Region服务器之间的负载均衡
– 在Region分裂或合并后,负责重新调整Region的分布
– 对发生故障失效的Region服务器上的Region进行迁移
• 4. Region服务器
– Region服务器是HBase中最核心的模块,负责维护分配给自己的Region,并响应用户的读写请求

4.5.2 Region服务器工作原理

  • 用户读写数据过程

  • 缓存的刷新

  • StoreFile的合并


  • 用户读写数据过程
    •用户写入数据时,被分配到相应Region服务器去执行
    •用户数据首先被写入到MemStore和Hlog中
    •只有当操作写入Hlog之后,commit()调用才会将其返回给客户端
    •当用户读取数据时,Region服务器会首先访问MemStore缓存,如果找不到,再去磁盘上面的StoreFile中寻找

  • 缓存的刷新
    •系统会周期性地把MemStore缓存里的内容刷写到磁盘的StoreFile文 件中,清空缓存,并在Hlog里面写入一个标记
    •每次刷写都在磁盘生成一个新的StoreFile文件,因此,每个Store包含多个 StoreFile文件
    •每个Region服务器都有一个自己的HLog 文件,每次启动都检查该文 件,确认最近一次执行缓存刷新操作之后是否发生新的写入操作;如果发现更新,则先写入MemStore,再刷写到StoreFile,最后删除旧 的Hlog文件,开始为用户提供服务

  • StoreFile的合并
    •每次刷写都生成一个新的StoreFile,数量太多,影响查找速度
    •调用Store.compact()把多个合并成一个
    •合并操作比较耗费资源,只有数量达到一个阈值才启动合并

  • 4.5.3 Store工作原理

    •Store是Region服务器的核心
    •多个StoreFile合并成一个
    •单个StoreFile过大时,又触发分裂操作,1个父Region被分裂成两个子 Region


    这就是Regin不断分裂的过程,就是通过多个StoreFile合并,合并得到一个StoreFile,太大以后就会发生分裂操作。一个大的Regin就分裂成两个Regin。

    4.5.4 HLog工作原理


    • 分布式环境必须要考虑系统出错。HBase采用HLog保证系统恢复
    • HBase系统为每个Region服务器配置了一个HLog文件,它是一种预写式日志(Write Ahead Log)
    • 用户更新数据必须首先写入日志后,才能写入MemStore缓存,并且 ,直到MemStore缓存内容对应的日志已经写入磁盘,该缓存内容才能被刷写到磁盘。


    那么谁来检测故障呢?Zookeeper
    • Zookeeper会实时监测每个Region服务器的状态,当某个Region服务器发生故障时,Zookeeper会通知Master
    • Master首先会处理该故障Region服务器上面遗留的HLog文件,这个遗留的HLog文件中包含了来自多个Region对象的日志记录
    • 系统会根据每条日志记录所属的Region对象对HLog数据进行拆分, 分别放到相应Region对象的目录下,然后,再将失效的Region重新分配到可用的Region服务器中,并把与该Region对象相关的HLog日志记录也发送给相应的Region服务器
    • Region服务器领取到分配给自己的Region对象以及与之相关的HLog 日志记录以后,会重新做一遍日志记录中的各种操作,把日志记录中 的数据写入到MemStore缓存中,然后,刷新到磁盘的StoreFile文件 中,完成数据恢复
    为什么每台Region服务器只分配一个HLog,而不是每一个Region分配一个HLog?
    • 共用日志优点:提高对表的写操作性能;缺点:恢复时需要分拆日志
    毕竟发生故障是很少数的,正常执行才是最多的

    4.5 HBase应用方案

    4.5.1 HBase实际应用中的性能优化方法


    •行键(Row Key)
    行键是按照字典序存储,因此,设计行键时,要充分利用这个排序特点,将经常一 起读取的数据存储到一块,将最近可能会被访问的数据放在一块。 举个例子:如果最近写入HBase表中的数据是最可能被访问的,可以考虑将时间戳作为行键的一部分,由于是字典序排序,所以可以使用Long.MAX_VALUE - timestamp作为行键,这样能保证新写入的数据在读取时可以被快速命中。


    •InMemory
    创建表的时候,可以通过HColumnDescriptor.setInMemory(true)将表放到Region 服务器的缓存中,保证在读取的时候被cache命中。


    •Max Version 创建表的时候,可以通过HColumnDescriptor.setMaxVersions(int maxVersions)设置表中数据的最大版本,如果只需要保存最新版本的数据,那么可以设置 setMaxVersions(1)。



    •Time To Live 创建表的时候,可以通过HColumnDescriptor.setTimeToLive(int timeToLive)设置表中数据的存储生命期,过期数据将自动被删除,例如如果只需要存储最近两天的数据, 那么可以设置setTimeToLive(2 * 24 * 60 * 60)。

    4.5.2 HBase性能监视

    •Master-status(自带)
    •HBase Master默认基于Web的UI服务 端口为60010,HBase region服务器默 认基于Web的UI服务端口为60030.如果 master运行在名为master.foo.com的主 机中,mater的主页地址就是 http://master.foo.com:60010,用户可 以通过Web浏览器输入这个地址查看该 页面
    •可以查看HBase集群的当前状态


    •Ganglia


    •OpenTSDB
    OpenTSDB可以从大规模的集群(包括集群中的网络设备、操作系统、应用程序)中获取相应的 metrics并进行存储、索引以及服务,从而使得这些数据更容易让人理解,如web化,图形化等


    •Ambari
    Ambari 的作用就是创建、管理、监视 Hadoop 的集群

    4.5.3 在HBase之上构建SQL引擎


    NoSQL区别于关系型数据库的一点就是NoSQL不使用SQL作为查询语 言,至于为何在NoSQL数据存储HBase上提供SQL接口,有如下原因:
    1.易使用。使用诸如SQL这样易于理解的语言,使人们能够更加轻松地使用HBase。
    2.减少编码。使用诸如SQL这样更高层次的语言来编写,减少了编写的代码量。


    方案:
    1.Hive整合HBase
    2.Phoenix


    1.Hive整合HBase
    Hive与HBase的整合功能从Hive0.6.0版本已经开始出现,利用两者对外的API接口互相通信,通信主要依靠hive_hbase-handler.jar工具 包(Hive Storage Handlers)。由于HBase有一次比较大的版本变动,所以并不是每个版本的Hive都能和现有的HBase版本进行整合,所以在使用过程中特别注意的就是两者版本的一致性。
    2.Phoenix
    Phoenix由Salesforce.com开源,是构建在Apache HBase之上的一个SQL中间层,可以让开发者在HBase上执行SQL查询。

    4.5.4 构建HBase二级索引



    HBase只有一个针对行健的索引访问HBase表中的行,只有三种方式:
    •通过单个行健访问
    •通过一个行健的区间来访问
    •全表扫描


    使用其他产品为HBase行健提供索引功能:
    Hindex二级索引
    •HBase+Redis
    •HBase+solr 原理:采用HBase0.92版本之后引入的Coprocessor特性



    Coprocessor构建二级索引
    •Coprocessor提供了两个实现:endpoint和observer,endpoint相当于关系型数据库的存储过程,而observer则相当于触发器
    •observer允许我们在记录put前后做一些处理,因此,而我们可以在插入数据时同步写入索引表
    优点: 非侵入性:引擎构建在HBase之上, 既没有对HBase进行任何改动,也不需要上层应用做任何妥协
    只是调用它的机制,完成索引的构建
    缺点:每插入一条数据需要向索引表插入数据,即耗时是双倍的, 对HBase的集群的压力也是双倍的


    帮HBse构建的二级索引,不是HBse自身的索引,是通过Coprocessor机制额外开发的程序,这些索引是可以对不同其他列进行索引的,不是只是针对rowkey,不只针对行键
    Hindex 是华为公司开发的纯 Java 编写的HBase二级索引,兼容 Apache HBase 0.94.8。
    当前的特性如下:
    •多个表索引
    •多个列索引
    •基于部分列值的索引


    一种方案是HBase+Redis
    Coprocessor构建二级索引,每来一条数据,捕捉到以后都要去写索引表,这个带来的一个直接问题是:频繁的更新列索引表,列索引表一般都存储在底层的磁盘,更新代价很高,为了减少代价开销。


    可以把部分索引,暂时的写入到缓存中的Redis数据库中去,由这个Redis数据库在缓存中管理索引,再定时从更新索引到HBase的索引表中
    Redis做客户端缓存 ,将索引实时更新到Redis等KV系统中,再定时从KV更新索引到HBase的索引表中


    还有一种方案是Solr+HBase
    Solr是一个高性能,采用Java5开发,基于Lucene的全文搜索服务器,通过输入一些关键词来找到相关内容。
    HBase也可以借助于Solr,来实现高效的对其他列的索引。比如说要在姓名列上构建索引,可以通过Solr全文搜索服务器的方式,对其他的列,比如姓名列构建起相关的索引,你输入一个姓名,就可以快速的找到它对应的行键。Solr服务器帮你构建起的,是其他列和行键rowkey之间的对应关系。也就是说,你通过输入其他列中的某一个值,就可以快速的找到它对应的行键。找到行键以后,HBase本身就有一个针对行键的索引,再通过行键就可以快速找到HBase记录。这种方式也是很高效的。
    通过Solr先帮你构建一个针对其他列的索引,然后具体查找的时候,在其他列上输入一个具体值,先去solr里面找,如果找到符合条件的相关的rowkey,拿到这些rowkey以后,再去HBase当中去找对应的行,因为HBase中包含了rowkey的索引。

    同时对其进行 了扩展,提供了比Lucene更为丰富的查询语言,同时实现了可配置、可扩展并对查询 性能进行了优化,并且提供了一个完善的功能管理界面,是一款非常优秀的全文搜索引擎。

    4.6 HBase安装配置和常用Shell命令

    4.6.1 HBase的安装与配置

  • HBase安装


    •下载安装包hbase-1.1.2-bin.tar.gz
    •解压安装包hbase-1.1.2-bin.tar.gz至路径 /usr/local
    •配置系统环境,将hbase下的bin目录添加到系统的path中,这样你在HBase中执行shell命令就不需要输入绝对路径了。
    备注:第2章安装完Hadoop时,只包含HDFS和MapReduce等核心组件,并不包含HBase,因此,HBase需要单独安装 。
  • HBase配置 HBase有三种运行模式,单机模式、伪分布式模式、分布式模式。


    今天只讲伪分布式,单击比较简单这里也不讲。
    以下先决条件很重要,比如没有配置JAVA_HOME环境变量,就会报错。


    – JDK
    – Hadoop( 单机模式不需要,伪分布式模式和分布式模式需要)
    – SSH 以下先决条件很重要,比如没有配置JAVA_HOME环境变量,就会报错。
    启动关闭Hadoop和HBase的顺序一定是:
    启动Hadoop—>启动HBase—>关闭HBase—>关闭Hadoop


    HBASE_MANAGES_ZK配置文件,这是配置Zookeeper 的,刚才讲过,HBase集群是通过Zookeeper 来管理的,你可以选择单独安装一个Zookeeper 组件服务来支撑你的HBase管理,也可以用HBase自带的Zookeeper 组件来提供服务。如果说我们只是平时自己做实验,你完全可以用HBase自带的Zookeeper 去管理集群就够了,因为它本身就是伪分布式,只有一台机器,没有什么很高的负载,所以这个时候你可以用自带的Zookeeper 。但是你在企业中,如果要部署的集群规模很大的时候,就不建议用自带的Zookeeper ,建议单独设置一个Zookeeper 集群,去管理HBase集群。
    HBASE_MANAGES_ZK=true,则由HBase自己管理Zookeeper 否则,启动独立的Zookeeper
    建议:单机版HBase,使用自带Zookeeper;集群安装HBase则采用单独Zookeeper集群
  • 4.6.2 HBase常用Shell命令

    我们可以用shell命令直接去管理底层的增删改查。


    •create:创建表
    •list:列出HBase中所有的表信息
    例子1:创建一个表,该表名称为tempTable,包含3个列族f1,f2和f3


    添加数据


    put:向表、行、列指定的单元格添加数据
    一次只能为一个表的一行数据的一个列添加一个数据
    scan:浏览表的相关信息
    例子2:继续向表tempTable中的第r1行、第“f1:c1”列,添加数据值为“hello,dblab”
    当你添加数据时,可以直接指定一个新的列的名称,这个列的名称是不需要事先定义的,而在关系数据库中必须先定义列的名称,才往里面添加数据。
    在添加数据时,HBase会自动为添加的数据添加一个时间戳,当然,也可以在添加数据时人工指定时间戳的值

    查看数据


    一定要通过四维定位才能找到具体的数据
    get:通过表名、行、列、时间戳、时间范围和版本号来获得相应单元格的值
    例子3:
    (1)从tempTable中,获取第r1行、第“f1:c1”列的值
    (2)从tempTable中,获取第r1行、第“f1:c3”列的值 ,这行根本不存在
    从运行结果可以看出: tempTable中第r1行、第“f1:c3”列的值当前不存在
    备注:f1是列族,c1和c3都是列

    删除表


    •enable/disable:使表有效或无效
    •drop:删除表
    例子4:使表tempTable无效、删除该表

    4.7 HBase常用Java API及应用实例


    HBase是Java编写的,它的原生的API也是Java开发的。不过, 可以使用Java或其他语言调用API来访问HBase


    首先要在工程中导入一下jar包: 这里只需要导入hbase安装目录中的lib文件中的所有jar包,此处不用再导入第三章Hadoop中的jar包,避免由于Hadoop和HBase的版本冲突 引起错误。
    备注:使用的HBase版本号为1.1.2

    任务要求:创建表、插入数据、浏览数据。
    创建一个学生信息表,用来存储学生姓名(姓名作为行键,并且假设姓名不会重复)以及考试成绩,其中,考试成绩是一个列族,分别存储 了各个科目的考试成绩。逻辑视图如表4-18所示。


    需要添加的数据:


    import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.*; import org.apache.hadoop.hbase.client.*; import org.apache.hadoop.hbase.util.Bytes; import java.io.IOException; public class Chapter4{ public static Configuration configuration; public static Connection connection; public static Admin admin; public static void main(String[] args)throws IOException{ createTable(“student”,new String[]{“score”}); insertData(“student”,“zhangsan”,“score”,“English”,“69”); insertData(“student”,“zhangsan”,“score”,“Math”,“86”); insertData(“student”,“zhangsan”,“score”,“Computer”,“77”); getData(“student”, “zhangsan”, “score”, “English”); } …… public static void init(){……}//建立连接 public static void close(){……}//关闭连接 public static void createTable(){……}//创建表 public static void insertData() {……}//插入数据 public static void getData{……}//浏览数据 }

    这个实例中每一次创建表都会建立连接关闭连接,插入数据也是建立连接关闭连接,但其实没必要,在真正开发过程中一次性打开连接,所有操作完成以后再去关闭连接。这里为了演示,每个操作都进行了打开关闭连接。

    •建立连接,关闭连接

    //建立连接 public static void init(){ configuration = HBaseConfiguration.create(); configuration.set("hbase.rootdir","hdfs://localhost:9000/hbase"); //设置HBase存储数据的根路径try{ connection = ConnectionFactory.createConnection(configuration); admin = connection.getAdmin(); //admin去管理表}catch (IOException e){ e.printStackTrace(); } }

    或者通过:拷贝文件
    hbase-site.xml

    <configuration> <property> <name>hbase.rootdir</name> <value>hdfs://localhost:9000/hbase</value> </property> </configuration>

    备注: (单机版)file:///DIRECTORY/hbase
    hbase.rootdir
    •关闭连接

    //关闭连接 public static void close(){ try{ if(admin != null){ admin.close(); } if(null != connection){ connection.close(); } }catch (IOException e){ e.printStackTrace(); } }

    ①创建表 创建一个学生信息表,用来存储学生姓名(姓名作为行键,并且假设姓名不会重复 )以及考试成绩,其中,考试成绩是一个列族,分别存储了各个科目的考试成绩。逻辑视图。



    /创建表/
    /**
    * @param tableName 表名 *
    * * @param colFamily列族数组
    * * @throws Exception
    * */
    * public static void createTable(String myTableName,String[] colFamily) throws IOException { //知道表的名 称,知道有几个列族

    init(); //建立连接 TableName tableName = TableName.valueOf(myTableName); //Habse中管理表名称 if(admin.tableExists(tableName)){ //admin对象看一下 tableName是否存在 System.out.println("table exists!"); }else { //不存在的话,HTableDescriptor 专门用来对表的信息进行管理,告诉你这个表中有哪些列哪些列族 HTableDescriptor hTableDescriptor = new HTableDescriptor(tableName); for(String str: colFamily){ //向hTableDescriptor 中添加列族 HColumnDescriptor hColumnDescriptor = new HColumnDescriptor(str); //先要把列族数组里每个列族名称取出来 //为每个列族都创建hColumnDescriptor 对象,这个HColumnDescriptor类是用来管理列族的 hTableDescriptor.addFamily(hColumnDescriptor); //把这个对象加到刚才建好的hTableDescriptor对象中 //因为hTableDescriptor对象是来管理你的表的,它来告诉你表中要添加什么列族 //这样就实现了表的创建 } admin.createTable(hTableDescriptor); } close(); }

    /*添加数据*/ /** * @param tableName 表名 * @param rowkey 行键 * * @param colFamily 列族 * * @param col 列限定符 * * @param val 数据 * * @throws Exception */ public static void insertData(String tableName, String rowkey, String colFamily, String col, String val) throws IOException { init(); //建立连接Table table = connection.getTable(TableName.valueOf(tableName)); //声明一个表对象 Put put = new Put(Bytes.toBytes(rowkey)); //put对象是专门用来管理单元格数据输入的 ,首先要给出行键,因为你要 知道你往哪个行键例添加数据put.addColumn(Bytes.toBytes(colFamily), Bytes.toBytes(col), Bytes.toBytes(val)); //向put对象里面增加具体列的相关数据,参数是列族名称、列的名称、具体val值table.put(put); //把数据录到这个表里面去table.close(); close(); }

    你要添加数据,要通过四维定位,


    添加数据时,需要分别设置参数myTableName、rowkey、colFamily、col、val的值, 然后运行上述代码
    例如添加表第一行数据时,为insertData()方法指定相应参数,并运行如下3行代 码: insertData(“student”,“zhangsan”,“score”,“English”,“69”); //表名、行键、列族、列、值
    insertData(“student”,“zhangsan”,“score”,“Math”,“86”);
    insertData(“student”,“zhangsan”,“score”,“Computer”,“77”);
    上述代码与如下HBase Shell命令等效:
    put ‘student’,’zhangsan’,’score:English’,’69’;
    put ‘student’,’zhangsan’,’score:Math’,’86’;
    put ‘student’,’zhangsan’,’score:Computer’,’77’;
    put名称列族与列之间要用冒号隔开

    浏览数据


    ③浏览数据

    /*获取某单元格数据*/ /** * @param tableName 表名 * @param rowkey 行键 * @param colFamily 列族 * @param col 列限定符 * @throws IOException * / public static void getData(String tableName,String rowkey,String colFamily,String col)throws IOException{ init(); Table table = connection.getTable(TableName.valueOf(tableName)); //声明表信息,获取相关表的信息进行管理 Get get = new Get(Bytes.toBytes(rowkey));//查看具体的单元格的数据,要给出行键 get.addColumn(Bytes.toBytes(colFamily),Bytes.toBytes(col)); //获取的result数据是结果集,还需要格式化输出想要的数据才行 Result result = table.get(get); //管理输出结果System.out.println(new String(result.getValue(colFamily.getBytes(),col==null?null:col.getBytes()))); table.close(); close(); }

    比如,现在要获取姓名为“zhangsan”在“English”上的数据,就可以在运行上述 代码时,指定参数tableName为“student”、row为“zhangsan”、columnFamily 为“score”、column为“English”。
    getData(“student”, “zhangsan”, “score”, “English”);
    上述代码与如下HBase Shell命令等效:
    get ‗student’,‘zhangsan’,{COLUMN=>‘score:English’}‖

    本章小结
    • 本章详细介绍了HBase数据库的知识。HBase数据库是BigTable的开源实现,和 BigTable一样,支持大规模海量数据,分布式并发数据处理效率极高,易于扩展 且支持动态伸缩,适用于廉价设备
    • HBase可以支持Native Java API、HBase Shell、Thrift Gateway、REST Gateway、Pig、Hive等多种访问接口,可以根据具体应用场合选择相应访问方式
    • HBase实际上就是一个稀疏、多维、持久化存储的映射表,它采用行键、列键和 时间戳进行索引,每个值都是未经解释的字符串。本章介绍了HBase数据在概念视图和物理视图中的差别
    • HBase采用分区存储,一个大的表会被分拆许多个Region,这些Region会被分发到不同的服务器上实现分布式存储
    • HBase的系统架构包括客户端、Zookeeper服务器、Master主服务器、Region服 务器。客户端包含访问HBase的接口;Zookeeper服务器负责提供稳定可靠的协同服务;Master主服务器主要负责表和Region的管理工作;Region服务器负责维 护分配给自己的Region,并响应用户的读写请求
    • 本章最后详细介绍了HBase运行机制和编程实践的知识

    相关推荐

    相关文章