如何利用MapReduce框架实现HBase的数据读写操作?
java,import java.io.IOException;,import org.apache.hadoop.conf.Configuration;,import org.apache.hadoop.hbase.HBaseConfiguration;,import org.apache.hadoop.hbase.TableName;,import org.apache.hadoop.hbase.client.Connection;,import org.apache.hadoop.hbase.client.ConnectionFactory;,import org.apache.hadoop.hbase.client.Get;,import org.apache.hadoop.hbase.client.Put;,import org.apache.hadoop.hbase.client.Table;,import org.apache.hadoop.hbase.util.Bytes;,,public class HBaseExample {, public static void main(String[] args) throws IOException {, Configuration config = HBaseConfiguration.create();, Connection connection = ConnectionFactory.createConnection(config);, Table table = connection.getTable(TableName.valueOf("test"));,, // 写入数据, Put put = new Put(Bytes.toBytes("row1"));, put.addColumn(Bytes.toBytes("col1"), Bytes.toBytes("qual1"), Bytes.toBytes("value1"));, table.put(put);,, // 读取数据, Get get = new Get(Bytes.toBytes("row1"));, Result result = table.get(get);, byte[] value = result.getValue(Bytes.toBytes("col1"), Bytes.toBytes("qual1"));, System.out.println("Value: " + Bytes.toString(value));,, table.(本文来源:wWw.KengNiao.Com)close();, connection.close();, },},
``,,这个程序首先连接到HBase,然后向表"test"中插入一行数据,接着从表中读取该行数据并打印出来。MapReduce 读写 HBase 数据样例程序
(图片来源网络,侵删)1. 准备工作
在开始编写 MapReduce 程序之前,确保你已经安装了 Hadoop 和 HBase,你需要了解基本的 HBase 表结构和数据模型。
2. 创建 HBase 表
我们需要创建一个 HBase 表来存储我们的示例数据,假设我们要创建一个名为user_data
的表,包含两个列族:info
和address
。
create 'user_data', {NAME => 'info'}, {NAME => 'address'}
3. 编写 MapReduce 程序
(图片来源网络,侵删)3.1 Mapper 类
import org.apache.hadoop.hbase.client.Put;import org.apache.hadoop.hbase.io.ImmutableBytesWritable;import org.apache.hadoop.hbase.util.Bytes;import org.apache.hadoop.io.LongWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapreduce.Mapper;public class HBaseWriteMapper extends Mapper<LongWritable, Text, ImmutableBytesWritable, Put> { @Override protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { String[] fields = value.toString().split("\t"); if (fields.length != 4) return; String rowKey = fields[0]; String name = fields[1]; String age = fields[2]; String address = fields[3]; ImmutableBytesWritable hbaseRowKey = new ImmutableBytesWritable(Bytes.toBytes(rowKey)); Put put = new Put(hbaseRowKey.get()); put.addColumn(Bytes.toBytes("info"), Bytes.toBytes("name"), Bytes.toBytes(name)); put.addColumn(Bytes.toBytes("info"), Bytes.toBytes("age"), Bytes.toBytes(age)); put.addColumn(Bytes.toBytes("address"), Bytes.toBytes("city"), Bytes.toBytes(address)); context.write(hbaseRowKey, put); }}
3.2 Reducer 类
在这个例子中,我们不需要使用 Reducer,因为我们只是将数据写入 HBase,我们可以省略 Reducer 类。
3.3 Driver 类
import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.Path;import org.apache.hadoop.hbase.HBaseConfiguration;import org.apache.hadoop.hbase.client.Connection;import org.apache.hadoop.hbase.client.ConnectionFactory;import org.apache.hadoop.hbase.client.Table;import org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil;import org.apache.hadoop.hbase.mapreduce.TableOutputFormat;import org.apache.hadoop.hbase.mapreduce.TableReducer;import org.apache.hadoop.hbase.util.Bytes;import org.apache.hadoop.io.LongWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapreduce.Job;import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;public class HBaseWriteDriver { public static void main(String[] args) throws Exception { Configuration conf = HBaseConfiguration.create(); conf.set("hbase.zookeeper.quorum", "localhost"); // 设置 ZooKeeper 地址 conf.set("hbase.zookeeper.property.clientPort", "2181"); // 设置 ZooKeeper 端口 conf.set(TableOutputFormat.OUTPUT_TABLE, "user_data"); // 设置输出表名 Job job = Job.getInstance(conf, "HBase Write Example"); job.setJarByClass(HBaseWriteDriver.class); job.setMapperClass(HBaseWriteMapper.class); job.setNumReduceTasks(0); // 不使用 Reducer FileInputFormat.addInputPath(job, new Path(args[0])); // 输入文件路径 FileOutputFormat.setOutputPath(job, new Path(args[1])); // 输出文件路径 System.exit(job.waitForCompletion(true) ? 0 : 1); }}
4. 运行程序
(图片来源网络,侵删)编译并打包你的 Java 代码后,你可以使用以下命令运行 MapReduce 程序:
hadoop jar yourcompiledjarfile.jar com.example.HBaseWriteDriver inputpath outputpath
其中yourcompiledjarfile.jar
是你的编译后的 JAR 文件,inputpath
是包含输入数据的 HDFS 路径,outputpath
是用于存储 MapReduce 输出结果的 HDFS 路径。
5. 问题与解答
问题1:如何从 HBase 表中读取数据?
答案1: 要从 HBase 表中读取数据,你可以使用 HBase 的 API 或者 MapReduce 作业,以下是一个简单的使用 HBase API 读取数据的示例:
import org.apache.hadoop.hbase.*;import org.apache.hadoop.hbase.client.*;import org.apache.hadoop.hbase.util.*;public class HBaseReadExample { public static void main(String[] args) throws Exception { Configuration config = HBaseConfiguration.create(); config.set("hbase.zookeeper.quorum", "localhost"); config.set("hbase.zookeeper.property.clientPort", "2181"); Connection connection = ConnectionFactory.createConnection(config); Table table = connection.getTable(TableName.valueOf("user_data")); Get get = new Get(Bytes.toBytes("rowKey1")); // 替换为你要查询的行键 Result result = table.get(get); byte[] value = result.getValue(Bytes.toBytes("info"), Bytes.toBytes("name")); System.out.println("Name: " + Bytes.toString(value)); table.close(); connection.close(); }}
问题2:如何在 HBase 中使用过滤器进行数据查询?
答案2: 在 HBase 中,你可以使用过滤器来筛选返回的数据,如果你想获取年龄大于等于30的用户信息,可以使用 SingleColumnValueFilter,以下是一个简单的示例:
import org.apache.hadoop.hbase.*;import org.apache.hadoop.hbase.client.*;import org.apache.hadoop.hbase.filter.*;import org.apache.hadoop.hbase.util.*;public class HBaseFilterExample { public static void main(String[] args) throws Exception { Configuration config = HBaseConfiguration.create(); config.set("hbase.zookeeper.quorum", "localhost"); config.set("hbase.zookeeper.property.clientPort", "2181"); Connection connection = ConnectionFactory.createConnection(config); Table table = connection.getTable(TableName.valueOf("user_data")); Scan scan = new Scan(); Filter filter = new SingleColumnValueFilter(Bytes.toBytes("info"), Bytes.toBytes("age"), CompareFilter.CompareOp.GREATER_OR_EQUAL, Bytes.toBytes("30")); scan.setFilter(filter); ResultScanner scanner = table.getScanner(scan); for (Result result : scanner) { System.out.println("Row: " + Bytes.toString(result.getRow()) + " Age: " + Bytes.toString(result.getValue(Bytes.toBytes("info"), Bytes.toBytes("age")))); } scanner.close(); table.close(); connection.close(); }}
相关阅读
-
苹果iOS 17.4 Beta版开放侧载功能,但iPad不在列
1月27日消息,苹果公司近日针对欧盟《数字市场法》作出了响应,上线了iOS 17.4 Beta版,向欧盟用户开放了侧载功能。然而,尽管iPadOS与iOS在本质上并无太大差异,但iPad并不支持侧载功能。这意味着,安装第三方应用商店以及从第
-
极氪20万台新能源汽车里程碑达成
1月8日消息,国内新能源汽车市场再传捷报。极氪汽车今日欣喜公布,经过26个月的不懈努力,其累计交付汽车数量已突破20万台大关。这一成就不仅彰显了极氪在新能源领域的强劲实力,更使其持续刷新着新势力品牌的最快交付纪录,同时保持着全球唯一的新能源
-
Win11系统intel核显控制面板怎么打开-打开intel核显控制面板的方法
你晓得吗?有些小伙伴想开自己电脑的intel核显控制面板来看显卡驱动信息。里面可以检查更新驱动。但是,他们不知道怎么开这个面板。如果也想试试看的话,可以看看下面的操作方法哦!打开intel核显控制面板的方法1. 右键桌面空白处,就能打开英特
-
win10怎么快速关闭屏幕?win10快速关闭屏幕方法
估计很多用 Win10 的人都会想要快速锁屏来保护个人隐私,但是也有人不知道怎么快速关掉屏幕。其实很简单,你可以直接按 Win + L 快捷键,或者右键点击桌面上的空白地方,然后选择快捷方式就可以啦。下面我们就来详细说一下 Win10 快速
-
极氪第二款MPV车型“CM2E”谍照曝光,或于2024年上半年亮相
1月17日消息,近日,知名汽车博主@SugarDesign在社交媒体上发布了极氪品牌旗下第二款MPV车型——内部代号“CM2E”的谍照。据推测,新车可能为小型MPV,有望于2024年上半年与大家正式见面。 从曝光的谍照中可以看出,极氪CM
-
Win11如何分区硬盘分区?win11磁盘怎么分区硬盘教程
很多用户都觉得系统自带的分区空间太小了,那Win11要怎么分硬盘啊?直接点开“此电脑”,然后点“管理”,再点“磁盘管理”就可以操作设置了。下面我们就来详细说说Win11怎么分硬盘吧!win11磁盘怎么分区硬盘教程1、首先右键“此电脑”,打开