Kafka实战:从RDBMS到Hadoop,七步实现实时传输
本文是关于Flume成功应用Kafka的研究案例,深入剖析它是如何将RDBMS实时数据流导入到HDFS的Hive表中。 对于那些想要把数据快速摄取到Hadoop中的企业来讲,Kafka是一个很好的选择。Kafka是什么?Kafka是一个分布式、可伸缩、可信赖的消息传递系统,利用发布-订阅模型来集成应用程序/数据流。同时,Kafka还是Hadoop技术堆栈中的关键组件,能够很好地支持实时数据分析或者货币化的物联网数据。 本文服务于技术人群。下面就图解Kafka是如何把数据流从RDBMS(关系数据库管理系统)导入Hive,同时借助一个实时分析用例加以说明。作为参考,本文中使用的组件版本分别为Hive 1.2.1,Flume 1.6 以及 Kafka 0.9。 Kafka所在位置:解决方案的整体结构 下图显示了解决方案的整体结构: Kafka 和 Flume 的结合,再加上Hive的交易功能,RDBMS的交易数据被成功传递到目标 Hive 表中。 七步实现Hadoop实时数据导入 现在让我们深入方案细节,并展示如何在几个步骤内将数据流导入Hadoop。 1.从RDBMS中提取数据 所有关系型...