《Hadoop实战手册》一1.11 利用Flume加载数据到HDFS中
本节书摘来异步社区《Hadoop实战手册》一书中的第1章,第1.11节,作者: 【美】Jonathan R. Owens , Jon Lentz , Brian Femiano 译者: 傅杰 , 赵磊 , 卢学裕 责编: 杨海玲,更多章节内容可以访问云栖社区“异步社区”公众号查看。 1.11 利用Flume加载数据到HDFS中 Apache Flume是Hadoop社区的一个项目,由多个相关项目组成,用于从不同的数据源可靠有效地加载数据流到HDFS中。Flume最常见的一个场景是加载多个数据源的网站日志数据。本节将介绍如何使用Flume加载数据到HDFS中。 准备工作在本节中假定你已经安装和配置好Flume。 Flume可以从Apache网页(http://incubator.apache.org/flume/)下载。 如果你使用的是CDH3,那么默认已经安装了Flume 0.9.4+25.43的版本。 操作步骤完成下面的步骤,实现将weblogs数据导入HDFS。 1.使用dump命令测试Flume是否配置正确: flume dump 'text("/path/to/weblog_e...