Hadoop单词统计
1. 本地创建文本文件
[root@s166 fantj]# mkdir input [root@s166 fantj]# cd input/ [root@s166 input]# echo "hello fantj" > file1.txt [root@s166 input]# echo "hello hadoop" > file2.txt [root@s166 input]# echo "hello mapreduce" > file3.txt [root@s166 input]# ls file1.txt file2.txt file3.txt
2. 将文件上传到hadoop
[root@s166 input]# hadoop fs -mkdir /wordcount [root@s166 input]# hadoop fs -ls / Found 1 items drwxr-xr-x - root supergroup 0 2018-07-27 07:51 /wordcount [root@s166 input]# cd .. [root@s166 fantj]# ls download hadoop input jdk [root@s166 fantj]# hadoop fs -put input/* /wordcount [root@s166 fantj]# hadoop fs -ls /wordcount Found 3 items -rw-r--r-- 3 root supergroup 12 2018-07-27 07:52 /wordcount/file1.txt -rw-r--r-- 3 root supergroup 13 2018-07-27 07:52 /wordcount/file2.txt -rw-r--r-- 3 root supergroup 16 2018-07-27 07:52 /wordcount/file3.txt
3. 启用hadoop自带单词统计进行处理
[root@s166 fantj]# cd /home/fantj/hadoop/share/hadoop/ [root@s166 hadoop]# ls common hdfs httpfs kms mapreduce tools yarn [root@s166 hadoop]# cd mapreduce/ [root@s166 mapreduce]# ls hadoop-mapreduce-client-app-2.7.0.jar hadoop-mapreduce-client-hs-plugins-2.7.0.jar hadoop-mapreduce-examples-2.7.0.jar hadoop-mapreduce-client-common-2.7.0.jar hadoop-mapreduce-client-jobclient-2.7.0.jar lib hadoop-mapreduce-client-core-2.7.0.jar hadoop-mapreduce-client-jobclient-2.7.0-tests.jar lib-examples hadoop-mapreduce-client-hs-2.7.0.jar hadoop-mapreduce-client-shuffle-2.7.0.jar sources [root@s166 mapreduce]# hadoop jar hadoop-mapreduce-examples-2.7.0.jar wordcount /wordcount /print
查看结果
[root@s166 mapreduce]# hadoop fs -ls /print Found 2 items -rw-r--r-- 3 root supergroup 0 2018-07-27 07:55 /print/_SUCCESS -rw-r--r-- 3 root supergroup 37 2018-07-27 07:55 /print/part-r-00000 [root@s166 mapreduce]# hadoop fs -cat /print/part-r-00000 fantj 1 hadoop 1 hello 3 mapreduce 1
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Hadoop所有命令详解
FS Shell 调用文件系统(FS)Shell命令应使用 bin/hadoop fs <args>的形式。 所有的的FS shell命令使用URI路径作为参数。URI格式是scheme://authority/path。对HDFS文件系统,scheme是hdfs,对本地文件系统,scheme是file。其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme。一个HDFS文件或目录比如/parent/child可以表示成hdfs://namenode:namenodeport/parent/child,或者更简单的/parent/child(假设你配置文件中的默认值是namenode:namenodeport)。大多数FS Shell命令的行为和对应的Unix Shell命令类似,不同之处会在下面介绍各命令使用详情时指出。出错信息会输出到stderr,其他信息输出到stdout。 cat 使用方法:hadoop fs -cat URI [URI …] 将路径指定文件的内容输出到stdout。 示例: hadoop fs -ca...
- 下一篇
Sqoop数据导入/导出
1. 从HDFS导出到RDBMS数据库 1.1 准备工作 写一个文件 sqoop_export.txt 1201,laojiao, manager,50000, TP 1202,fantj,preader,50000,TP 1203,jiao,dev,30000,AC 1204,laowang,dev,30000,AC 1205,laodu,admin,20000,TP 1206,laop,grp des,20000,GR 上传到hdfs:hadoop fs -put sqoop_export.txt /sqoop/export/ 创建mysql数据库并增加授权: create database sqoopdb; grant all privileges on sqoopdb.* to 'sqoop'@'%' identified by 'sqoop'; grant all privileges on sqoopdb.* to 'sqoop'@'localhost' identified by 'sqoop'; grant all privileges on sqoopdb.* to ...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- SpringBoot2更换Tomcat为Jetty,小型站点的福音
- CentOS8安装Docker,最新的服务器搭配容器使用
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
- 设置Eclipse缩进为4个空格,增强代码规范
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- CentOS8编译安装MySQL8.0.19
- SpringBoot2整合Redis,开启缓存,提高访问速度
- SpringBoot2配置默认Tomcat设置,开启更多高级功能