首页 文章 精选 留言 我的

精选列表

搜索[学习],共10000篇文章
优秀的个人博客,低调大师

Hadoop HDFS概念学习系列之两个和HDFS读写操作最为密切的Hadoop包(二十)

是org.apache.hadoop.fs和org.apache.hadoop.conf。 fs包主要是文件系统的抽象,可以理解为支持多种文件系统实现的统一文件访问接口; conf用于读conf包,就是读取系统配置,它依赖于fs包,主要是在读取配置文件的时候需要使用文件系统,而部分文件系统的功能在fs包中被抽象了。 本文转自大数据躺过的坑博客园博客,原文链接:http://www.cnblogs.com/zlslch/p/5453259.html,如需转载请自行联系原作者

优秀的个人博客,低调大师

Hadoop HDFS概念学习系列之名字节点和第二名字节点(十三)

名字节点(NameNode )是HDFS主从结构中主节点上运行的主要进程,它指导主从结构中的从节点,数据节点(DataNode)执行底层的I/O任务。 名字节点是HDFS的书记员,维护着整个文件系统的文件目录树,文件/目录的元信息和文件的数据块索引,即每个文件对应的数据块列表(后面的讨论中,上述关系也称名字节点第一关系)。这些信息、以两种形式存储在本地文件系统中:一种是命名空间镜像(File SystemImage, FSImage,也称文件系统镜像),另一种是命名空间镜像的编辑日志(Edit Log) 。 命名空间镜像保存着某一特定时刻HDFS的目录树、元信息和数据块索引等信息,后续对这些信息的改动,则保存在编辑日志中,它们一起提供了一个完整的名字节点第一关系。 同时,通过名字节点,客户端还可以了解到数据块所在的数据节点信息。需要注意的是,名字节点中与数据节点相关的信息不保留在名字节点的本地文件系统中,也就是上面提到的命名空间镜像和编辑日志中,名字节点每次启动时,都会动态地重建这些信息,这些信息构成了名字节点第二关系。运行时,客户端通过名宇节点获取上述信息,然后和数据节点进行交互,读写文件数据。 另外,名字节点还能获取HDFS整体运行状态的一些信息,如系统的可用空间、己经使用的空间、各数据节点的当前状态等。 第二名字节点(Secondary NameNode, SNN)是用于定期合并命名空间镜像和镜像编辑日志的辅助守护进程。和名字节点一样,每个集群都有一个第二名字节点,在大规模部署的条件下,一般第二名字节点也独自占用一台服务器。 第二名字节点和名字节点的区别在于: 它不接收或记录HDFS的任何实时变化,而只是根据集群配置的时问间隔,不停地获取HDFS某一个时间点的命名空间镜像和镜像的编辑日志,合并得到一个新的命名空间镜像。该新镜像会上传到名字节点,替换原有的命名空间镜像,并清空上述日志。应该说,第二名字节点配合名字节点,为名字节点上的名字节点第一关系提供了一个简单的检查点(Checkpoint)机制,并避免出现编辑日志过大,导致名字节点启动时间过长的问题。 如前面所述,名字节点是 HDFS集群中的单一故障点,通过第二名字节点的检查点,可以减少停机的时间并减低名字节点元数据丢失的风险。但是,第二名字节点不支持名字节点的故障白动恢复,名字节点失效处理需要人工干预。 本文转自大数据躺过的坑博客园博客,原文链接:http://www.cnblogs.com/zlslch/p/5089148.html,如需转载请自行联系原作者

优秀的个人博客,低调大师

Hadoop概念学习系列之Java调用Shell命令和脚本,致力于hadoop/spark集群(三十六)

前言 说明的是,本博文,是在以下的博文基础上,立足于它们,致力于我的大数据领域! http://kongcodecenter.iteye.com/blog/1231177 http://blog.csdn.net/u010376788/article/details/51337312 http://blog.csdn.net/arkblue/article/details/7897396 第一种:普通做法 首先,编号写WordCount.scala程序。 然后,打成jar包,命名为WC.jar。比如,我这里,是导出到windows桌面。 其次,上传到linux的桌面,再移动到hdfs的/目录。 最后,在spark安装目录的bin下,执行 spark-submit \ > --class cn.spark.study.core.WordCount \ > --master local[1] \ > /home/spark/Desktop/WC.jar \ > hdfs://SparkSingleNode:9000/spark.txt \ > hdfs://SparkSingleNode:9000/WCout 第二种:高级做法 有时候我们在Linux中运行Java程序时,需要调用一些Shell命令和脚本。而Runtime.getRuntime().exec()方法给我们提供了这个功能,而且Runtime.getRuntime()给我们提供了以下几种exec()方法: 不多说,直接进入。 步骤一: 为了规范起见,命名为JavaShellUtil.java。在本地里写好 import java.io.BufferedReader; import java.io.IOException; import java.io.InputStream; import java.io.InputStreamReader; import java.util.ArrayList; import java.util.List; public class JavaShellUtil { public static void main(String[] args) throws Exception { String cmd="hdfs://SparkSingleNode:9000/spark.txt"; InputStream in = null; try { Process pro =Runtime.getRuntime().exec("sh /home/spark/test.sh "+cmd); pro.waitFor(); in = pro.getInputStream(); BufferedReader read = new BufferedReader(new InputStreamReader(in)); String result = read.readLine(); System.out.println("INFO:"+result); } catch (Exception e) { e.printStackTrace(); } } } package cn.spark.study.core import org.apache.spark.SparkConf import org.apache.spark.SparkContext /** * @author Administrator */ object WordCount { def main(args: Array[String]) { if(args.length < 2){ println("argument must at least 2") System.exit(1) } val conf = new SparkConf() .setAppName("WordCount") // .setMaster("local");//local就是 不是分布式的文件,即windows下和linux下 val sc = new SparkContext(conf) val inputPath=args(0) val outputPath=args(1) val lines = sc.textFile(inputPath, 1) val words = lines.flatMap { line => line.split(" ") } val pairs = words.map { word => (word, 1) } val wordCounts = pairs.reduceByKey { _ + _ } wordCounts.collect().foreach(println) wordCounts.repartition(1).saveAsTextFile(outputPath) } } 步骤二:编写好test.sh脚本 spark@SparkSingleNode:~$ cat test.sh #!/bin/sh /usr/local/spark/spark-1.5.2-bin-hadoop2.6/bin/spark-submit \ --class cn.spark.study.core.WordCount \ --master local[1] \ /home/spark/Desktop/WC.jar \ $1 hdfs://SparkSingleNode:9000/WCout 步骤三:上传JavaShellUtil.java,和打包好的WC.jar spark@SparkSingleNode:~$ pwd /home/spark spark@SparkSingleNode:~$ ls Desktop Downloads Pictures Templates Videos Documents Music Public test.sh spark@SparkSingleNode:~$ cd Desktop/ spark@SparkSingleNode:~/Desktop$ ls JavaShellUtil.java WC.jar spark@SparkSingleNode:~/Desktop$ javac JavaShellUtil.java spark@SparkSingleNode:~/Desktop$ java JavaShellUtil INFO:(hadoop,1) spark@SparkSingleNode:~/Desktop$ cd /usr/local/hadoop/hadoop-2.6.0/ 步骤四:查看输出结果 spark@SparkSingleNode:/usr/local/hadoop/hadoop-2.6.0$ bin/hadoop fs -cat /WCout/par* (hadoop,1) (hello,5) (storm,1) (spark,1) (hive,1) (hbase,1) spark@SparkSingleNode:/usr/local/hadoop/hadoop-2.6.0$ 成功! 关于 Shell 传递参数 见 http://www.runoob.com/linux/linux-shell-passing-arguments.html 最后说的是,不局限于此,可以穿插在以后我们生产业务里的。作为调用它即可,非常实用! 本文转自大数据躺过的坑博客园博客,原文链接:http://www.cnblogs.com/zlslch/p/6055518.html,如需转载请自行联系原作者

优秀的个人博客,低调大师

一脸懵逼加从入门到绝望学习hadoop之Caused by: java.net.UnknownHostException: master报错

windows下开发hadoop应用程序,hadoop部署在linux环境中, 在运行调试时可能会出现无法找到主机,类似异常信息如下: java.net.UnknownHostException: unknown host: master 解决办法如下: 在C:\WINDOWS\system32\drivers\etc\hosts文件中添加如下信息: 192.168.0.55 master 即把自己的虚拟机的ip地址和对应的虚拟机主机名添加一下,解决java.net.UnknownHostException: unknown host: master这个问题 停更......

资源下载

更多资源
优质分享App

优质分享App

近一个月的开发和优化,本站点的第一个app全新上线。该app采用极致压缩,本体才4.36MB。系统里面做了大量数据访问、缓存优化。方便用户在手机上查看文章。后续会推出HarmonyOS的适配版本。

Mario

Mario

马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。

Nacos

Nacos

Nacos /nɑ:kəʊs/ 是 Dynamic Naming and Configuration Service 的首字母简称,一个易于构建 AI Agent 应用的动态服务发现、配置管理和AI智能体管理平台。Nacos 致力于帮助您发现、配置和管理微服务及AI智能体应用。Nacos 提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据、流量管理。Nacos 帮助您更敏捷和容易地构建、交付和管理微服务平台。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。

用户登录
用户注册