首页 文章 精选 留言 我的
优秀的个人博客,低调大师

微信关注我们

原文链接:https://yq.aliyun.com/articles/460655

转载内容版权归作者及来源网站所有!

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

Hadoop HDFS中的数据块和Map任务的分片

HDFS的数据块 磁盘数据块是磁盘进行数据读/写的最小单位,一般是512字节, 而HDFS中也有数据块,默认为64MB。所以HDFS上的大文件被分为许多个chunk.而HDFS上的小文件(小于64MB)的文件不会占据整个块的空间。 HDFS数据块设置大的原因是减少寻址开销,数据备份也是以块为单位的。 用hadoop fsck / -files -blocks 命令可以检查HDFS根目录(/)下所有文件,块的健康状况: Map任务的分片: 为什么推荐Map任务的分片尺寸和HDFS基本块的大小一致为最佳呢? 因为有3个因素: a.map任务数=输入文件总大小/分片尺寸,所以分片越大,map任务数越少,从而系统执行开销越小。 b.管理分片的开销:显然是分片越大,则分片数量越少,越容易管理。 从a,b因素来看,貌似是分片越大越好。 c.网络传输开销 但是,如果分片太大以至于一个分片要跨越多个HDFS块,则一个map任务必须要由多个块通过网络传输,所以分片大小的上限是HDFS块的大小。 综上所述,map任务时的分片大小设置为HDFS块的大小是最佳选择。 本文转自 charles_wang8...

HiveQL的一些技巧

随机抽样 有的时候我们需要从一张大表中随机抽取一定量的样本供分析,Hive中提供了一个rand()函数,我们就利用这个来实现随机抽样。 思路如下: 对于表中每行均附加一个随机的整数,然后再以该整数进行orderBy即可得。 例如下面这个 selectvt.user_nick,vt.vidxfrom( selectuser_nick,cast(rand()*100000asint)asvidx froms_mc_xcard_userwherept='20120808000000' orderbyvidxlimit10000 )vtorderbyvt.vidxlimit100 处理复杂的数据结构 如果我们希望将复杂的数据结构存储在Hive表中,可以使用Json字符串这种东东来承载。Hive中提供了一个get_json_object的函数供json解析;这个函数里面的第二个参数比较令人费解,不过官方文档还算是清楚。 另外hive还提供了array,struct, map等数据结构,貌似目前功能很少,不建议使用。 行列转置 比如有一张这样的表: uid int mydata array 1...

相关文章

发表评论

资源下载

更多资源
Mario

Mario

马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。

腾讯云软件源

腾讯云软件源

为解决软件依赖安装时官方源访问速度慢的问题,腾讯云为一些软件搭建了缓存服务。您可以通过使用腾讯云软件源站来提升依赖包的安装速度。为了方便用户自由搭建服务架构,目前腾讯云软件源站支持公网访问和内网访问。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。

用户登录
用户注册