好程序员大数据学习路线分享Scala系列之映射Map
好程序员大数据学习路线分享Scala系列之映射Map首先我们先来看一下什么是映射(map)
在Scala中,把哈希表这种数据结构叫做映射。
- 构建映射
在Scala中,有两种Map,一个是immutable包下的Map,该Map中的内容不可变;另一个是mutable包下的Map,该Map中的内容可变。
构建一个不可变的map
使用元组方式构建
构建一个可变的map
- 获取和修改映射中的值
根据键获取map中对应的值,可以有以下三种方法,尤其推荐使用getOrElse方法。
修改可变map信息,遍历访问map
object MappingDemo {
def main(args: Array[String]): Unit = {
//定义构建一个可变的map
val scores = scala.collection.mutable.Map ("zhangsan" -> 90, "lisi" -> 80, "wangwu" -> 0)
//val scores2 = scala.collection.mutable.Map ("moumou"->50)
//修改map中对应键的值
scores("wangwu") = 100
//添加新的键值到map中
scores("zhaoliu") = 50 //类似 scores.update("zhangsan",50)
scores += ("sunqi" -> 60, "qianba" -> 99)
//scores ++ =scores2
//移除某个键值对
scores -= "zhangsan" //类似 scores.remove("zhangsan")
//scores -- =scores2 不好用???
//获取键的集合并遍历
//意义不大?如何通过建取到值
val res = scores.keySet
for(elem <- res)
print(elem + " ")
println()
//遍历map
for ((k,v) <- scores)
print(k+":"+v+" ")
}
执行结果
- HashMap
可变map
import scala.collection.mutable
object MutMapDemo extends App{
val map1 = new mutable.HashMap[String, Int]()
//向map中添加数据
map1("spark") = 1
map1 += (("hadoop", 2))
map1.put("storm", 3)
println(map1)
//从map中移除元素
map1 -= "spark"
map1.remove("hadoop")
println(map1)
}

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
X-Pack Spark 监控指标详解
概述 本文主要介绍X-Pack Spark集群监控指标的查看方法。Spark集群对接了Ganglia和云监控。下面分别介绍两者的使用方法。 Ganglia Ganglia是一个分布式监控系统。 Ganglia 入口 打开Spark集群依次进入:数据库连接>UI访问>详细监控UI>Ganglia。如下图:注意:打开之前请先阅读UI访问说明。 Ganglia 界面介绍 本只做常用的介绍。如下图: 导航栏选择不同的功能查看,本文主要介绍常用的“Main” 时间选择选择查看不同的时间段的资源使用情况。 统计信息统计信息主要列出集群的资源总体使用情况。每个字段解释如下表: 名称 解释 CPUs Total 集群的CPU总数 Hosts up 集群的总节点数:正在运行的节点 Hosts down 集群的总节点数:停止运行的节点 Current Load Avg
-
下一篇
Apache Zepplin使用Hive Interpreter查询
1.Hadoop a).配置core-site.xml hadoop文件core-site.xml中配置信息如下,重启HDFS <property> <name>hadoop.proxyuser.hadoop.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.hadoop.groups</name> <value>*</value> </property> b).启停HDFS ## 启动HDFS ./hadoop/sbin/start-dfs.sh ## 停止HDFS ./hadoop/sbin/stop-dfs.sh c).HDFS退出安全模式 ./hadoop/bin/hdfs dfsadmin -safemode leave 2.Hive a).配置hive-site.xml 修改hive-site.xml中thrift相关配置项 ## ...
相关文章
文章评论
共有0条评论来说两句吧...