首页 文章 精选 留言 我的

精选列表

搜索[搭建],共10000篇文章
优秀的个人博客,低调大师

沫沫金 - ADT初始环境搭建问题清单

Eclipse ADT版jdk指定 1 2 3 4 5 //1、打开eclipse.ini //2、复制下面代码 -vm ./jdk6. 32 /jre/bin/client/jvm.dll //3、放到-vmargs之前(必须!) Android虚拟机创建经典问题 1、Failed to allocate memory: 1455 这个调整RAM值就可以(不要和发烧友一样整好几个G) 2、启动Android虚拟机失败:start Android panic could not... 需要配置ANDROID_SDK_HOME并加入Path中指定到sdk的绝对目录的tools目录 以上,谢谢。 跑起来了,最终效果收尾 本文转自 沫沫金 51CTO博客,原文链接:http://blog.51cto.com/zl0828/1732568,如需转载请自行联系原作者

优秀的个人博客,低调大师

做网站应该搭建哪些功能栏目管理模块?

中国的互联网在调整发展,带企业带来了巨大的网络营销市场与机遇。如果一家传统企业不再加入互联网营销的大潮,则很快会被老的市场运营模式淘汰。也要跟上互联网的发展节奏与市场,不能被互联网抛弃。想要加入互联网营销市场模式的第一个重要工作内容就是,建设一个属于自已公司的官方网站。企业有了一个自已的公司网站是启动网络营销的一个最基础的条件,也说明着开辟了一条全新的营销之路。那么在网站上面展示哪些内容,设计成哪种风格一般都会知道,但是开发哪些模块功能栏目呢?因为网站的功能模块栏目就是为了完成网站日常更新的工作的,所以这点也是很重要的,下面松一设计(www.songyi.net)给大家简单介绍几个常用常见的网站功能栏目管理模块。 一、模块管理系统不管是,产品,新闻,资讯,信息,案例,等其它相关信息内容。每个网站都会做到日常更新维护管理的工作。那么我们通常叫这种为模块开发,产品模块,新闻模块,案例模块等等,那么模块需要完成的工作就是,分类,列表,单个详细页面的添加,删除,修改工作实现。这样我们就可以管理网站的栏目信息内容日常更新了。 二、下载管理系统下载功能模块要单独说下,因为这个是双向的,因为可以前台下载相关资料,一般格式,PDF,.ZIP,.doc等相关格式文档资料。一般分为2种情况,在详细页有点击下载按钮,一种是在线查阅按钮模式,但是我一般建议还是在线阅读比较好,因为效率比较高,但是有个小的注意事项就是,上传的文档千万不要太大,一般不能超过10M。最好保持在2M以内的大小最为合适。 三、表单管理系统表单管理系统我想一般人对此应该并不陌生。就是在网站上面建立一个表单提交页面,用户可以访问网站时直接在前台提交留言给网站后台,有时会提交到邮箱,但是在这里有几点要说明下,就是不要全部填写项目都做上必填,这样客户比较反感,还有就是一定要加上验证码,因为很多木马文件都是通过表单上传到后台的。还有就是如果做到提交到邮箱的话,最好不要这样操作,因为有时因为页面编码的问题,可能会出现乱码,所以我一般还是建议客户提交到后台。 四、在线客服应用网站除了展示和应用功能部分之外,就是在线客服功能了,一般可以用QQ,或微信等相关及时聊天工具。为了方便客户在访问网站时第一时间联络上。还有一种就是及时聊天工具,我是很建议使用的,但是希望可以尽量使用付费的在线网页客服软件。因为反应速度比较好,稳定,信息管理储存比较方便。

优秀的个人博客,低调大师

Logstash+Elasticsearch+Kibana日志服务器搭建

官网https://www.elastic.co 软件版本: Logstash 2.2.0 All Plugins Elasticsearch 2.2.0 Kibana 4.4.0 说明:此环境Centos6.5 64位,单机做测试,具体配置从简。 1.Logstash安装配置 解压到/usr/local/logstash-2.2.0/ Logstash配置文件: vim /usr/local/logstash-2.2.0/etc/agent.conf input{ file{ path=>"/usr/local/nginx/logs/access.log" start_position=>beginning } } output{ elasticsearch{} stdout{} } logstash启动 nohup /usr/local/logstash-2.2.0/bin/logstash -f /usr/local/logstash-2.2.0/etc/agent.conf & 2.Elasticsearch安装配置 解压到/usr/local/elasticsearch-2.2.0/ Elasticsearch配置文件 vim /usr/local/elasticsearch-2.2.0/config/elasticsearch.yml #SetthebindaddresstoaspecificIP(IPv4orIPv6): # network.host:0.0.0.0 # #SetacustomportforHTTP: # http.port:9200 Elasticsearch启动(非root用户) /usr/local/elasticsearch-2.2.0/bin/elasticsearch -d 3.Kibana安装配置 解压到/usr/local/kibana-4.4.0-linux-x64/ Kibana配置文件 vim /usr/local/kibana-4.4.0-linux-x64/config/kibana.yml #Kibanaisservedbyabackendserver.Thiscontrolswhichporttouse. server.port:5601 #Thehosttobindtheserverto. server.host:"0.0.0.0" #Ifyouarerunningkibanabehindaproxy,andwanttomountitatapath, #specifythatpathhere.ThebasePathcan'tendinaslash. #server.basePath:"" #Themaximumpayloadsizeinbytesonincomingserverrequests. #server.maxPayloadBytes:1048576 #TheElasticsearchinstancetouseforallyourqueries. elasticsearch.url:"http://localhost:9200" Kibana启动 nohup /usr/local/kibana-4.4.0-linux-x64/bin/kibana & 浏览器访问 http://yourhost.com:5601 本文转自 ygqygq2 51CTO博客,原文链接:http://blog.51cto.com/ygqygq2/1741119,如需转载请自行联系原作者

优秀的个人博客,低调大师

CentOS7下快速搭建Docker私有库

1. 安装Docker yum -y install docker 2. 启动Docker服务 systemctl enable docker systemctl start docker 3. 启动Docker私有库 mkdir /home/docker_repo cd /home/docker_repo docker run -d -p 5000:5000 --name registry --restart=always --privileged=true -v $PWD:/var/lib/registry registry:2 4. 提交Docker镜像 docker tag docker.io/hello-world:latest 192.168.1.75:5000/hello-world:latest docker push 192.168.1.75:5000/hello-world 如果push遇到问题,编辑/usr/lib/systemd/system/docker.service,在ExecStart=之后追加一行参数: --insecure-registry=192.168.1.75:5000 \ 然后重启Docker服务: systemctl daemon-reload systemctl restart docker 5. Docker私有库HTTP API 测试库内已有centos和Docker官方的hello-world镜像 查看当前库列表http://192.168.1.75:5000/v2/_catalog 返回: { "repositories": [ "centos", "hello-world" ] } 查看某个库标签列表http://192.168.1.75:5000/v2/hello-world/tags/list 返回: { "name": "hello-world", "tags": [ "latest" ] } 注: 需要把192.168.1.75替换成你的Docker私有库所在服务器IP 本文转自 zl1030 51CTO博客,原文链接:http://blog.51cto.com/zl1030/2047891

优秀的个人博客,低调大师

使用aliyun镜像源下载镜像及仓库搭建

阿里云Docker镜像库 阿里云容器Hub服务:http://dev.aliyun.com/search.html 来自云端的容器Hub服务 高性能的本地Registry,提供上传、下载、构建及托管的全方位镜像服务。 并且为用户提供加速器,加速官方仓库的下载。加速器使用帮>助:http://console.d.aliyun.com/index2.html/?spm=0.0.0.0.Xx1dX0#/docker/booster 阿里云Hub服务管理后台:http://console.d.aliyun.com/index2.html/?>spm=0.0.0.0.MVZTDP#/docker/image/list 在这里开通容器Hub服务,就可以管理您自己的Docker仓库以及仓库镜像。 https://yq.aliyun.com/articles/29941 CentOS的配置方式略微复杂,需要先将默认的配置文件复制出来 /lib/systemd/system/docker.service -> /etc/systemd/system/docker.service 然后再将加速器地址添加到配置文件的启动命令 重启Docker就可以了。 servicedockerrestart 本文转自silence博客51CTO博客,原文链接http://blog.51cto.com/silencezone/1851490如需转载请自行联系原作者 a120518129

优秀的个人博客,低调大师

利用GAE+RestEasy搭建Web Service---前言

l什么是GAE GAE全称是GoogleAppEngine。我个人的理解是google提供的web服务。就像是windows里边的IIS,可供你发布网站。现在有很多人基于他做了应用。比如说论坛,博客,web服务等等。同时,它还提供了其他的服务,比如数据存储,等等附带产品。基本上是免费得,无论是从流量上,还是存储空间上,都能够满足一般用户。具体数据,你可以参考google 官方介绍。这里就不多说了。先支持 java 和physon两种开发语言。Google在2011年全球最具价值品牌排行榜中排行第一,其次依次为苹果和微软,服务是相当有保障的。这里是官方中文文档http://code.google.com/intl/zh-CN/appengine/。 l什么是REST REST是一种web 服务的架构风格。你可能理解基于soap协议的webservice。Soap协议本身十分强大,支持 很多操作,服务端和客户端对于数据之间的传递与转换不用过多关心。而REST是在soap协议的webservice提出来的新的一种构建webservice的架构风格。该REST并不是一中标准,而是一种架构风格。该设计以面向资源为设计理念,通用利用we的80端口进行通信,这一点和soap协议的webservice是相同的,这是毫无疑问的。传统的webservice大多采用GET或者POST方式提交传输数据,它是面向消息的,也就是说发送的是我要调用哪个的方法,参数是什么。而REST请求的对象是统一的,都是资源,利用URI来标识。利用HTTP协议的不同的请求消息的方法,来进行数据库操作。比如 GET,POST,PUT,DELETE对应数据库的查,增加,更新,删除。这个思想也符合原有HTTP协议的制定者对该请求方法的设计初衷,避免了一些常见的网络GET请求对资源做出修改等问题。有关REST的详细内容你可以从官网了解到更多东西。上边是我的个人理解。 l什么是RESTEasy 简单说来,RESTEasy是一个框架,也就是堆Library.使用它,再结合java 6 本身对REST的批注支持,可以方便的实现 REST风格的webservice。在该篇文章我也提到股一下关于RESTEasy。没错,构建REST 有好几种框架,我最初选择的是Restlet,因为他的资格比较老,应该是最稳定的。结果整了几天没整好。然后了解的RESTEasy相对Restlet容易一点,就换成了RESTEasy。其实问题一样有,当时是环境问题。关于 这个环境问题,我已经在个人博客中 很无语的吐槽了一下,如果你有兴趣,欢迎来捧场。记住,选择框架或者软件的时候,特别是代码相关的,不要贪图最新版本。至少,用最新的出问题了,及时想到使用其他版本试一试。原因应该大家都清楚。 接下来进入 编码与发布。 本文转自HDDevTeam 51CTO博客,原文链接:http://blog.51cto.com/hddev/662604,如需转载请自行联系原作者

优秀的个人博客,低调大师

windows 基于docker下的 spark 开发环境搭建

docker toolbox https://www.docker.com/products/docker-toolbox spark https://hub.docker.com/r/singularities/spark/~/dockerfile/ # start-hadoop-namenode # hadoop fs -mkdir /user # hadoop fs -mkdir /user/root/ # hadoop fs -put ./README.md /user/root # start-spark # start-spark worker [master] # spark-shell # spark-shell --master spark://a60b8c8f9653:7077 scala> val lines = sc.textFile("file:///usr/local/spark-2.1.0/README.md") scala> val lines = sc.textFile("hdfs:///usr/local/spark-2.1.0/README.md") lines: org.apache.spark.rdd.RDD[String] = file:///usr/local/spark-2.1.0/README.md MapPartitionsRDD[1] at textFile at <console>:24 scala> lines.count() res0: Long = 104 scala> lines.saveAsTextFile("hdfs:///user/root/README2.md") // 保存到hdfs 本文转自 拖鞋崽 51CTO博客,原文链接:http://blog.51cto.com/1992mrwang/1895904

优秀的个人博客,低调大师

0基础搭建Hadoop大数据处理-初识

在互联网的世界中数据都是以TB、PB的数量级来增加的,特别是像BAT光每天的日志文件一个盘都不够,更何况是还要基于这些数据进行分析挖掘,更甚者还要实时进行数据分析,学习,如双十一淘宝的交易量的实时展示。 大数据什么叫大?4个特征: 体量化 Volume,就是量大。 多样化 Variety,可能是结构型的数据,也可能是非结构行的文本,图片,视频,语音,日志,邮件等 快速化 Velocity,产生快,处理也需要快。 价值密度低 Value,数据量大,但单个数据没什么意义,需要宏观的统计体现其隐藏的价值。 可以看出想只要一台强大的服务器来实时处理这种体量的数据那是不可能的,而且成本昂贵,代价相当大,普通的关系型数据库也随着数据量的增大其处理时间也随之增加,那客户是不可能忍受的,所以我们需要Hadoop来解决此问题。 优点: Hadoop是一个能够让用户轻松架构和使用的分布式计算平台。用户可以轻松地在Hadoop上开发和运行处理海量数据的应用程序。它主要有以下几个优点: 高可靠性。Hadoop按位存储和处理数据的能力值得人们信赖。 高扩展性。Hadoop是在可用的计算机集簇间分配数据并完成计算任务的,这些集簇可以方便地扩展到数以千计的节点中。 高效性。Hadoop能够在节点之间动态地移动数据,并保证各个节点的动态平衡,因此处理速度非常快。 高容错性。Hadoop能够自动保存数据的多个副本,并且能够自动将失败的任务重新分配。 低成本。与一体机、商用数据仓库以及QlikView、Yonghong Z-Suite等数据集市相比,hadoop是开源的,项目的软件成本因此会大大降低。 Hadoop得以在大数据处理应用中广泛应用得益于其自身在数据提取、变形和加载(ETL)方面上的天然优势。Hadoop的分布式架构,将大数据处理引擎尽可能的靠近存储,对例如像ETL这样的批处理操作相对合适,因为类似这样操作的批处理结果可以直接走向存储。Hadoop的MapReduce功能实现了将单个任务打碎,并将碎片任务(Map)发送到多个节点上,之后再以单个数据集的形式加载(Reduce)到数据仓库里。 Hadoop在各应用中是最底层,最基础的组件,所以其重要性不言而喻。 框架结构 Hadoop主要由HDFS ( 分布式文件系统)和MapReduce (并行计算框架)组成。 Hadoop 由许多元素构成。其最底部是 Hadoop Distributed File System(HDFS),它存储 Hadoop 集群中所有存储节点上的文件。HDFS(对于本文)的上一层是MapReduce引擎,该引擎由 JobTrackers 和 TaskTrackers 组成。通过对Hadoop分布式计算平台最核心的分布式文件系统HDFS、MapReduce处理过程,以及数据仓库工具Hive和分布式数据库Hbase的介绍,基本涵盖了Hadoop分布式平台的所有技术核心。 HDFS 对外部客户机而言,HDFS就像一个传统的分级文件系统。可以创建、删除、移动或重命名文件,等等。但是 HDFS 的架构是基于一组特定的节点构建的,这是由它自身的特点决定的。这些节点包括 NameNode(仅一个),它在 HDFS 内部提供元数据服务;DataNode,它为 HDFS 提供存储块。由于仅存在一个 NameNode,因此这是 HDFS 的一个缺点(单点失败)。 存储在 HDFS 中的文件被分成块,然后将这些块复制到多个计算机中(DataNode)。这与传统的 RAID 架构大不相同。块的大小(通常为 64MB)和复制的块数量在创建文件时由客户机决定。NameNode 可以控制所有文件操作。HDFS 内部的所有通信都基于标准的TCP/IP协议。 单节点物理结构 主从结构 主节点,只有一个: namenode 从节点,有很多个: datanodes namenode负责:接收用户操作请求 、维护文件系统的目录结构、管理文件与block之间关系,block与datanode之间关系 NameNode 是一个通常在HDFS实例中的单独机器上运行的软件。它负责管理文件系统名称空间和控制外部客户机的访问。 datanode负责:存储文件文件被分成block存储在磁盘上、为保证数据安全,文件会有多个副本 MapReduce MapReduce是处理大量半结构化数据集合的编程模型。编程模型是一种处理并结构化特定问题的方式。例如,在一个关系数据库中,使用一种集合语言执行查询,如SQL。告诉语言想要的结果,并将它提交给系统来计算出如何产生计算。还可以用更传统的语言(C++,Java),一步步地来解决问题。这是两种不同的编程模型,MapReduce就是另外一种。 MapReduce和Hadoop是相互独立的,实际上又能相互配合工作得很好。 主从结构 主节点,只有一个: JobTracker 从节点,有很多个: TaskTrackers JobTracker负责:接收客户提交的计算任务、把计算任务分给TaskTrackers执行、监控TaskTracker的执行情况 TaskTrackers负责:执行JobTracker分配的计算任务 Hadoop能做什么? 大数据量存储:分布式存储 日志处理: Hadoop擅长这个 海量计算: 并行计算 ETL:数据抽取到oracle、mysql、DB2、mongdb及主流数据库 使用HBase做数据分析: 用扩展性应对大量的写操作—Facebook构建了基于HBase的实时数据分析系统 机器学习: 比如Apache Mahout项目 搜索引擎:hadoop + lucene实现 数据挖掘:目前比较流行的广告推荐 大量地从文件中顺序读。HDFS对顺序读进行了优化,代价是对于随机的访问负载较高。 数据支持一次写入,多次读取。对于已经形成的数据的更新不支持。 数据不进行本地缓存(文件很大,且顺序读没有局部性) 任何一台服务器都有可能失效,需要通过大量的数据复制使得性能不会受到大的影响。 用户细分特征建模 个性化广告推荐 智能仪器推荐 扩展 实际应用: Hadoop+HBase建立NoSQL分布式数据库应用 Flume+Hadoop+Hive建立离线日志分析系统 Flume+Logstash+Kafka+Spark Streaming进行实时日志处理分析 酷狗音乐的大数据平台 京东的智能供应链预测系统 Hadoop的学习不仅仅是学习Hadoop,还要学习Linux,网络知识,Java、还有数据结构和算法等等,所以万里长征才开始第一步,希望Hadoop学习不是从了解到放弃。 本文转自欢醉博客园博客,原文链接http://www.cnblogs.com/zhangs1986/p/6528227.html如需转载请自行联系原作者 欢醉

优秀的个人博客,低调大师

Hadoop2.6.0伪分布式集群搭建

应用场景 在研究hadoop的过程中,当然需要部署hadoop集群,如果想要在本地简单试用hadoop,并且没有那么多服务器供你使用,那么伪分布式hadoop环境绝对是你最好的选择。 操作步骤 1. 安装JDK 1.1 查看是否安装了openjdk # java -version openjdk version "1.8.0_65" OpenJDK Runtime Environment (build 1.8.0_65-b17) OpenJDK 64-Bit Server VM (build 25.65-b01, mixed mode) 1.2 查看openjdk源 # rpm -qa | grep java java-1.7.0-openjdk-1.7.0.91-2.6.2.3.el7.x86_64 tzdata-java-2015g-1.el7.noarch python-javapackages-3.4.1-11.el7.noarch javapackages-tools-3.4.1-11.el7.noarch java-1.8.0-openjdk-headless-1.8.0.65-3.b17.el7.x86_64 java-1.8.0-openjdk-1.8.0.65-3.b17.el7.x86_64 java-1.7.0-openjdk-headless-1.7.0.91-2.6.2.3.el7.x86_64 1.3 依次删除openjdk # rpm -e --nodeps java-1.7.0-openjdk-1.7.0.91-2.6.2.3.el7.x86_64 # rpm -e --nodeps tzdata-java-2015g-1.el7.noarch # rpm -e --nodeps java-1.8.0-openjdk-headless-1.8.0.65-3.b17.el7.x86_64 # rpm -e --nodeps java-1.8.0-openjdk-1.8.0.65-3.b17.el7.x86_64 # rpm -e --nodeps java-1.7.0-openjdk-headless-1.7.0.91-2.6.2.3.el7.x86_64 1.4 重新下载jdk 将下载JDK的后缀为.tar.gz,上传到linux上,解压缩至/opt路径下 jdk下载地址 1.5 配置JDK环境变量 # vim /etc/profile JAVA_HOME=/opt/jdk1.7.0_79 JRE_HOME=/opt/jdk1.7.0_79/jre CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib:$CLASSPATH PATH=$JAVA_HOME/bin:$PATH 1.6 使变量生效 # source /etc/profile 2. SSH免秘钥登录 2.1 正常登陆,节点跳转ssh,需要输入用户名密码,每次都需要输入,很麻烦,需要设置成免密码登录 # ssh localhost The authenticity of host 'localhost (::1)' can't be established. ECDSA key fingerprint is 7b:10:e3:b5:ea:7d:29:be:77:83:1c:c0:1d:85:de:ba. Are you sure you want to continue connecting (yes/no)? yes Warning: Permanently added 'localhost' (ECDSA) to the list of known hosts. [root@localhost's password: Last login: Sat Apr 2 22:32:44 2016 2.2 配置免密码登录 # cd ~/.ssh/ #若没有该目录,请先执行一次 # ssh localhost # ssh-keygen -t rsa #会有提示,都按回车就可以 # cat id_rsa.pub >> authorized_keys # chmod 600 ./authorized_keys # 加入授权 2.3 再次登录,可免秘钥 # ssh localhost Last login: Sat Apr 2 22:51:41 2016 from localhost 3. 安装Hadoop 3.1 解压Hadoop至/opt路径下 下载hadoop2.6.0 下载hadoop其他版本 3.2 配置Hadoop环境变量 # vim /etc/profile export JAVA_HOME=/opt/jdk1.7.0_79 export HADOOP_HOME=/opt/hadoop-2.6.0 export HADOOP_PREFIX=/opt/hadoop-2.6.0 export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin 3.3 使变量生效 # source /etc/profile 3.4 修改hadoop-env.sh # cd /opt/hadoop-2.6.0 # 进入hadoop目录,修改hadoop-env.sh,添加JAVA_HOME路径 # vim etc/hadoop/hadoop-env.sh export JAVA_HOME=/opt/jdk1.7.0_79 # bin/hadoop # 执行hadoop指令,测试 3.5 配置HDFS 3.5.1 编辑core-site.xml # vim /opt/hadoop-2.6.0/etc/hadoop/core-site.xml <configuration> <property> <name>hadoop.tmp.dir</name> <value>file:/opt/hadoop-2.6.0/tmp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://192.168.208.110:9000</value> </property> </configuration> 3.5.2 编辑hdfs-site.xml # vim /opt/hadoop-2.6.0/etc/hadoop/hdfs-site.xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/opt/hadoop-2.6.0/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/opt/hadoop-2.6.0/tmp/dfs/data</value> </property> <property> <name>dfs.permissions.enabled</name> <value>false</value> </property> </configuration> 3.5.3 格式化 [root@hadoop hadoop-2.6.0]# hdfs namenode -format 省略N行 16/04/02 22:54:15 INFO common.Storage: Storage directory /tmp/hadoop-root/dfs/name has been successfully formatted. /************************************************************ SHUTDOWN_MSG: Shutting down NameNode at bogon/221.192.153.42 ************************************************************/ 3.5.4 开启HDFS # start-dfs.sh 访问http://localhost:50070 3.5.5 HDFS简单使用案例 # hdfs dfs -mkdir /user # hdfs dfs -mkdir /user/lei # hdfs dfs -put etc/hadoop input # 如果出现没有input错误 put: `input': No such file or directory # bin/hadoop fs -mkdir -p input # 手动创建 # hdfs dfs -put etc/hadoop input # hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar grep input output 'dfs[a-z.]+' # hdfs dfs -ls / #查看文件 DEPRECATED: Use of this script to execute hdfs command is deprecated. Instead use the hdfs command for it. Found 2 items drwxr-xr-x - root supergroup 0 2016-04-02 23:39 input drwxr-xr-x - root supergroup 0 2016-04-02 23:43 output 3.6 YARN配置 3.6.1 配置mapred-site.xml # cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml # vim /opt/hadoop-2.6.0/etc/hadoop/mapred-site.xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapred.job.tracker</name> <value>192.168.208.110:10020</value> </property> </configuration> 3.6.2 配置yarn-site.xml # vim /opt/hadoop-2.6.0/etc/hadoop/yarn-site.xml <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration> 3.6.3 启动YARN # start-yarn.sh 访问http://localhost:8088

优秀的个人博客,低调大师

redhat 6.4 虚拟化平台搭建千万PV架构

前段通过HAproxy做反向代理,实现内部网站数据的访问 内部使用varnish做缓存服务器实现动静分离,将动态数据负载到2台tomcat,静态数据代理到nginx服务器处理 对于2台tomcat服务器实现基于session的共享集群 tomcat服务器的数据存储到mysql集群中 nginx用于处理静态文件,反代用户图片的请求道MFS 架构集群运行在redhat 6.4 企业版 KVM虚拟化平台上 本文转自潘阔 51CTO博客,原文链接:http://blog.51cto.com/pankuo/1630271,如需转载请自行联系原作者

资源下载

更多资源
优质分享App

优质分享App

近一个月的开发和优化,本站点的第一个app全新上线。该app采用极致压缩,本体才4.36MB。系统里面做了大量数据访问、缓存优化。方便用户在手机上查看文章。后续会推出HarmonyOS的适配版本。

腾讯云软件源

腾讯云软件源

为解决软件依赖安装时官方源访问速度慢的问题,腾讯云为一些软件搭建了缓存服务。您可以通过使用腾讯云软件源站来提升依赖包的安装速度。为了方便用户自由搭建服务架构,目前腾讯云软件源站支持公网访问和内网访问。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。

Sublime Text

Sublime Text

Sublime Text具有漂亮的用户界面和强大的功能,例如代码缩略图,Python的插件,代码段等。还可自定义键绑定,菜单和工具栏。Sublime Text 的主要功能包括:拼写检查,书签,完整的 Python API , Goto 功能,即时项目切换,多选择,多窗口等等。Sublime Text 是一个跨平台的编辑器,同时支持Windows、Linux、Mac OS X等操作系统。

用户登录
用户注册