首页 文章 精选 留言 我的

精选列表

搜索[伪集群],共10007篇文章
优秀的个人博客,低调大师

Nginx核心教程之Nginx Rewrite语法规则和静态规则详解

文件及目录匹配: -f 和 !-f 用来判断是否存在文件 -d 和 !-d 用来判断是否存在目录 -e 和 !-e 用来判断是否存在文件或目录 -x 和 !-x 用来判断文件是否可执行 正则表达式匹配: * ~ 为区分大小写匹配 * ~* 为不区分大小写匹配 * !~和!~*分别为区分大小写不匹配及不区分大小写不匹配 flag标记有: last 相当于Apache里的[L]标记,表示完成 rewrite break 终止匹配, 不再匹配后面的规则 redirect 返回302临时重定向 地址栏会显示跳转后的地址 permanent 返回301永久重定向 地址栏会显示跳转后的地址 一些可用的全局变量有,可以用做条件判断: ​ $args $content_length $content_type $document_root $document_uri $host $http_user_agent $http_cookie $limit_rate $request_body_file $request_method $remote_addr $remote_port $remote_user $request_filename $request_uri $query_string $scheme $server_protocol $server_addr $server_name $server_port $uri ​ nginx变量及功能含义: ​ $arg_PARAMETER 功能:如果在请求中设置了查询字符串,那么这个变量包含在查询字符串是GET请求PARAMETER中的值。 $args 功能:该变量的值是GET请求在请求行中的参数。 $binary_remote_addr 功能:二进制格式的客户端地址 $body_bytes_sent 功能:响应体的大小,即使发生了中断或者是放弃,也是一样的准确。 $content_length 功能:该变量的值等于请求头中的Content-length字段的值 $cookie_COOKIE 功能:该变量的值是cookie COOKIE的值 $document_root 功能:该变量的值为当前请求的location(http,server,location,location中的if)中root指令中指定的值。 $document_uri 功能:同$uri $host 功能:该变量的值等于请求头中Host的值。如果Host无效时,那么就是处理该请求的server的名称。 在下列情况中,$host变量的取值不同于$http_host变量。 当请求头中的Host字段未指定(使用默认值)或者为空值,那么$host等于server_name指令指定的值。 当Host字段包含端口是,$host并不包含端口号。另外,从0.8.17之后的nginx中,$host的值总是小写。 $hostname 功能:有gethostname返回值设置机器名。 $http_HEADER 功能:该变量的值为HTTP 请求头HEADER,具体使用时会转换为小写,并且将“——”(破折号)转换为"_"(下划线)。 $is_args 功能: 如果设置了$args,那么值为“?”,否则为“” $limit_rate 功能:该变量允许限制连接速率。 $nginx_version 功能: 当前运行的nginx的版本号 $query_string 功能:同$args $remote_addr 功能:客户端的IP地址 $remote_user 功能: 该变量等于用户的名字,基本身份验证模块使用。 $remote_port 功能: 客户端连接端口 $request_filename 功能:该变量等于当前请求文件的路径,有指令root或者alias和URI构成。 $request_body 功能:该变量包含了请求体的主要信息。该变量与proxy_pass或者fastcgi_pass相关。 $request_body_file 功能:客户端请求体的临时文件。 $request_completion 功能:如果请求成功完成,那么显示“OK”。如果请求没有完成或者请求不是该请求系列的最后一部分,那么它的值为空。 $request_method 功能:该变量的值通常是GET或者POST。 $request_uri 功能:该变量的值等于原始的URI请求,就是说从客户端收到的参数包括了原始请求的URI,该值是不可以被修改的,不包含主机名,例如“/foo/bar.php?arg=baz”。 $scheme 功能:该变量表示HTTP scheme(例如HTTP,HTTPS),根据实际使用情况来决定, 例如:rewrite ^ $scheme://example.com$uri redirect; $server_addr 功能:该变量的值等于服务器的地址。通常来说,在完成一次系统调用之后就会获取变量的值,为了避开系统钓鱼,那么必须在listen指令中使用bind参数。 $server_name 功能:该变量为server的名字。 $server_port 功能:该变量等于接收请求的端口。 $server_protocol 功能:该变量的值为请求协议的值,通常是HTTP/1.0或者HTTP/1.1 $uri 功能:该变量的值等于当前请求中的URI(没有参数,不包括$args)的值。它的值不同于request_uri,由浏览器客户端发送的request_uri的值。例如,可能会被内部重定向或者使用index。 另外需要注意:$uri不包含主机名,例如 "/foo/bar.html" 当前判断URL= $scheme://$server_name/$url ​ location 匹配的优先级(来自实践总结中) (location =) > (location 完整路径 >) >(location ^~ 路径) >(location ~* 正则) >(location 路径) 只要匹配到,其它的都会忽略,然后返回到改匹配。 往期文章 Nginx系列教程(1)nginx基本介绍和安装入门Nginx系列教程(2)nginx搭建静态资源web服务器Nginx系列教程(3)nginx缓存服务器上的静态文件Nginx系列教程(4)nginx处理web应用负载均衡问题以保证高并发Nginx系列教程(5)如何保障nginx的高可用性(keepalived)Nginx系列教程(6)nginx location 匹配规则详细解说Nginx系列教程(7)nginx rewrite配置规则详细说明Nginx系列教程(8)nginx配置安全证书SSLNginx系列教程(9)nginx 解决session一致性 ​

优秀的个人博客,低调大师

spark集群配置

mv/home/abc/home/abcd(修改目录名) (1)vi/usr/local/hadoop/etc/hadoop/core-site.xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://skinglzw:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop/tmp</value> </property> <property> <name>hadoop.native.lib</name> <value>true</value> <description>shold native hadoop libraries, if present ,be use</description> </property> </configuration> (2)vi hdfs-site.xml <property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.namenode.secondary.http-address</name> <value>skinglzw:50090</value> <description>The secondary namenode thhp server address and port.</description> </property> <property> <name>dfs.namenode.name.dir</name> <value>/usr/local/hadoop/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/usr/local/hadoop/dfs/data</value> </property> <property> <name>dfs.namenode.checkpoint.dir</name> <value>file:///usr/local/hadoop/dfs/namesecondary</value> <description>Determaine where on the local filesystem theasfdfasfafafasdfaf sdfasfasdfas</description> </property> (3)cp ./mapred-site.xml.template ./mapred-site.xml vimapred-site.xml <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> (4)vi yarn-site.xml <property> <name>yarn.resourcemanager.hostname</name> <value>skinglzw</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> (5)vihadoop-env.sh export JAVA_HOME=/usr/local/jdk/jdk1.8.0 export HADOOP_HOME=/usr/local/hadoop export HADOOP_COMMON_LIB_NATIVE=$HADOOP_HOME/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib" (5.1)vi slaves skinglzw1 skinglzw2 skinglzw3 skinglzw4 (6)vi ~/.bashrc export JAVA_HOME=/usr/local/jdk/jdk1.8.0 export JRE_HOME=${JAVA_HOME}/jre export HADOOP_HOME=/usr/local/hadoop export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_HOME}/lib/native export HADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib" export SCALA_HOME=/usr/local/scala/scala-2.10.4 export SPARK_HOME=/usr/local/spark/spark-1.6.0-bin-hadoop2.6 export FLINK_HOME=/usr/local/flink/flink-0.9.0 export HIVE_HOME=/usr/local/hive/apache-hive-1.2.1 export M2_HOME=/usr/local/spark/apache-maven-3.2.2/ export CLASS_PATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib:${HIVE_HOME}/lib export PATH=/usr/local/eclipse/eclipse:${M2_HOME}/bin:${SPARK_HOME}/bin:${SPARK_HOME}/sbin:${SCALA_HOME}/bin:${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:${HIVE_HOME}/bin:${FLINK_HOM}/bin:$PATH source ~/.bashrc(每台机器都要执行,才能生效) scp /home/skinglzw/.bashrc root@skinglzw1:/home/skinglzw1/.bashrc scp/home/skinglzw/.bashrcroot@skinglzw2:/home/skinglzw2/.bashrc scp/home/skinglzw/.bashrcroot@skinglzw3:/home/skinglzw3/.bashrc scp/home/skinglzw/.bashrcroot@skinglzw4:/home/skinglzw4/.bashrc vi /etc/hosts 192.168.23.131 skinglzw 192.168.23.128 skinglzw1 192.168.23.129 skinglzw2 192.168.23.130 skinglzw3 192.168.23.132 skinglzw4 scp /etc/hosts root@skinglzw1:/etc/hosts scp /etc/hosts root@skinglzw2:/etc/hosts scp /etc/hosts root@skinglzw3:/etc/hosts scp /etc/hosts root@skinglzw4:/etc/hosts scp -r /usr/local/jdk/ root@skinglzw4:/usr/local(传某个目录,整个目录加-r) scp -r /usr/local/scala/ root@skinglzw4:/usr/local scp -r /usr/local/spark/ root@skinglzw4:/usr/local scp -r /usr/local/hive/ root@skinglzw4:/usr/local scp -r /usr/local/hadoop/ root@skinglzw4:/usr/local 文件格式化 bin/hdfs namenode -format /usr/local/hadoop/sbin ./start-dfs.sh ./stop-dfs.sh yarn资源管理或者调度 ./start-yarn.sh(启动yarn比启动hdfs快很多,因为safemode进行数据的检查和恢复) http://skinglzw:50070 http://skinglzw:8088 配置spark cp ./spark-env.sh.template ./spark-env.shvispark-env.sh export JAVA_HOME=/usr/local/jdk/jdk1.8.0 export SCALA_HOME=/usr/local/scala/scala-2.10.4 export HADOOP_HOME=/usr/local/hadoop export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop export SPARK_MASTER_IP=skinglzw export SPARK_WORKER_MEMORY=1g export SPARK_EXECUTOR_MEMORY=1g export SPARK_DRIVER_MEMORY=1g export SPARK_WORKER_CORES=8 vi slaves skinglzw1 skinglzw2 skinglzw3 skinglzw4 vi spark-defaults.conf spark.executor.extraJavaOptions -XX:+PrintGCDetails -Dkey=value -Dnumbers="one two three" spark.eventLog.enabled true spark.eventLog.dir hdfs://skinglzw:9000/historyserverforSpark spark.yarn.historyServer.address skinglzw:18080 spark.history.fs.logDirectory hdfs://skinglzw:9000/historyserverforSpark scp ./spark-env.sh root@skinglzw1:/usr/local/spark/spark-1.6.0-bin-hadoop2.6/conf/spark-env.sh scp ./slaves root@skinglzw1:/usr/local/spark/spark-1.6.0-bin-hadoop2.6/conf/slaves hadoop dfs rm -r /historyserverforSpark (删除历史信息,如果有的话就删除) hadoop dfs mkdir /historyserverforSpark /usr/local/spark/spark-1.6.0-bin-hadoop2.6/sbin ulimit -c unlimited(我的虚拟机是单核的2线程,所有要先设置下,不然会报错,启动不起啦) nodemanaget没启动起来不知道为什么 ./start-all.sh(去其他机器用jps看下work进程有没有启动起来,没有的话,stop-all.sh命令执行,再start-all.sh执行一次,还不成功,多试几次就成功了,我的虚拟机配置低的原因) ./start-history-server.sh http://skinglzw:8080 http://skinglzw:18080 bin目录下 spark-submit 提交spark程序 spark-shell 本文转自 skinglzw 51CTO博客,原文链接:http://blog.51cto.com/skinglzw/1867055,如需转载请自行联系原作者

资源下载

更多资源
优质分享App

优质分享App

近一个月的开发和优化,本站点的第一个app全新上线。该app采用极致压缩,本体才4.36MB。系统里面做了大量数据访问、缓存优化。方便用户在手机上查看文章。后续会推出HarmonyOS的适配版本。

腾讯云软件源

腾讯云软件源

为解决软件依赖安装时官方源访问速度慢的问题,腾讯云为一些软件搭建了缓存服务。您可以通过使用腾讯云软件源站来提升依赖包的安装速度。为了方便用户自由搭建服务架构,目前腾讯云软件源站支持公网访问和内网访问。

Nacos

Nacos

Nacos /nɑ:kəʊs/ 是 Dynamic Naming and Configuration Service 的首字母简称,一个易于构建 AI Agent 应用的动态服务发现、配置管理和AI智能体管理平台。Nacos 致力于帮助您发现、配置和管理微服务及AI智能体应用。Nacos 提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据、流量管理。Nacos 帮助您更敏捷和容易地构建、交付和管理微服务平台。

Sublime Text

Sublime Text

Sublime Text具有漂亮的用户界面和强大的功能,例如代码缩略图,Python的插件,代码段等。还可自定义键绑定,菜单和工具栏。Sublime Text 的主要功能包括:拼写检查,书签,完整的 Python API , Goto 功能,即时项目切换,多选择,多窗口等等。Sublime Text 是一个跨平台的编辑器,同时支持Windows、Linux、Mac OS X等操作系统。

用户登录
用户注册