首页 文章 精选 留言 我的

精选列表

搜索[快速入门],共10006篇文章
优秀的个人博客,低调大师

一分钟快速入门openstack

一、它是什么,能干什么 想认识一个事物,必须先弄明白它是什么,能干什么。 首先说一下,openstack是一个搭建云平台的一个解决方案,说他不是个软件,但是我觉得说是一个软件,能够让初学者更容易接受和理解,在后期的慢慢接触过程中,大家就能够理解,为什么说它不是一个软件。openstack能干什么,可以搭建公有云,私有云,企业云。(顺便说一下,企业云将是openstack的用武之地)二、openstack组成 上面是一个整体的认识,想进一步了解openstack,就必须了解它的组成。其实这有点像研究生物。一般生物都有眼睛,鼻子,嘴等。那么openstack,都有什么。openstack更像是经过计算机的72变之后的产物。包括:7个核心组件:Compute(计算), Object Storage(对象存储),Identity(身份认证),Dashboard(仪表盘), Block Storage(块存储), Network(网络) 和 Image Service(镜像服务) 。 上面从计算机的角度做一个比喻,有不恰当的地方,大家多指正。Compute类似计算的内存;Object Storage类似存储器;Identity就像登陆过程中,验证用户名和密码;Dashboard就操作界面;Network这个大家很容易就明白。三、openstack组件代号 上面各个组件有名字,其实熟悉openstack的都会说他们的代号。也就是专业术语。Compute(代号为“Nova”) Identity(代号为“Keystone”) Dashboard(代号为“Horizon”) Image Service(代号为“Glance”) Network(代号为“Quantum”) Object Storage(代号为“Swift”) Block Storage(代号为“Cinder”)四、openstack组件详细介绍 上面了解了,就差不多有点熟悉openstack了。想进一步认识,必须不能着急。下面进一步详细介绍各个组件的作用: (1)Nova 这个是最核心的,Nova最开始的时候,可以说是一套虚拟化管理程序,还可以管理网络和存储。 (2)keystone 这是提供身份认证和授权的组件。任何系统,身份认证和授权,其实都比较复杂。尤其Openstack 那么庞大的项目,每个组件都需要使用统一认证和授权。 目前keystone 要做的东西其实还是很多。没法基于角色的授权,web管理用户等。(3)Dashboard (代号为“Horizon”) 为所有OpenStack的服务提供了一个模块化的web-based用户界面。使用这个Web GUI,可以在云上完成大多数的操作,如启动实例,分配IP地址,设置访问控制等。 (4)Glance 这是镜像管理。 目前Glance的镜像存储,支持本地存储,NFS,swift,sheepdog和Ceph,基本是够用了。 目前Glance的最大需求就是多个数据中心的镜像管理,如何复制,不过这个功能已经基本实现。还有就是租户私有的image管理,这些目前功能都已经实现。 个人感觉:Glance后续基本就是一个bug修复,稳定的阶段。 (5)Quantum 这是网络管理的组件,也是重头戏,Openstack的未来,基本都要靠quantum。上面介绍nova的时候,说过网络相关的内容,都会交给Quantum。不过Quantum的开发进度不是太如人意。Flosom规划实现功能,到Grizzly才实现。未来nova network的代码清理,估计到H版本都不见得可以实现。 Quantum 后端可以是商业产品或者开源。开源产品支持Openvswitch,和linux bridge。网络设备厂商都在积极参与,让他们的产品支持Quantum。 (6)Swift 这是对象存储的组件。对于大部分用户来说,swift不是必须的。你只有存储数量到一定级别,而且是非结构化数据才有这样的需求。很多人都问一个相同的问题:是否可以把虚拟机的存储放在swift上。简单回答:不行。你需要搞明白对象存储是干啥,擅长那些地方,那些是不行的。 swift是Openstack所有组件了最成熟的,可以在线升级版本,各种版本可以混合在一起,也就是说,1.75版本的swift可以和1.48的在一个群集里.这个是很难得的. (7)Cinder 这是存储管理的组件。Cinder存储管理主要是指虚拟机的存储管理。

优秀的个人博客,低调大师

Redis快速入门,学会这15点,真的够用了!

1、Redis简介 REmote DIctionary Server(Redis)是一个由Salvatore Sanfilippo写的key-value存储系统。Redis是一个开源的使用ANSI C语言编写、遵守BSD协议、支持网络、可基于内存亦可持久化的日志型、Key-Value数据库,并提供多种语言的API。它通常被称为数据结构服务器,因为值(value)可以是 字符串(String), 哈希(Map), 列表(list), 集合(sets) 和 有序集合(sorted sets)等类型。 大家都知道了redis是基于key-value的no sql数据库,因此,先来了解一下关于key相关的知识点 1、任何二进制的序列都可以作为key使用 2、Redis有统一的规则来设计key 3、对key-value允许的最大长度是512MB 2、支持的语言 ActionScript Bash C C# C++ Clojure Common LispCrystal D Dart Elixir emacs lisp Erlang Fancy gawk GNU Prolog Go Haskell Haxe Io Java Javascript Julia Lua Matlab mruby Nim Node.js Objective-C OCaml Pascal Perl PHP Pure Data Python R Racket Rebol Ruby Rust Scala Scheme Smalltalk Swift Tcl VB VCL 3、Redis的应用场景到底有哪些?? 1、最常用的就是会话缓存 2、消息队列,比如支付 3、活动排行榜或计数 4、发布、订阅消息(消息通知) 5、商品列表、评论列表等 4、Redis安装 关于redis安装与相关的知识点介绍请参考 Nosql数据库服务之redis 安装的大概步骤如下: Redis是c语言开发的,安装redis需要c语言的编译环境 如果没有gcc需要在线安装:yum install gcc-c++ 第一步:获取源码包:wget http://download.redis.io/rele... 第二步:解压缩redis:tar zxvf redis-3.0.0.tar.gz 第三步:编译。进入redis源码目录(cd redis-3.0.0)。执行 make 第四步:安装。make install PREFIX=/usr/local/redis PREFIX参数指定redis的安装目录 5、Redis数据类型 Redis一共支持五种数据类型 1、string(字符串) 2、hash(哈希) 3、list(列表) 4、set(集合) 5、zset(sorted set 有序集合) string(字符串) 它是redis最基本的数据类型,一个key对应一个value,需要注意是一个键值最大存储512MB。 127.0.0.1:6379> set key "hello world" OK 127.0.0.1:6379> get key "hello world" 127.0.0.1:6379> getset key "nihao" "hello world" 127.0.0.1:6379> mset key1 "hi" key2 "nihao" key3 "hello" OK 127.0.0.1:6379> get key1 "hi" 127.0.0.1:6379> get key2 "nihao" 127.0.0.1:6379> get key3 "hello" 相关命令介绍 set 为一个Key设置value(值) get 获得某个key对应的value(值) getset 为一个Key设置value(值)并返回对应的值 mset 为多个key设置value(值) hash(哈希) redis hash是一个键值对的集合, 是一个string类型的field和value的映射表,适合用于存储对象 127.0.0.1:6379> hset redishash 1 "001" (integer) 1 127.0.0.1:6379> hget redishash 1 "001" 127.0.0.1:6379> hmset redishash 1 "001" 2 "002" OK 127.0.0.1:6379> hget redishash 1 "001" 127.0.0.1:6379> hget redishash 2 "002" 127.0.0.1:6379> hmget redishash 1 2 1) "001" 2) "002" 相关命令介绍 hset 将Key对应的hash中的field配置为value,如果hash不存则自动创建, hget 获得某个hash中的field配置的值 hmset 批量配置同一个hash中的多个field值 hmget 批量获得同一个hash中的多个field值 list(列表) 是redis简单的字符串列表,它按插入顺序排序 127.0.0.1:6379> lpush word hi (integer) 1 127.0.0.1:6379> lpush word hello (integer) 2 127.0.0.1:6379> rpush word world (integer) 3 127.0.0.1:6379> lrange word 0 2 1) "hello" 2) "hi" 3) "world" 127.0.0.1:6379> llen word (integer) 3 相关命令介绍 lpush 向指定的列表左侧插入元素,返回插入后列表的长度 rpush 向指定的列表右侧插入元素,返回插入后列表的长度 llen 返回指定列表的长度 lrange 返回指定列表中指定范围的元素值 set(集合) 是string类型的无序集合,也不可重复 127.0.0.1:6379> sadd redis redisset (integer) 1 127.0.0.1:6379> sadd redis redisset1 (integer) 1 127.0.0.1:6379> sadd redis redisset2 (integer) 1 127.0.0.1:6379> smembers redis 1) "redisset1" 2) "redisset" 3) "redisset2" 127.0.0.1:6379> sadd redis redisset2 (integer) 0 127.0.0.1:6379> smembers redis 1) "redisset1" 2) "redisset" 3) "redisset2" 127.0.0.1:6379> smembers redis 1) "redisset1" 2) "redisset3" 3) "redisset" 4) "redisset2" 127.0.0.1:6379> srem redis redisset (integer) 1 127.0.0.1:6379> smembers redis 1) "redisset1" 2) "redisset3" 3) "redisset2" 相关命令介绍 sadd 添加一个string元素到key对应的set集合中,成功返回1,如果元素存在返回0 smembers 返回指定的集合中所有的元素 srem 删除指定集合的某个元素 zset(sorted set 有序集合) 是string类型的有序集合,也不可重复 sorted set中的每个元素都需要指定一个分数,根据分数对元素进行升序排序,如果多个元素有相同的分数,则以字典序进行升序排序,sorted set 因此非常适合实现排名 127.0.0.1:6379> zadd nosql 0 001 (integer) 1 127.0.0.1:6379> zadd nosql 0 002 (integer) 1 127.0.0.1:6379> zadd nosql 0 003 (integer) 1 127.0.0.1:6379> zcount nosql 0 0 (integer) 3 127.0.0.1:6379> zcount nosql 0 3 (integer) 3 127.0.0.1:6379> zrem nosql 002 (integer) 1 127.0.0.1:6379> zcount nosql 0 3 (integer) 2 127.0.0.1:6379> zscore nosql 003 "0" 127.0.0.1:6379> zrangebyscore nosql 0 10 1) "001" 2) "003" 127.0.0.1:6379> zadd nosql 1 003 (integer) 0 127.0.0.1:6379> zadd nosql 1 004 (integer) 1 127.0.0.1:6379> zrangebyscore nosql 0 10 1) "001" 2) "003" 3) "004" 127.0.0.1:6379> zadd nosql 3 005 (integer) 1 127.0.0.1:6379> zadd nosql 2 006 (integer) 1 127.0.0.1:6379> zrangebyscore nosql 0 10 1) "001" 2) "003" 3) "004" 4) "006" 5) "005" 相关命令介绍 zadd 向指定的sorteset中添加1个或多个元素 zrem 从指定的sorteset中删除1个或多个元素 zcount 查看指定的sorteset中指定分数范围内的元素数量 zscore 查看指定的sorteset中指定分数的元素 zrangebyscore 查看指定的sorteset中指定分数范围内的所有元素 6、键值相关的命令 127.0.0.1:6379> exists key (integer) 1 127.0.0.1:6379> exists key1 (integer) 1 127.0.0.1:6379> exists key100 (integer) 0 127.0.0.1:6379> get key "nihao,hello" 127.0.0.1:6379> get key1 "hi" 127.0.0.1:6379> del key1 (integer) 1 127.0.0.1:6379> get key1 (nil) 127.0.0.1:6379> rename key key0 OK 127.0.0.1:6379> get key(nil) 127.0.0.1:6379> get key0 "nihao,hello" 127.0.0.1:6379> type key0 string exists #确认key是否存在 del #删除key expire #设置Key过期时间(单位秒) persist #移除Key过期时间的配置 rename #重命名key type #返回值的类型 7、Redis服务相关的命令 127.0.0.1:6379> select 0 OK 127.0.0.1:6379> info # Server redis_version:3.0.6 redis_git_sha1:00000000 redis_git_dirty:0 redis_build_id:347e3eeef5029f3 redis_mode:standalone os:Linux 3.10.0-693.el7.x86_64 x86_64 arch_bits:64 multiplexing_api:epoll gcc_version:4.8.5 process_id:31197 run_id:8b6ec6ad5035f5df0b94454e199511084ac6fb12 tcp_port:6379 uptime_in_seconds:8514 uptime_in_days:0 hz:10 lru_clock:14015928 config_file:/usr/local/redis/redis.conf -------------------省略N行 127.0.0.1:6379> CONFIG GET 0 (empty list or set) 127.0.0.1:6379> CONFIG GET 15 (empty list or set) slect #选择数据库(数据库编号0-15) quit #退出连接 info #获得服务的信息与统计 monitor #实时监控 config get #获得服务配置 flushdb #删除当前选择的数据库中的key flushall #删除所有数据库中的key 8、Redis的发布与订阅 Redis发布与订阅(pub/sub)是它的一种消息通信模式,一方发送信息,一方接收信息。 下图是三个客户端同时订阅同一个频道 下图是有新信息发送给频道1时,就会将消息发送给订阅它的三个客户端 9、Redis事务 Redis事务可以一次执行多条命令 1、发送exec命令前放入队列缓存,结束事务 2、收到exec命令后执行事务操作,如果某一命令执行失败,其它命令仍可继续执行 3、一个事务执行的过程中,其它客户端提交的请求不会被插入到事务执行的命令列表中 一个事务经历三个阶段 开始事务(命令:multi) 命令执行 结束事务(命令:exec) 127.0.0.1:6379> MULTI OK 127.0.0.1:6379> set key key1 QUEUED 127.0.0.1:6379> get key QUEUED 127.0.0.1:6379> rename key key001 QUEUED 127.0.0.1:6379> exec OK "key1" OK 10、Redis安全配置 可以通过修改配置文件设备密码参数来提高安全性 #requirepass foobared 去掉注释#号就可以配置密码 没有配置密码的情况下查询如下 127.0.0.1:6379> CONFIG GET requirepass 1) "requirepass" 2) "" 配置密码之后,就需要进行认证 127.0.0.1:6379> CONFIG GET requirepass (error) NOAUTH Authentication required. 127.0.0.1:6379> AUTH foobared #认证OK 127.0.0.1:6379> CONFIG GET requirepass 1) "requirepass" 2) "foobared" 11、Redis持久化 Redis持久有两种方式:Snapshotting(快照),Append-only file(AOF) Snapshotting(快照) 1、将存储在内存的数据以快照的方式写入二进制文件中,如默认dump.rdb中 2、save 900 1 #900秒内如果超过1个Key被修改,则启动快照保存 3、save 300 10 #300秒内如果超过10个Key被修改,则启动快照保存 4、save 60 10000 #60秒内如果超过10000个Key被修改,则启动快照保存 Append-only file(AOF) 1、使用AOF持久时,服务会将每个收到的写命令通过write函数追加到文件中(appendonly.aof) 2、AOF持久化存储方式参数说明 appendonly yes #开启AOF持久化存储方式 appendfsync always #收到写命令后就立即写入磁盘,效率最差,效果最好 appendfsync everysec #每秒写入磁盘一次,效率与效果居中 appendfsync no #完全依赖OS,效率最佳,效果没法保证 12、Redis 性能测试 自带相关测试工具 [root@test ~]# redis-benchmark --help Usage: redis-benchmark [-h <host>] [-p <port>] [-c <clients>] [-n <requests]> [-k <boolean>] -h <hostname> Server hostname (default 127.0.0.1) -p <port> Server port (default 6379) -s <socket> Server socket (overrides host and port) -a <password> Password for Redis Auth -c <clients> Number of parallel connections (default 50) -n <requests> Total number of requests (default 100000) -d <size> Data size of SET/GET value in bytes (default 2) -dbnum <db> SELECT the specified db number (default 0) -k <boolean> 1=keep alive 0=reconnect (default 1) -r <keyspacelen> Use random keys for SET/GET/INCR, random values for SADD Using this option the benchmark will expand the string __rand_int__ inside an argument with a 12 digits number in the specified range from 0 to keyspacelen-1. The substitution changes every time a command is executed. Default tests use this to hit random keys in the specified range. -P <numreq> Pipeline <numreq> requests. Default 1 (no pipeline). -q Quiet. Just show query/sec values --csv Output in CSV format -l Loop. Run the tests forever -t <tests> Only run the comma separated list of tests. The test names are the same as the ones produced as output. -I Idle mode. Just open N idle connections and wait. Examples: Run the benchmark with the default configuration against 127.0.0.1:6379: $ redis-benchmark Use 20 parallel clients, for a total of 100k requests, against 192.168.1.1: $ redis-benchmark -h 192.168.1.1 -p 6379 -n 100000 -c 20 Fill 127.0.0.1:6379 with about 1 million keys only using the SET test: $ redis-benchmark -t set -n 1000000 -r 100000000 Benchmark 127.0.0.1:6379 for a few commands producing CSV output: $ redis-benchmark -t ping,set,get -n 100000 --csv Benchmark a specific command line: $ redis-benchmark -r 10000 -n 10000 eval 'return redis.call("ping")' 0 Fill a list with 10000 random elements: $ redis-benchmark -r 10000 -n 10000 lpush mylist __rand_int__ On user specified command lines __rand_int__ is replaced with a random integer with a range of values selected by the -r option. 实际测试同时执行100万的请求 [root@test ~]# redis-benchmark -n 1000000 -q PING_INLINE: 152578.58 requests per second PING_BULK: 150308.14 requests per second SET: 143266.47 requests per second GET: 148632.58 requests per second INCR: 145857.64 requests per second LPUSH: 143781.45 requests per second LPOP: 147819.66 requests per second SADD: 138350.86 requests per second SPOP: 134282.27 requests per second LPUSH (needed to benchmark LRANGE): 141302.81 requests per second LRANGE_100 (first 100 elements): 146756.67 requests per second LRANGE_300 (first 300 elements): 148104.27 requests per second LRANGE_500 (first 450 elements): 152671.75 requests per second LRANGE_600 (first 600 elements): 148104.27 requests per second MSET (10 keys): 132731.62 requests per second 13、Redis的备份与恢复 Redis自动备份有两种方式 第一种是通过dump.rdb文件实现备份 第二种使用aof文件实现自动备份 dump.rdb备份 Redis服务默认的自动文件备份方式(AOF没有开启的情况下),在服务启动时,就会自动从dump.rdb文件中去加载数据。 #具体配置在redis.conf save 900 1 save 300 10 save 60 10000 也可以手工执行save命令实现手动备份 127.0.0.1:6379> set name key OK 127.0.0.1:6379> SAVE OK 127.0.0.1:6379> set name key1 OK 127.0.0.1:6379> BGSAVE Background saving started redis快照到dump文件时,会自动生成dump.rdb的文件 # The filename where to dump the DB dbfilename dump.rdb -rw-r--r-- 1 root root 253 Apr 17 20:17 dump.rdb SAVE命令表示使用主进程将当前数据库快照到dump文件 BGSAVE命令表示,主进程会fork一个子进程来进行快照备份 两种备份不同之处,前者会阻塞主进程,后者不会。 恢复举例 # Note that you must specify a directory here, not a file name.dir /usr/local/redisdata/ #备份文件存储路径 127.0.0.1:6379> CONFIG GET dir 1) "dir" 2) "/usr/local/redisdata" 127.0.0.1:6379> set key 001 OK 127.0.0.1:6379> set key1 002 OK 127.0.0.1:6379> set key2 003 OK 127.0.0.1:6379> save OK 将备份文件备份到其它目录 [root@test ~]# ll /usr/local/redisdata/ total 4 -rw-r--r-- 1 root root 49 Apr 17 21:24 dump.rdb [root@test ~]# date Tue Apr 17 21:25:38 CST 2018 [root@test ~]# cp ./dump.rdb /tmp/ 删除数据 127.0.0.1:6379> del key1 (integer) 1 127.0.0.1:6379> get key1 (nil) 关闭服务,将原备份文件拷贝回save备份目录 [root@test ~]# redis-cli -a foobared shutdown [root@test ~]# lsof -i :6379 [root@test ~]# cp /tmp/dump.rdb /usr/local/redisdata/ cp: overwrite ‘/usr/local/redisdata/dump.rdb’? y [root@test ~]# redis-server /usr/local/redis/redis.conf & [1] 31487 登录查看数据是否恢复 [root@test ~]# redis-cli -a foobared 127.0.0.1:6379> mget key key1 key2 1) "001" 2) "002" 3) "003" AOF自动备份 redis服务默认是关闭此项配置 ###### APPEND ONLY MODE ########## appendonly no # The name of the append only file (default: "appendonly.aof") appendfilename "appendonly.aof" # appendfsync always appendfsync everysec # appendfsync no 配置文件的相关参数,前面已经详细介绍过。 AOF文件备份,是备份所有的历史记录以及执行过的命令,和mysql binlog很相似,在恢复时就是重新执次一次之前执行的命令,需要注意的就是在恢复之前,和数据库恢复一样需要手工删除执行过的del或误操作的命令。 AOF与dump备份不同 1、aof文件备份与dump文件备份不同 2、服务读取文件的优先顺序不同,会按照以下优先级进行启动 如果只配置AOF,重启时加载AOF文件恢复数据 如果同时 配置了RBD和AOF,启动是只加载AOF文件恢复数据 如果只配置RBD,启动时将加载dump文件恢复数据 注意:只要配置了aof,但是没有aof文件,这个时候启动的数据库会是空的 14、Redis 生产优化介绍 1、内存管理优化 hash-max-ziplist-entries 512 hash-max-ziplist-value 64 list-max-ziplist-entries 512 list-max-ziplist-value 64 #list的成员与值都不太大的时候会采用紧凑格式来存储,相对内存开销也较小 在linux环境运行Redis时,如果系统的内存比较小,这个时候自动备份会有可能失败,需要修改系统的vm.overcommit_memory 参数,这个参数是linux系统的内存分配策略 0 表示内核将检查是否有足够的可用内存供应用进程使用;如果有足够的可用内存,内存申请允许;否则,内存申请失败,并把错误返回给应用进程。 1 表示内核允许分配所有的物理内存,而不管当前的内存状态如何。 2 表示内核允许分配超过所有物理内存和交换空间总和的内存 Redis官方的说明是,建议将vm.overcommit_memory的值修改为1,可以用下面几种方式进行修改: (1)编辑/etc/sysctl.conf 改vm.overcommit_memory=1,然后sysctl -p 使配置文件生效 (2)sysctl vm.overcommit_memory=1 (3)echo 1 > /proc/sys/vm/overcommit_memory 2、内存预分配 3、持久化机制 定时快照:效率不高,会丢失数据 AOF:保持数据完整性(一个实例的数量不要太大2G最大) 优化总结 1)根据业务需要选择合适的数据类型 2)当业务场景不需持久化时就关闭所有持久化方式(采用ssd磁盘来提升效率) 3)不要使用虚拟内存的方式,每秒实时写入AOF 4)不要让REDIS所在的服务器物理内存使用超过内存总量的3/5 5)要使用maxmemory 6)大数据量按业务分开使用多个redis实例 15、Redis集群应用 集群是将多个redis实例集中在一起,实现同一业务需求,或者实现高可用与负载均衡 到底有哪些集群方案呢?? 1、haproxy+keepalived+redis集群 1)通过redis的配置文件,实现主从复制、读写分离 2)通过haproxy的配置,实现负载均衡,当从故障时也会及时从集群中T除 3)利用keepalived来实现负载的高可用 2、redis官方Sentinel集群管理工具 Redis集群生产环境高可用方案实战过程 1)sentinel负责对集群中的主从服务监控、提醒和自动故障转移 2)redis集群负责对外提供服务 关于redis sentinel cluster集群配置可参考 3、Redis Cluster Redis Cluster是Redis的分布式解决方案,在Redis 3.0版本正式推出的,有效解决了Redis分布式方面的需求。当遇到单机内存、并发、流量等瓶颈时,可以采用Cluster架构达到负载均衡的目的。 1)官方推荐,毋庸置疑。 2)去中心化,集群最大可增加1000个节点,性能随节点增加而线性扩展。 3)管理方便,后续可自行增加或摘除节点,移动分槽等等。 4)简单,易上手。

优秀的个人博客,低调大师

ALiyun LOG Go Consumer Library 快速入门及原理剖析

前言 Aliyun LOG Go Consumer Library是用go语言编写的协同消费库,主要处理多个消费者同时消费logstore时自动分配shard问题。 其中消费组会自动处理shard的负载均衡,消费者failover等逻辑,这部分说明会在本篇下面的篇幅中进行详细的介绍。用户只需专注在自己业务逻辑上,而无需关心shard分配、CheckPoint、Failover等事宜。 功能特点 Aliyun LOG Go Consumer Library是一个使用简单以及高度可配置的go类库,它有如下功能特点: 线程安全 - consumer 内所有的方法以及暴露的接口都是线程安全的。 异步拉取 - 调用consumer的拉取日志接口,会把当前拉取任务新开一个groutine中去执行,不会阻塞主groutine的执行。 自动重试 - 对程序运行当中出现的可重试的异常,consumer会自动重试,重试过程不会导致数据的重复消费。 优雅关闭 - 调用关闭程序接口,consumer会等待当前所有已开出的groutine任务结束后在结束主程序,保证下次开始不会重复消费数据。 本地调试 - 可通过配置支持将日志内容输出到本地或控制台,并支持轮转、日志数、轮转大小设置。 高性能 - 基于go语言的特性,go的goroutine在并发多任务处理能力上有着与生俱来的优势。所以consumer 对每一个获得的可消费分区都会开启一个单独的groutine去执行消费任务,相对比直接使用cpu线程处理,对系统性能消耗更小,效率更高。 使用简单 - 在整个使用过程中,不会产生数据丢失,以及重复,用户只需要配置简单配置文件,创建消费者实例,写处理日志的代码就可以,用户只需要把重心放到自己的消费逻辑上面即可,不需关心消费断点保存,以及错误重试等问题。 消费组原理剖析 为了带您更好的理解 go版本的consumer library,本篇讲介绍consumer library的实现原理,在了解原理之前,进行简单的术语简介。 在consumer library 中主要有4个概念,分别是consumer group,consumer,heartbeat和checkpoint,它们之间关系如下(图片出处:https://github.com/aliyun/loghub_consumer_library): ​ consumer group: ​ 是logstore的子资源,拥有相同consumer group 名字的消费者共同消费同一个logstore的所有数据,这些消费者之间不会重复消费数据,一个logstore下面可以最多创建5个consumer group,不可以重名,同一个logstore下面的consumer group之间消费数据不会互相影响。consumer group有两个很重要的属性: { "order":boolean, "timeout": integer } order属性:在单个shard中是否按顺序消费。true:表示在单个shard中按顺序消费。shard分裂后,先消费原shard数据,然后并列消费两个新shard的数据。false:表示不按顺序消费。 timeout属性:表示consumer group中消费者的超时时间,单位是秒,当一个消费者汇报心跳的时间间隔超过timeout,会被认为已经超时,服务端认为这个consumer此时已经下线了。 consumer: ​ 消费者,每个consumer上会被分配若干个shard,consumer的职责就是要消费这些shard上的数据,同一个consumer group中的consumer必须不重名。 heartbeat: ​ 消费者心跳,consumer需要定期向服务端汇报一个心跳包,用于表明自己还处于存活状态。 checkpoint: ​ 消费者定期将分配给自己的shard消费到的位置保存到服务端,这样当这个shard被分配给其它消费者时,从服务端可以获取shard的消费断点,接着从断点继续消费数据。 自动负载均衡与自动处理消费者failover 如上图,当前有两个消费者A和B ,分别持有1,2,3,4个分区进行消费,消费者A被取消或者因为其他原因停止消费,服务端会自动将A消费者持有的1,2分区分配给B消费者进行消费。如下图 那么服务端是如何实现自动负载均衡的呢,还回到当消费者A,B共同持有4个分区的情况下,此时,如果新的消费者C注册加入到消费组当中来,服务端消费组会将logstore下所有的可消费分区对所有的消费者进行平均分配,如下图,从而在服务端自动的去实现负载均衡,用户即可不用关心消费者之间的负载均衡关系。 Consumer Lib实现原理 1.当调用一个消费者实例的run方法启动的时候,会开启一个心跳线程去给服务端发送当前心跳信息,同时主线程继续执行,检查是否获得可消费分区。 2.Heartbeat心跳线程会汇报当前消费者持有的消费分区到服务端,服务端会分配给消费者可消费的分区ID。 3.主线程会遍历从心跳线程获得的所有可消费分区,同时会将持有的消费分区汇报给心跳线程,每一个可消费分区都会调用consume方法。 4.每一个消费分区中的consume方法(如上图)只负责更新任务状态,调用会立刻返回,具体的消费任务会开启单独的groutine去执行,每个分区都会维护自己的一个任务状态机,不同分区间任务状态不会相互影响。 5.每次消费任务完成,会调用flushCheck方法,检查当前时间相对上次更新检查点时间是否超过60秒,超过就刷新当前检查点到服务端。如果执行退出程序函数,会立即将当前消费者的检查点保存到服务端。 6.如果执行任务中发生可重试异常,会在任务groutine中重试该任务,并且会在每一次遍历中跳过当前正在执行的任务groutine,不会造成任务的重复开启。 使用步骤 1.源码下载 请先克隆代码到自己的GOPATH路径下(源码地址:aliyun-go-consumer-library),项目使用了vendor工具管理第三方依赖包,所以克隆下来项目以后无需安装任何第三方工具包。 2.配置LogHubConfig LogHubConfig是提供给用户的配置类,用于配置消费策略,您可以根据不同的需求设定不同的值,各参数含义如文章尾部图示 LogHubConfig详细配置 3.覆写消费逻辑 func process(shardId int, logGroupList *sls.LogGroupList) string { for _, logGroup := range logGroupList.LogGroups { err := client.PutLogs(option.Project, "copy-logstore", logGroup) if err != nil { fmt.Println(err) } } fmt.Println("shardId %v processing works sucess", shardId) return "" // 不需要重置检查点情况下,请返回空字符串,如需要重置检查点,请返回需要重置的检查点游标。 } 在实际消费当中,您只需要根据自己的需要重新覆写消费函数process 即可,上图只是一个简单的demo,将consumer获取到的日志进行了打印处理,注意,该函数参数和返回值不可改变,否则会导致消费失败。 4.创建消费者并开始消费 // option是LogHubConfig的实例 consumerWorker := consumerLibrary.InitConsumerWorker(option, process) // 调用Start方法开始消费 consumerWorker.Start() 调用InitConsumerWorkwer方法,将配置实例对象和消费函数传递到参数中生成消费者实例对象,调用Start方法进行消费。 5.关闭消费者 ch:=make(chan os.Signal) //将os信号值作为信道 signal.Notify(ch) consumerWorker.Start() if _, ok := <-ch; ok { // 当获取到os停止信号以后,例如ctrl+c触发的os信号,会调用消费者退出方法进行退出。 consumerWorker.StopAndWait() } 上图中的例子通过go的信道做了os信号的监听,当监听到用户触发了os退出信号以后,调用StopAndWait()方法进行退出,用户可以根据自己的需要设计自己的退出逻辑,只需要调用StopAndWait()即可。 Cosumer Lib使用进阶 1.消费失败处理办法 当您拉取到日志对日志进行消费处理,处理失败的时候,可以在process方法里面重新执行您的消费逻辑,不跳出process方法,当process方法不结束的情况下会一直处理当前未消费成功的数据,从而避免重复消费,以下为简单的样例: func process(shardId int, logGroupList *sls.LogGroupList) string { for { err := func(shardId int, logGroupList *sls.LogGroupList) error { // 在这个函数当中去写具体的消费逻辑,如果消费失败,返回自定义的error return nil }(shardId,logGroupList) if err != nil{ // 当捕获到消费失败的error以后只要重复继续执行消费逻辑即可,不要跳出process方法。 continue }else{ // 消费成功的话,跳出循环,process方法执行完毕,会继续拉取数据进行下次消费。 break } } return "" // 不需要重置检查点情况下,请返回空字符串,如需要重置检查点,请返回需要重置的检查点游标。 } 2.重置Checkpoint 在补数据或重复计算等场景中,需要将某个ConsumerGroup点位设置为某一个时间点,使当前消费组能够从新位置开始消费。可通过以下三种方式完成。 (a.) 删除消费组。 停止消费程序,并在控制台删除消费组。 修改代码,使用指定时间点消费,重新启动程序。 (b.) 通过SDK将当前消费组重置到某一个时间点。 停止消费程序。 使用SDK修改位点,重新启动消费程序。具体示例如下图所示: func updateCheckPoint(){ err := client.UpdateCheckpoint(project,logstore,"ConsumerGroupName","consumerName",1,"youCheckPoint",true) if err != nil{ fmt.Println(err) } } (c.) 在process消费函数中返回需要重置的检查点。 为了满足在用户可以在不停止程序的情况下重置检查点的需求,提供了在process消费函数中充值检查点的方法,只要将重置的检查点作为返回值返回就可以,如果不需要只需要返回空字符串即可。 下图的所示例的代码设置了一个触发时间,当程序时间等于触发时间的时候,会重置检查点为开始的游标,进行分区的重新消费。 func process(shardId int,logGroupList *sls.LogGroupList) string { futureTime := 18888888 // 例如设置一个未来的Unix时间戳 if time.Now().Unix() == futureTime { // 当程序运行的当时时间等于设置的未来时间,返回需要重置的检查点 cursur, err := client.GetCursor(project,logstore,shardId,"begin") if err != nil { fmt.Println(err) } // 返回当前分区开始游标,就会重置消费位置为开始位置,进行当前分区的从新消费。 return cursor // 需要注意,如果每次消费完都返回指定游标的话,则每一次都会重置下次消费位置为返回的游标。 } return "" } 下图为LogHubConfig详细配置参数。 参数 类型 能否为空 描述 Endpoint String 否 服务入口,关于如何确定project对应的服务入口可参考文章服务入口。 AccessKeyID String 否 账户的AK id。 AccessKeySecret String 否 账户的AK 密钥。 Project String 否 将要消费的项目名称。 Logstore String 否 将要消费的项目下的日志库的名字。 ConsumerGroupName String 否 消费组的名称。 ConsumerName String 否 消费者的名称。注意:同一个消费组下面的消费者名称不能重复,不同消费组之间互不影响。 CursorPosition String 否 开始消费的时间点,该参数只在第一次创建消费组的时候使用,当再次启动消费组进行消费的时候会从上次消费到的断点进行继续消费,该参数可选的参数有3个: “BEGIN_CURSOR”,"END_CURSOR","SPECIAL_TIMER_CURSOR",分别为开始位置,结束位置,和自定义起始位置。 HeartbeatIntervalInSecond Int 是 向服务端发送的心跳间隔,默认值为20秒,如果超过设定值的3倍没有向服务端汇报心跳,服务端就任务该分区已经掉线会给该分区重新分配消费者。建议使用默认值。 DataFetchInterval Int64 是 从服务端拉取日志时间间隔,默认值是2秒,不能把这个值设置小于1s。 MaxFetchLogGroupCount Int 是 从服务端一次拉取日志组数量,日志组可参考内容日志组,默认值是1000,其取值范围是1-1000。 CursorStartTime Int64 否 自定义日志消费时间点,只有当CursorPosition设置为"SPECIAL_TIMER_CURSOR"时,该参数才能使用,参数为unix时间戳。时间单位为秒。 InOrder Bool 否 是否按序消费,默认为false。 AllowLogLevel String 否 设置日志输出级别,默认值是Info,consumer中一共有4种日志输出级别,分别为debug,info,warn和error。 LogFileName String 否 日志文件输出路径,不设置的话默认输出到stdout。 IsJsonType Bool 否 是否格式化文件输出格式,默认为false。 LogMaxSize Int 否 单个日志存储数量,默认为10M。 LogMaxBackups Int 否 日志轮转数量,默认为10。 LogCompass Bool 否 是否使用gzip 压缩日志,默认为false。 应用实例 为了进一步减少学习成本,我们为您准备了 Aliyun LOG Go Consumer Library 应用实例。示例中包含了consumer 从创建到关闭的全部流程。

优秀的个人博客,低调大师

Python3快速入门——(9)生成器 (generator)

生成器 (generator) #生成器generator 在Python中,这种一边循环一边计算的机制,称为生成器,能节省大量的空间 L=[x*x for x in range ( 1 , 11 )] g=(x*x for x in range ( 1 , 11 )) #创建L和g的区别仅在于最外层的[]和(),L是一个list,而g是一个generator next (g) #如果要一个一个打印出来,可以通过next()函数获得generator的下一个返回值 for n in g: #用for循环,generator也是可迭代对象 print (n) #举例:斐波那契数列(Fibonacci)除第一个和第二个数外,任意一个数都可由前两个数相加得到 #1, 1, 2, 3, 5, 8, 13, 21, 34, ... def fib(max): #fib函数是定义了斐波拉契数列的推算规则 n,a,b= 0 , 0 , 1 while n<max: print (b) a,b=b,a+b n=n+ 1 return 'done' #如果一个函数定义中包含yield关键字,那么这个函数就不再是一个普通函数,而是一个generator def fib(max): #fib函数是定义了斐波拉契数列的推算规则 n,a,b= 0 , 0 , 1 while n<max: yield b a,b=b,a+b n=n+ 1 for x in fib( 7 ): print (x)

优秀的个人博客,低调大师

云服务器 ECS > >快速入门(三)

步骤 2:创建 ECS 实例这里只介绍如何创建一个实例。如果您想用自己的系统盘快照创建自定义镜像,并用这个自定义镜像创建实例,请参考文档:使用自定义镜像创建实例。 前提条件 在创建 ECS 实例前,您应该已经完成了以下工作: 已经注册了阿里云账号,并完成实名认证。 如果要购买按量付费实例,账户余额应至少有 100 元人民币。关于充值,请参考 财务 文档 如何充值付款。 如果需要在专有网络(VPC)里创建 ECS 实例,应该已经在目标地域 创建了至少一个专有网络和交换机。 如果需要在经典网络里创建 ECS 实例,应该已经在目标地域 创建了一个满足您业务需求的安全组。 如果您是在 2017 年 6 月 14 日下午 5 点以后第一次购买 ECS 实例,将不能选择经典网络。如果您需要创建经典网络的实例,请 提交工单 申请加入白名单。 如果您要在创

优秀的个人博客,低调大师

数据库版本控制|一文带你快速入门

数据库版本控制是管理和跟踪数据库 schema 及相关数据随时间变化的实践。通常来说,我们使用版本控制系统和一些相关工具来保留对数据库所做修改的历史记录,使团队能够追踪变更、有效协作,并安全地部署更新。 一方面,使用版本控制系统 (Version Control System, VCS) 来管理代码已经成为事实上的标准;另一方面,采用 VCS 或类似工具仍处于早期阶段。 以下是数据库版本控制的一些难点以及 Bytebase 如何能帮你解决这些问题😉。 合作与团队协作 版本控制通过提供一个集中的存储库来共享和管理数据库变更,以促进团队成员之间的协作。Bytebase 在这方面类似 GitLab 和 GitHub,为开发人员和 DBA 提供了一个协作完成数据库变更的工作空间。 变更追踪和历史 版本控制系统记录了对数据库 schema 和相关脚本所做变更的历史记录。这些历史记录包括谁提交了变更、何时进行的以及为何变更等详细信息。Bytebase 会捕捉每个变更历史。 迁移脚本 通常来说,数据库版本控制依赖于迁移脚本,这些代码文件定义了对数据库 schema 的更改。这些脚本通常包含 SQL 语句或其他特定于数据库的命令,用于创建、修改或删除数据库对象。在 Bytebase 中,可以使用变更列表 来组合编排迁移脚本。 分支与合并 版本控制系统支持分支,使团队能够同时处理不同的功能或变更。Bytebase 为数据库更改提供了类似的分支功能。 部署和回滚 通过保留变更历史记录,版本控制可以实现对数据库更新的可控部署。如果出现问题,团队可以回滚到先前版本的数据库 schema 和相关数据。Bytebase 提供以下回滚选项: 数据回滚。使用像 MySQL binlog 的撤销日志来回滚数据更改。 从备份中恢复和时间点恢复 (PITR)。可以指示 Bytebase 进行手动或定期备份,并从中进行恢复。 库表同步。可以将一个数据库 schema 与另一个进行对比,Bytebase 能够自动识别差异并应用更改。 VCS 集成 #GitOps 数据库版本控制应该集成到整体的开发工作流程中,你可以设置 CI/CD pipeline 来自动化应用数据库变更。比如在版本控制系统中配置 CI,使用 Bytebase 进行 SQL 语法审核。 以下分别是 GitHub Action 和 GitLab CI 的示例: 此外,你可以配置 Bytebase 项目以链接到你的 VCS 库以观察代码更改。这样,开发人员仍然在 VCS 中管理迁移脚本,当他们提交新的迁移脚本时,Bytebase 将捕捉该事件并自动生成新的工单来应用该迁移脚本。 总结 毕竟,数据库版本控制也还是版本控制。开发人员希望以类似于管理代码变化的方式来管理数据库变更:就像 GitLab 和 GitHub一样,Bytebase 是为团队以类似 Git 的方式管理数据库变更而构建的。 💡 更多资讯,请关注 Bytebase 公号:Bytebase

资源下载

更多资源
优质分享App

优质分享App

近一个月的开发和优化,本站点的第一个app全新上线。该app采用极致压缩,本体才4.36MB。系统里面做了大量数据访问、缓存优化。方便用户在手机上查看文章。后续会推出HarmonyOS的适配版本。

Apache Tomcat

Apache Tomcat

Tomcat是Apache 软件基金会(Apache Software Foundation)的Jakarta 项目中的一个核心项目,由Apache、Sun 和其他一些公司及个人共同开发而成。因为Tomcat 技术先进、性能稳定,而且免费,因而深受Java 爱好者的喜爱并得到了部分软件开发商的认可,成为目前比较流行的Web 应用服务器。

JDK

JDK

JDK是 Java 语言的软件开发工具包,主要用于移动设备、嵌入式设备上的java应用程序。JDK是整个java开发的核心,它包含了JAVA的运行环境(JVM+Java系统类库)和JAVA工具。

Sublime Text

Sublime Text

Sublime Text具有漂亮的用户界面和强大的功能,例如代码缩略图,Python的插件,代码段等。还可自定义键绑定,菜单和工具栏。Sublime Text 的主要功能包括:拼写检查,书签,完整的 Python API , Goto 功能,即时项目切换,多选择,多窗口等等。Sublime Text 是一个跨平台的编辑器,同时支持Windows、Linux、Mac OS X等操作系统。