首页 文章 精选 留言 我的

精选列表

搜索[快速],共10000篇文章
优秀的个人博客,低调大师

有了这个神器,快速告别垃圾短信邮件

前言 在日常生活中,我们时常会接收到一些垃圾短信和邮件,造成这种原因就是因为我们使用自己的手机号码在App上 注册了账号,导致手机号泄露,成为了别人发财的工具。 一、如何避免接收垃圾短信 众所周知,针对短信和邮箱都有相应的屏蔽号码或者是邮箱号的设置,但是并不是很智能。因为我们永远不知道下一秒钟究竟会是哪个大佬来光顾我们。一个一个去设置显得太麻烦,这里给大家介绍两个平台,超级好用。既不用担心泄露手机号码,也不会再接收到垃圾短信和邮件了。 Top 1.云短信 神器地址: https://www.materialtools.com/?page=1 它可以代替你的手机号进行注册,并且也会和接收到验证码,你只需要把上面能用的手机号输入到你想注册的app里面,然后发送验证就可以了。 不过,它有一个缺陷就是我们用的手机号接收的验证码它会显示在这上面,基本所有用这个神器的人都能看到,就给人一种毫无隐私可言的感觉。不过为了能不接收垃圾短信,也无妨,毕竟问题不大。 可以看到这是最近一段时间申请注册的平台名和时间。 这里可以看到已经有这么多人使用了,可见这个神器还是挺受欢迎的。有了这款神奇妈妈再也不用担心我会被人骚扰了。 Top 2.10分钟邮箱 神器地址: http://24mail.chacuo.net/ 看到这里大家想必应该能望文生义吧,其实它也是相当于云短信一样的功能,只是它的强大之处在于它是替换的邮箱号,而云短信则是专注手机短信领域方面,二者虽领域不同,但功能差不多,都是使用虚拟的号码来代替真实的号码在注册,这样以后再也不用担心别人发骚扰信息了,感觉世界会清净许多,下面我们来看下它的界面: 可以看到它目前支持两种邮箱后缀,一个是027168还有一个是chacuo。这里邮箱的获取方式有三种: 1.手动刷新 2.自动刷新 3.自定义邮箱 其中第三种方法最灵活,你想用什么奇葩的邮箱名都可以,比如小编想了一个好名字: ”哎呦不错哦@chacuo.net“,设置好后可以看到: 这样就完成了我们的个性化邮箱了。要注意的是,你的邮箱申请注册后它会提示你的邮箱是否可用,如果提示不可用就重新再设置一个,虽然很好用,但是遗憾的是,这个邮箱号只能保存十分钟,十分钟过后会自动销毁,所以要是用这个邮箱号接收到什么重要的邮件那就赶紧保存吧,免得造成损失了责怪小编没提醒你。 总结 通过对上面两个神器的了解,相信任何人用上了它们,都会给你的日常生活带来更好的感觉,不知道你是怎么认为的了?又或者你还有什么有趣的神器了?欢迎下方评论区留言。 看完本文有收获?请转发分享给更多的人 IT共享之家 入群请在微信后台回复【入群】 ------------------- End ------------------- 往期精彩文章推荐: 一篇文章教会你用Python抓取抖音app热点数据 一篇文章教会你使用Python定时抓取微博评论 手把手教你使用Python抓取QQ音乐数据(第四弹) 想要学习更多,请前往Python爬虫与数据挖掘专用网站:http://pdcfighting.com/

优秀的个人博客,低调大师

Redis快速入门,学会这15点,真的够用了!

1、Redis简介 REmote DIctionary Server(Redis)是一个由Salvatore Sanfilippo写的key-value存储系统。Redis是一个开源的使用ANSI C语言编写、遵守BSD协议、支持网络、可基于内存亦可持久化的日志型、Key-Value数据库,并提供多种语言的API。它通常被称为数据结构服务器,因为值(value)可以是 字符串(String), 哈希(Map), 列表(list), 集合(sets) 和 有序集合(sorted sets)等类型。 大家都知道了redis是基于key-value的no sql数据库,因此,先来了解一下关于key相关的知识点 1、任何二进制的序列都可以作为key使用 2、Redis有统一的规则来设计key 3、对key-value允许的最大长度是512MB 2、支持的语言 ActionScript Bash C C# C++ Clojure Common LispCrystal D Dart Elixir emacs lisp Erlang Fancy gawk GNU Prolog Go Haskell Haxe Io Java Javascript Julia Lua Matlab mruby Nim Node.js Objective-C OCaml Pascal Perl PHP Pure Data Python R Racket Rebol Ruby Rust Scala Scheme Smalltalk Swift Tcl VB VCL 3、Redis的应用场景到底有哪些?? 1、最常用的就是会话缓存 2、消息队列,比如支付 3、活动排行榜或计数 4、发布、订阅消息(消息通知) 5、商品列表、评论列表等 4、Redis安装 关于redis安装与相关的知识点介绍请参考 Nosql数据库服务之redis 安装的大概步骤如下: Redis是c语言开发的,安装redis需要c语言的编译环境 如果没有gcc需要在线安装:yum install gcc-c++ 第一步:获取源码包:wget http://download.redis.io/rele... 第二步:解压缩redis:tar zxvf redis-3.0.0.tar.gz 第三步:编译。进入redis源码目录(cd redis-3.0.0)。执行 make 第四步:安装。make install PREFIX=/usr/local/redis PREFIX参数指定redis的安装目录 5、Redis数据类型 Redis一共支持五种数据类型 1、string(字符串) 2、hash(哈希) 3、list(列表) 4、set(集合) 5、zset(sorted set 有序集合) string(字符串) 它是redis最基本的数据类型,一个key对应一个value,需要注意是一个键值最大存储512MB。 127.0.0.1:6379> set key "hello world" OK 127.0.0.1:6379> get key "hello world" 127.0.0.1:6379> getset key "nihao" "hello world" 127.0.0.1:6379> mset key1 "hi" key2 "nihao" key3 "hello" OK 127.0.0.1:6379> get key1 "hi" 127.0.0.1:6379> get key2 "nihao" 127.0.0.1:6379> get key3 "hello" 相关命令介绍 set 为一个Key设置value(值) get 获得某个key对应的value(值) getset 为一个Key设置value(值)并返回对应的值 mset 为多个key设置value(值) hash(哈希) redis hash是一个键值对的集合, 是一个string类型的field和value的映射表,适合用于存储对象 127.0.0.1:6379> hset redishash 1 "001" (integer) 1 127.0.0.1:6379> hget redishash 1 "001" 127.0.0.1:6379> hmset redishash 1 "001" 2 "002" OK 127.0.0.1:6379> hget redishash 1 "001" 127.0.0.1:6379> hget redishash 2 "002" 127.0.0.1:6379> hmget redishash 1 2 1) "001" 2) "002" 相关命令介绍 hset 将Key对应的hash中的field配置为value,如果hash不存则自动创建, hget 获得某个hash中的field配置的值 hmset 批量配置同一个hash中的多个field值 hmget 批量获得同一个hash中的多个field值 list(列表) 是redis简单的字符串列表,它按插入顺序排序 127.0.0.1:6379> lpush word hi (integer) 1 127.0.0.1:6379> lpush word hello (integer) 2 127.0.0.1:6379> rpush word world (integer) 3 127.0.0.1:6379> lrange word 0 2 1) "hello" 2) "hi" 3) "world" 127.0.0.1:6379> llen word (integer) 3 相关命令介绍 lpush 向指定的列表左侧插入元素,返回插入后列表的长度 rpush 向指定的列表右侧插入元素,返回插入后列表的长度 llen 返回指定列表的长度 lrange 返回指定列表中指定范围的元素值 set(集合) 是string类型的无序集合,也不可重复 127.0.0.1:6379> sadd redis redisset (integer) 1 127.0.0.1:6379> sadd redis redisset1 (integer) 1 127.0.0.1:6379> sadd redis redisset2 (integer) 1 127.0.0.1:6379> smembers redis 1) "redisset1" 2) "redisset" 3) "redisset2" 127.0.0.1:6379> sadd redis redisset2 (integer) 0 127.0.0.1:6379> smembers redis 1) "redisset1" 2) "redisset" 3) "redisset2" 127.0.0.1:6379> smembers redis 1) "redisset1" 2) "redisset3" 3) "redisset" 4) "redisset2" 127.0.0.1:6379> srem redis redisset (integer) 1 127.0.0.1:6379> smembers redis 1) "redisset1" 2) "redisset3" 3) "redisset2" 相关命令介绍 sadd 添加一个string元素到key对应的set集合中,成功返回1,如果元素存在返回0 smembers 返回指定的集合中所有的元素 srem 删除指定集合的某个元素 zset(sorted set 有序集合) 是string类型的有序集合,也不可重复 sorted set中的每个元素都需要指定一个分数,根据分数对元素进行升序排序,如果多个元素有相同的分数,则以字典序进行升序排序,sorted set 因此非常适合实现排名 127.0.0.1:6379> zadd nosql 0 001 (integer) 1 127.0.0.1:6379> zadd nosql 0 002 (integer) 1 127.0.0.1:6379> zadd nosql 0 003 (integer) 1 127.0.0.1:6379> zcount nosql 0 0 (integer) 3 127.0.0.1:6379> zcount nosql 0 3 (integer) 3 127.0.0.1:6379> zrem nosql 002 (integer) 1 127.0.0.1:6379> zcount nosql 0 3 (integer) 2 127.0.0.1:6379> zscore nosql 003 "0" 127.0.0.1:6379> zrangebyscore nosql 0 10 1) "001" 2) "003" 127.0.0.1:6379> zadd nosql 1 003 (integer) 0 127.0.0.1:6379> zadd nosql 1 004 (integer) 1 127.0.0.1:6379> zrangebyscore nosql 0 10 1) "001" 2) "003" 3) "004" 127.0.0.1:6379> zadd nosql 3 005 (integer) 1 127.0.0.1:6379> zadd nosql 2 006 (integer) 1 127.0.0.1:6379> zrangebyscore nosql 0 10 1) "001" 2) "003" 3) "004" 4) "006" 5) "005" 相关命令介绍 zadd 向指定的sorteset中添加1个或多个元素 zrem 从指定的sorteset中删除1个或多个元素 zcount 查看指定的sorteset中指定分数范围内的元素数量 zscore 查看指定的sorteset中指定分数的元素 zrangebyscore 查看指定的sorteset中指定分数范围内的所有元素 6、键值相关的命令 127.0.0.1:6379> exists key (integer) 1 127.0.0.1:6379> exists key1 (integer) 1 127.0.0.1:6379> exists key100 (integer) 0 127.0.0.1:6379> get key "nihao,hello" 127.0.0.1:6379> get key1 "hi" 127.0.0.1:6379> del key1 (integer) 1 127.0.0.1:6379> get key1 (nil) 127.0.0.1:6379> rename key key0 OK 127.0.0.1:6379> get key(nil) 127.0.0.1:6379> get key0 "nihao,hello" 127.0.0.1:6379> type key0 string exists #确认key是否存在 del #删除key expire #设置Key过期时间(单位秒) persist #移除Key过期时间的配置 rename #重命名key type #返回值的类型 7、Redis服务相关的命令 127.0.0.1:6379> select 0 OK 127.0.0.1:6379> info # Server redis_version:3.0.6 redis_git_sha1:00000000 redis_git_dirty:0 redis_build_id:347e3eeef5029f3 redis_mode:standalone os:Linux 3.10.0-693.el7.x86_64 x86_64 arch_bits:64 multiplexing_api:epoll gcc_version:4.8.5 process_id:31197 run_id:8b6ec6ad5035f5df0b94454e199511084ac6fb12 tcp_port:6379 uptime_in_seconds:8514 uptime_in_days:0 hz:10 lru_clock:14015928 config_file:/usr/local/redis/redis.conf -------------------省略N行 127.0.0.1:6379> CONFIG GET 0 (empty list or set) 127.0.0.1:6379> CONFIG GET 15 (empty list or set) slect #选择数据库(数据库编号0-15) quit #退出连接 info #获得服务的信息与统计 monitor #实时监控 config get #获得服务配置 flushdb #删除当前选择的数据库中的key flushall #删除所有数据库中的key 8、Redis的发布与订阅 Redis发布与订阅(pub/sub)是它的一种消息通信模式,一方发送信息,一方接收信息。 下图是三个客户端同时订阅同一个频道 下图是有新信息发送给频道1时,就会将消息发送给订阅它的三个客户端 9、Redis事务 Redis事务可以一次执行多条命令 1、发送exec命令前放入队列缓存,结束事务 2、收到exec命令后执行事务操作,如果某一命令执行失败,其它命令仍可继续执行 3、一个事务执行的过程中,其它客户端提交的请求不会被插入到事务执行的命令列表中 一个事务经历三个阶段 开始事务(命令:multi) 命令执行 结束事务(命令:exec) 127.0.0.1:6379> MULTI OK 127.0.0.1:6379> set key key1 QUEUED 127.0.0.1:6379> get key QUEUED 127.0.0.1:6379> rename key key001 QUEUED 127.0.0.1:6379> exec OK "key1" OK 10、Redis安全配置 可以通过修改配置文件设备密码参数来提高安全性 #requirepass foobared 去掉注释#号就可以配置密码 没有配置密码的情况下查询如下 127.0.0.1:6379> CONFIG GET requirepass 1) "requirepass" 2) "" 配置密码之后,就需要进行认证 127.0.0.1:6379> CONFIG GET requirepass (error) NOAUTH Authentication required. 127.0.0.1:6379> AUTH foobared #认证OK 127.0.0.1:6379> CONFIG GET requirepass 1) "requirepass" 2) "foobared" 11、Redis持久化 Redis持久有两种方式:Snapshotting(快照),Append-only file(AOF) Snapshotting(快照) 1、将存储在内存的数据以快照的方式写入二进制文件中,如默认dump.rdb中 2、save 900 1 #900秒内如果超过1个Key被修改,则启动快照保存 3、save 300 10 #300秒内如果超过10个Key被修改,则启动快照保存 4、save 60 10000 #60秒内如果超过10000个Key被修改,则启动快照保存 Append-only file(AOF) 1、使用AOF持久时,服务会将每个收到的写命令通过write函数追加到文件中(appendonly.aof) 2、AOF持久化存储方式参数说明 appendonly yes #开启AOF持久化存储方式 appendfsync always #收到写命令后就立即写入磁盘,效率最差,效果最好 appendfsync everysec #每秒写入磁盘一次,效率与效果居中 appendfsync no #完全依赖OS,效率最佳,效果没法保证 12、Redis 性能测试 自带相关测试工具 [root@test ~]# redis-benchmark --help Usage: redis-benchmark [-h <host>] [-p <port>] [-c <clients>] [-n <requests]> [-k <boolean>] -h <hostname> Server hostname (default 127.0.0.1) -p <port> Server port (default 6379) -s <socket> Server socket (overrides host and port) -a <password> Password for Redis Auth -c <clients> Number of parallel connections (default 50) -n <requests> Total number of requests (default 100000) -d <size> Data size of SET/GET value in bytes (default 2) -dbnum <db> SELECT the specified db number (default 0) -k <boolean> 1=keep alive 0=reconnect (default 1) -r <keyspacelen> Use random keys for SET/GET/INCR, random values for SADD Using this option the benchmark will expand the string __rand_int__ inside an argument with a 12 digits number in the specified range from 0 to keyspacelen-1. The substitution changes every time a command is executed. Default tests use this to hit random keys in the specified range. -P <numreq> Pipeline <numreq> requests. Default 1 (no pipeline). -q Quiet. Just show query/sec values --csv Output in CSV format -l Loop. Run the tests forever -t <tests> Only run the comma separated list of tests. The test names are the same as the ones produced as output. -I Idle mode. Just open N idle connections and wait. Examples: Run the benchmark with the default configuration against 127.0.0.1:6379: $ redis-benchmark Use 20 parallel clients, for a total of 100k requests, against 192.168.1.1: $ redis-benchmark -h 192.168.1.1 -p 6379 -n 100000 -c 20 Fill 127.0.0.1:6379 with about 1 million keys only using the SET test: $ redis-benchmark -t set -n 1000000 -r 100000000 Benchmark 127.0.0.1:6379 for a few commands producing CSV output: $ redis-benchmark -t ping,set,get -n 100000 --csv Benchmark a specific command line: $ redis-benchmark -r 10000 -n 10000 eval 'return redis.call("ping")' 0 Fill a list with 10000 random elements: $ redis-benchmark -r 10000 -n 10000 lpush mylist __rand_int__ On user specified command lines __rand_int__ is replaced with a random integer with a range of values selected by the -r option. 实际测试同时执行100万的请求 [root@test ~]# redis-benchmark -n 1000000 -q PING_INLINE: 152578.58 requests per second PING_BULK: 150308.14 requests per second SET: 143266.47 requests per second GET: 148632.58 requests per second INCR: 145857.64 requests per second LPUSH: 143781.45 requests per second LPOP: 147819.66 requests per second SADD: 138350.86 requests per second SPOP: 134282.27 requests per second LPUSH (needed to benchmark LRANGE): 141302.81 requests per second LRANGE_100 (first 100 elements): 146756.67 requests per second LRANGE_300 (first 300 elements): 148104.27 requests per second LRANGE_500 (first 450 elements): 152671.75 requests per second LRANGE_600 (first 600 elements): 148104.27 requests per second MSET (10 keys): 132731.62 requests per second 13、Redis的备份与恢复 Redis自动备份有两种方式 第一种是通过dump.rdb文件实现备份 第二种使用aof文件实现自动备份 dump.rdb备份 Redis服务默认的自动文件备份方式(AOF没有开启的情况下),在服务启动时,就会自动从dump.rdb文件中去加载数据。 #具体配置在redis.conf save 900 1 save 300 10 save 60 10000 也可以手工执行save命令实现手动备份 127.0.0.1:6379> set name key OK 127.0.0.1:6379> SAVE OK 127.0.0.1:6379> set name key1 OK 127.0.0.1:6379> BGSAVE Background saving started redis快照到dump文件时,会自动生成dump.rdb的文件 # The filename where to dump the DB dbfilename dump.rdb -rw-r--r-- 1 root root 253 Apr 17 20:17 dump.rdb SAVE命令表示使用主进程将当前数据库快照到dump文件 BGSAVE命令表示,主进程会fork一个子进程来进行快照备份 两种备份不同之处,前者会阻塞主进程,后者不会。 恢复举例 # Note that you must specify a directory here, not a file name.dir /usr/local/redisdata/ #备份文件存储路径 127.0.0.1:6379> CONFIG GET dir 1) "dir" 2) "/usr/local/redisdata" 127.0.0.1:6379> set key 001 OK 127.0.0.1:6379> set key1 002 OK 127.0.0.1:6379> set key2 003 OK 127.0.0.1:6379> save OK 将备份文件备份到其它目录 [root@test ~]# ll /usr/local/redisdata/ total 4 -rw-r--r-- 1 root root 49 Apr 17 21:24 dump.rdb [root@test ~]# date Tue Apr 17 21:25:38 CST 2018 [root@test ~]# cp ./dump.rdb /tmp/ 删除数据 127.0.0.1:6379> del key1 (integer) 1 127.0.0.1:6379> get key1 (nil) 关闭服务,将原备份文件拷贝回save备份目录 [root@test ~]# redis-cli -a foobared shutdown [root@test ~]# lsof -i :6379 [root@test ~]# cp /tmp/dump.rdb /usr/local/redisdata/ cp: overwrite ‘/usr/local/redisdata/dump.rdb’? y [root@test ~]# redis-server /usr/local/redis/redis.conf & [1] 31487 登录查看数据是否恢复 [root@test ~]# redis-cli -a foobared 127.0.0.1:6379> mget key key1 key2 1) "001" 2) "002" 3) "003" AOF自动备份 redis服务默认是关闭此项配置 ###### APPEND ONLY MODE ########## appendonly no # The name of the append only file (default: "appendonly.aof") appendfilename "appendonly.aof" # appendfsync always appendfsync everysec # appendfsync no 配置文件的相关参数,前面已经详细介绍过。 AOF文件备份,是备份所有的历史记录以及执行过的命令,和mysql binlog很相似,在恢复时就是重新执次一次之前执行的命令,需要注意的就是在恢复之前,和数据库恢复一样需要手工删除执行过的del或误操作的命令。 AOF与dump备份不同 1、aof文件备份与dump文件备份不同 2、服务读取文件的优先顺序不同,会按照以下优先级进行启动 如果只配置AOF,重启时加载AOF文件恢复数据 如果同时 配置了RBD和AOF,启动是只加载AOF文件恢复数据 如果只配置RBD,启动时将加载dump文件恢复数据 注意:只要配置了aof,但是没有aof文件,这个时候启动的数据库会是空的 14、Redis 生产优化介绍 1、内存管理优化 hash-max-ziplist-entries 512 hash-max-ziplist-value 64 list-max-ziplist-entries 512 list-max-ziplist-value 64 #list的成员与值都不太大的时候会采用紧凑格式来存储,相对内存开销也较小 在linux环境运行Redis时,如果系统的内存比较小,这个时候自动备份会有可能失败,需要修改系统的vm.overcommit_memory 参数,这个参数是linux系统的内存分配策略 0 表示内核将检查是否有足够的可用内存供应用进程使用;如果有足够的可用内存,内存申请允许;否则,内存申请失败,并把错误返回给应用进程。 1 表示内核允许分配所有的物理内存,而不管当前的内存状态如何。 2 表示内核允许分配超过所有物理内存和交换空间总和的内存 Redis官方的说明是,建议将vm.overcommit_memory的值修改为1,可以用下面几种方式进行修改: (1)编辑/etc/sysctl.conf 改vm.overcommit_memory=1,然后sysctl -p 使配置文件生效 (2)sysctl vm.overcommit_memory=1 (3)echo 1 > /proc/sys/vm/overcommit_memory 2、内存预分配 3、持久化机制 定时快照:效率不高,会丢失数据 AOF:保持数据完整性(一个实例的数量不要太大2G最大) 优化总结 1)根据业务需要选择合适的数据类型 2)当业务场景不需持久化时就关闭所有持久化方式(采用ssd磁盘来提升效率) 3)不要使用虚拟内存的方式,每秒实时写入AOF 4)不要让REDIS所在的服务器物理内存使用超过内存总量的3/5 5)要使用maxmemory 6)大数据量按业务分开使用多个redis实例 15、Redis集群应用 集群是将多个redis实例集中在一起,实现同一业务需求,或者实现高可用与负载均衡 到底有哪些集群方案呢?? 1、haproxy+keepalived+redis集群 1)通过redis的配置文件,实现主从复制、读写分离 2)通过haproxy的配置,实现负载均衡,当从故障时也会及时从集群中T除 3)利用keepalived来实现负载的高可用 2、redis官方Sentinel集群管理工具 Redis集群生产环境高可用方案实战过程 1)sentinel负责对集群中的主从服务监控、提醒和自动故障转移 2)redis集群负责对外提供服务 关于redis sentinel cluster集群配置可参考 3、Redis Cluster Redis Cluster是Redis的分布式解决方案,在Redis 3.0版本正式推出的,有效解决了Redis分布式方面的需求。当遇到单机内存、并发、流量等瓶颈时,可以采用Cluster架构达到负载均衡的目的。 1)官方推荐,毋庸置疑。 2)去中心化,集群最大可增加1000个节点,性能随节点增加而线性扩展。 3)管理方便,后续可自行增加或摘除节点,移动分槽等等。 4)简单,易上手。

优秀的个人博客,低调大师

一分钟快速了解边缘计算

无论IT端还是OT端的主流厂商都将目光聚焦在了“边缘计算”这个焦点上,边缘计算(Edge computing)是相对云计算而言的,它是指收集并分析数据的行为发生在靠近数据生成的本地设备和网络中。边缘计算又被叫做分布式云计算、雾计算或第四代数据中心。 1、什么是边缘计算 边缘计算是接近事物,或者将是在数据和行动源头进行的,更靠近设备端和用户。像一只八爪鱼,有两个强大的记忆系统:云计算是大脑记忆系统,边缘计算是八个爪子上的吸盘。也就是说,云计算就像章鱼大脑只有一个,而边缘计算有八条腿可以思考并解决问题,一个爪子就是一个小型机房,靠近具体实物。 2、为什么需要边缘计算 到2020年,互联网会有500亿用户,每天产生大约几PB的数据,如果这些数据直接上传数据中心进行处理,不仅会浪费巨大的网络带宽,也会给存储带来负担。如果有了边缘计算,那么别人还在加载不出来,你缺已经下载完一部几百兆电影,就很快乐。所以也可以说,边缘计算和5G是相辅相成。 3、边缘计算应用场景 边缘计算在物联网时代不断增长的数据催生了需求,边缘计算的典型应用场景有:工业制造、安全监控、ARVR、智能交通、自动驾驶、智慧家居、智慧城市、智慧路灯、风力发电、医疗保健、无人机等。

资源下载

更多资源
优质分享App

优质分享App

近一个月的开发和优化,本站点的第一个app全新上线。该app采用极致压缩,本体才4.36MB。系统里面做了大量数据访问、缓存优化。方便用户在手机上查看文章。后续会推出HarmonyOS的适配版本。

Mario

Mario

马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。

腾讯云软件源

腾讯云软件源

为解决软件依赖安装时官方源访问速度慢的问题,腾讯云为一些软件搭建了缓存服务。您可以通过使用腾讯云软件源站来提升依赖包的安装速度。为了方便用户自由搭建服务架构,目前腾讯云软件源站支持公网访问和内网访问。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

用户登录
用户注册