首页 文章 精选 留言 我的

精选列表

搜索[部署],共10000篇文章
优秀的个人博客,低调大师

ERD Online 4.0.4 发布,元数据在线建模(免费、私有部署

❝ fix(erd): 修改表名、模块名自定义提示 fix(erd): 支持自定义表名显示格式 fix(erd): 升级ant到5.0.1版本 fix(erd): 修复PDMan导入类型列为空 fix(erd): 增加类型列宽度,避免类型显示不全 fix(erd): 修复表设计报undefine异常 fix(erd): 修复版本比对,出现杂乱sql fix(erd): 修复表字段使用了数据库关键字导致不能执行 fix(erd): 修复同步数据源,获取的sql脚本不正确 fix(erd): 修复数据库逆向解析的模块,修改结构导致表清空 fix(erd): 修复无法重建基线bug,修复初始化基线sql脚本不一致问题 fix(erd): 修复模板编辑页光标会随着输入消失 fix(erd): 修改默认字段为小写 fix(erd): 增加本地启动环境变量 ❞ 变化一览 表名显示支持自定义,可以显示英文+中文 修复模板渲染bug 修复版本变更信息不准确 版本列表 版本比对 交流渠道 官方论坛:https://www.zerocode.net.cn/ ERD Online文档:https://portal.zerocode.net.cn/ ERD Online体验:https://erd.zerocode.net.cn/ 低代码LOCO体验:https://loco.zerocode.net.cn/

优秀的个人博客,低调大师

Gitea 1.15.0 发布,一键部署的自助 Git 服务

Gitea 1.15.0 现已发布,该版本合并了 488 个拉取请求。 部分更新内容 BREAKING 升级到最新版本的 golang-jwt,并且go 升级到 1.15 更改了 :latest 在 docker 上的映射 更严格的 app.ini 权限,Gitea 创建这个文件时,app.ini 的默认文件权限模式已更改为 -rw------- Webhook重构。Webhook 有效负载已更改,因此 Secret 字段不再作为有效负载的一部分传递,并且历史记录显示了在 Webhook 中发送的真实 URL 添加了非对称 JWT 签名密,Gitea 将默认使用非对称密钥对进行 JWT 签名 清理 issue_indexer 队列的设置层次结构 将默认队列设置更改为低 go-routines 合并资产处理中间件 将 StaticUrlPrefix 重命名为 AssetUrlPrefix,具有使用 StaticUrlPrefix 的自定义模板的管理员将需要更新这些模板以使用 AssetUrlPrefi 使用标记类来渲染外部标记 将节点更新到 v12 添加 /assets 作为公共文件的根目录 使 Markdown 中的链接绝对指向存储库而不是服务器 继承子日志部分的日志级别 SECURITY 使用 SECRET_KEY 加密 db 中的 LDAP 绑定密码 删除 Dockerfiles 中的随机密码 正确创建 git-daemon-export-ok 文件 不在探索视图中显示私人用户的存储库 更新节点 tar 依赖到 6.1.6 FEATURES 更新 Go-Git 以利用 LargeObjectThreshold 支持文本文件的自定义 mime 类型映射 添加 LRU 内存缓存实现 本地化电子邮件模板 将授权密钥中的命令设为模板 添加在分支页面中创建分支的可能性 添加电子邮件标题 使任务列表复选框可点击 在比较页面上添加选择标签 添加 cron 作业以从数据库中删除旧操作 在打开的存储库上打开通用 cat 文件批处理和批处理检查 添加标签保护 添加推送到远程镜像仓库 为 SVG 文件添加图像差异 添加 LFS 迁移和镜像 改进 WIP 草案 PR 的通知 禁用 Stars 配置选项 使用签名令牌进行 GPG 密钥所有权验证 OAuth2 自动注册 更多详细内容,请查看更新公告。

优秀的个人博客,低调大师

Rainbond 部署的应用自动接入 CDN 进行静态资源分发

本文档适合的场景是:解决因分布、带宽、服务器性能带来的访问延迟问题,将运行于 Rainbond 的 Nodejs 前端项目进行动静分离,通过 阿里云CDN 加速 对象存储OSS 中的静态资源,提升用户访问速度。 实现原理:Rainbond 支持 Nodejs 前端项目的源码构建,在项目CI 结束后通过自定义脚本自动将静态文件(css,js,img等)推送至 对象存储OSS ,使用阿里云 CDN 对 对象存储OSS 中的静态资源进行加速,实现动静分离,有效提升内容加载速度。 操作步骤 Demo:好雨科技 Rainbond 前端开源项目 Rainbond-ui 推送静态文件 npm 是 Nodejs 的包管理器,提供了 pre 和 post 两种钩子,对于任何在 package.json 的 scripts 字段中定义的命令,可以通过 pre 以及 post 名称前缀,额外定义该任务在执行前、后的额外执行的钩子命令。例如: "postbuild" 中定义了在编译后需要执行的脚本 cdn_release.sh 项目package.json文件 { "name": "rainbond-ui", "version": "5.3.0", "description": "rainbond front-end project.", "private": true, "scripts": { "start": "umi dev", "start:no-mock": "cross-env MOCK=none umi dev", "build": "umi build", "postbuild": "./cdn_release.sh", #在执行npm install之后,自动执行脚本cdn_release.sh "image": "umi build && docker build -t registry.cn-hangzhou.aliyuncs.com/goodrain/rainbond-ui:V5.2.1-pre-release .", "site": "roadhog-api-doc static && gh-pages -d dist", "analyze": "cross-env ANALYZE=true roadhog build" }, 该脚本做了两件事: 1.安装 OSS 命令行工具 ossutil,如果对接其他CDN服务,安装不同的文件上传工具。 2.将源码编译后的静态文件以日期分割推送至OSS,如果其他即推送到对应的CDN服务。 一般同一个代码在开发测试阶段不需要发布到CDN,可以使用环境变量ENABLE_CDN控制是否开启CDN加速,在生产环境中设置该变量。 环境变量CDN_ACCESS_KEY_ID``CDN_ACCESS_KEY_SECRET定义阿里云OSS账户信息,其他CDN服务以类似方式进行定义。 cdn_release.sh脚本 #!/bin/bash osstool="./ossutil64" os=$(uname -s) osstool_install() { if [ ! -f ${osstool} ]; then echo "installing ossutil binary" if [ "$os" == "Darwin" ]; then wget http://gosspublic.alicdn.com/ossutil/1.6.14/ossutilmac64 -O ${osstool} else wget http://gosspublic.alicdn.com/ossutil/1.6.3/ossutil64 -O ${osstool} fi chmod +x ${osstool} cat >~/.ossutilconfig <<EOF [Credentials] language=CH endpoint=http://oss-cn-shanghai.aliyuncs.com accessKeyID=${CDN_ACCESS_KEY_ID} accessKeySecret=${CDN_ACCESS_KEY_SECRET} EOF fi } if [ "${ENABLE_CDN}" == 'true' ]; then echo "Upload static file to oss" osstool_install now_day=$(date '+%Y-%m-%d') ${osstool} mkdir "oss://grstatic/cdn-demo/publish/${now_day}/" ${osstool} cp -u -r dist/ "oss://grstatic/cdn-demo/publish/${now_day}/" fi 定义访问路径 静态资源推送至OSS以后,需要修改项目 css,js,img 资源访问路径,否则后续客户端的请求依然会发送至源站。 依然采用环境变量ENABLE_CDN的方式进行控制,如果在编译过程中检测到该环境变量值为true,则访问路径为OSS中的静态资源文件。 项目config.js文件 import defaultSettings from '../src/defaultSettings'; import routerConfig from './router.config'; import moment from 'moment'; const dayFormat = moment(new Date()) .locale('zh-cn') .format('YYYY-MM-DD'); let publcPath = '/static/dists/'; if (process.env.SEPARATION === 'true') { publcPath = `/`; } if (process.env.ENABLE_CDN === 'true') { //如果ENABLE_CDN环境变量的值为true,则路径如下 publcPath = `https://static.goodrain.com/cdn-demo/publish/${dayFormat}/`; } 使用该项目在平台中进行编译,编译过程中添加以下环境变量 环境变量 值 简介 BUILD_ENABLE_CDN true 是否开启CDN BUILD_CDN_ACCESS_KEY_ID 阿里云OSS Access key BUILD_CDN_ACCESS_KEY_SECRET 阿里云OSS Access secret 请注意,使用 BUILD_ 为前缀的变量在Rainbond中寓意是在构建阶段生效,生效时会移除 BUILD_ 前缀。 阿里云CDN加速OSS资源 参考 通过CDN加速OSS资源 进行阿里云CDN的配置,对静态资源进行缓存,配置完成后客户端访问 css,js,img 资源时将会优先从CDN获取。

优秀的个人博客,低调大师

1.20版本k8s简单部署教程

准备两台机器 主机名 IP 角色 test160 192.168.100.122 master test161 192.168.100.125 node 一、准备工作 1、两台机器关闭selinux,防火墙,交换分区 2、添加hosts [root@test160~]#vim/etc/hosts 127.0.0.1localhostlocalhost.localdomainlocalhost4localhost4.localdomain4 ::1localhostlocalhost.localdomainlocalhost6localhost6.localdomain6 192.168.100.125test161 [root@test161~]#vim/etc/hosts 127.0.0.1localhostlocalhost.localdomainlocalhost4localhost4.localdomain4 ::1localhostlocalhost.localdomainlocalhost6localhost6.localdomain6 185.199.110.153kubernetes.github.io 192.168.100.122test160 3、两台机添加kubelet 、docker yum源 [root@test160~]#cat/etc/yum.repos.d/kubernetes.repo [kubernetes] name=Kubernetes baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64 enabled=1 gpgcheck=0 repo_gpgcheck=0 gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg [root@test160~]#yumlist|grepkube cockpit-kubernetes.x86_64195.12-1.el7.centosextras cri-tools.x86_641.13.0-0kubernetes kubeadm.x86_641.20.5-0kubernetes kubectl.x86_641.20.5-0kubernetes kubelet.x86_641.20.5-0kubernetes kubernetes.x86_641.5.2-0.7.git269f928.el7extras kubernetes-client.x86_641.5.2-0.7.git269f928.el7extras kubernetes-cni.x86_640.8.7-0kubernetes kubernetes-master.x86_641.5.2-0.7.git269f928.el7extras kubernetes-node.x86_641.5.2-0.7.git269f928.el7extras rkt.x86_641.27.0-1kubernetes rsyslog-mmkubernetes.x86_648.24.0-57.el7_9updates [root@test160k8s]#cat/etc/yum.repos.d/docker-ce.repo [docker-ce-stable] name=DockerCEStable-$basearch baseurl=https://download.docker.com/linux/centos/$releasever/$basearch/stable enabled=1 gpgcheck=1 gpgkey=https://download.docker.com/linux/centos/gpg 4、安装,各节点 yuminstall-ycri-toolskubeadmkubectlkubeletkubernetes-cnirkt.x86_64docker-ce cat>/etc/sysconfig/kubelet<<EOF KUBELET_EXTRA_ARGS="--pod-infra-container-image=registry.cn-hangzhou.aliyuncs.com/google_containers/pause-amd64:3.2" EOF systemctldaemon-reload 5、启动 [root@test160~]#systemctlenabledocker Createdsymlinkfrom/etc/systemd/system/multi-user.target.wants/docker.serviceto/usr/lib/systemd/system/docker.service. [root@test160~]#systemctlstartdocker [root@test160~]#systemctlstartkubelet.service [root@test160~]#systemctlenablekubelet.service Createdsymlinkfrom/etc/systemd/system/multi-user.target.wants/kubelet.serviceto/usr/lib/systemd/system/kubelet.service. 6、所有节点配置k8s内核参数 cat<<EOF>/etc/sysctl.d/k8s.conf net.ipv4.ip_forward=1 net.bridge.bridge-nf-call-iptables=1 net.bridge.bridge-nf-call-ip6tables=1 fs.may_detach_mounts=1 vm.overcommit_memory=1 vm.panic_on_oom=0 fs.inotify.max_user_watches=89100 fs.file-max=52706963 fs.nr_open=52706963 net.netfilter.nf_conntrack_max=2310720 net.ipv4.tcp_keepalive_time=600 net.ipv4.tcp_keepalive_probes=3 net.ipv4.tcp_keepalive_intvl=15 net.ipv4.tcp_max_tw_buckets=36000 net.ipv4.tcp_tw_reuse=1 net.ipv4.tcp_max_orphans=327680 net.ipv4.tcp_orphan_retries=3 net.ipv4.tcp_syncookies=1 net.ipv4.tcp_max_syn_backlog=16384 net.ipv4.ip_conntrack_max=65536 net.ipv4.tcp_max_syn_backlog=16384 net.ipv4.tcp_timestamps=0 net.core.somaxconn=16384 EOF sysctl--system 7、在master初始化集群 [root@test160~]#catnew.yaml apiVersion:kubeadm.k8s.io/v1beta2 bootstrapTokens: -groups: -system:bootstrappers:kubeadm:default-node-token token:7t2weq.bjbawausm0jaxury ttl:24h0m0s usages: -signing -authentication kind:InitConfiguration localAPIEndpoint: advertiseAddress:192.168.100.122 bindPort:6443 nodeRegistration: criSocket:/var/run/dockershim.sock name:test160 taints: -effect:NoSchedule key:node-role.kubernetes.io/master --- apiServer: certSANs: -192.168.100.122 timeoutForControlPlane:4m0s apiVersion:kubeadm.k8s.io/v1beta2 certificatesDir:/etc/kubernetes/pki clusterName:kubernetes controlPlaneEndpoint:192.168.100.122:6443 controllerManager:{} dns: type:CoreDNS etcd: local: dataDir:/var/lib/etcd imageRepository:registry.cn-hangzhou.aliyuncs.com/google_containers kind:ClusterConfiguration kubernetesVersion:v1.20.4 networking: dnsDomain:cluster.local podSubnet:172.168.0.0/16 serviceSubnet:10.96.0.0/12 scheduler:{} [root@test160~]#kubeadminit--confignew.yaml--upload-certs [init]UsingKubernetesversion:v1.20.4 [preflight]Runningpre-flightchecks [WARNINGIsDockerSystemdCheck]:detected"cgroupfs"astheDockercgroupdriver.Therecommendeddriveris"systemd".Pleasefollowtheguideathttps://kubernetes.io/docs/setup/cri/ [WARNINGSystemVerification]:thisDockerversionisnotonthelistofvalidatedversions:20.10.5.Latestvalidatedversion:19.03 [WARNINGHostname]:hostname"test160"couldnotbereached [WARNINGHostname]:hostname"test160":lookuptest160on202.96.128.86:53:nosuchhost [preflight]PullingimagesrequiredforsettingupaKubernetescluster [preflight]Thismighttakeaminuteortwo,dependingonthespeedofyourinternetconnection [preflight]Youcanalsoperformthisactioninbeforehandusing'kubeadmconfigimagespull' [certs]UsingcertificateDirfolder"/etc/kubernetes/pki" [certs]Generating"ca"certificateandkey [certs]Generating"apiserver"certificateandkey [certs]apiserverservingcertissignedforDNSnames[kuberneteskubernetes.defaultkubernetes.default.svckubernetes.default.svc.cluster.localtest160]andIPs[10.96.0.1192.168.100.122] [certs]Generating"apiserver-kubelet-client"certificateandkey [certs]Generating"front-proxy-ca"certificateandkey [certs]Generating"front-proxy-client"certificateandkey [certs]Generating"etcd/ca"certificateandkey [certs]Generating"etcd/server"certificateandkey [certs]etcd/serverservingcertissignedforDNSnames[localhosttest160]andIPs[192.168.100.122127.0.0.1::1] [certs]Generating"etcd/peer"certificateandkey [certs]etcd/peerservingcertissignedforDNSnames[localhosttest160]andIPs[192.168.100.122127.0.0.1::1] [certs]Generating"etcd/healthcheck-client"certificateandkey [certs]Generating"apiserver-etcd-client"certificateandkey [certs]Generating"sa"keyandpublickey [kubeconfig]Usingkubeconfigfolder"/etc/kubernetes" [kubeconfig]Writing"admin.conf"kubeconfigfile [kubeconfig]Writing"kubelet.conf"kubeconfigfile [kubeconfig]Writing"controller-manager.conf"kubeconfigfile [kubeconfig]Writing"scheduler.conf"kubeconfigfile [kubelet-start]Writingkubeletenvironmentfilewithflagstofile"/var/lib/kubelet/kubeadm-flags.env" [kubelet-start]Writingkubeletconfigurationtofile"/var/lib/kubelet/config.yaml" [kubelet-start]Startingthekubelet [control-plane]Usingmanifestfolder"/etc/kubernetes/manifests" [control-plane]CreatingstaticPodmanifestfor"kube-apiserver" [control-plane]CreatingstaticPodmanifestfor"kube-controller-manager" [control-plane]CreatingstaticPodmanifestfor"kube-scheduler" [etcd]CreatingstaticPodmanifestforlocaletcdin"/etc/kubernetes/manifests" [wait-control-plane]WaitingforthekubelettobootupthecontrolplaneasstaticPodsfromdirectory"/etc/kubernetes/manifests".Thiscantakeupto4m0s [kubelet-check]Initialtimeoutof40spassed. [apiclient]Allcontrolplanecomponentsarehealthyafter67.501960seconds [upload-config]StoringtheconfigurationusedinConfigMap"kubeadm-config"inthe"kube-system"Namespace [kubelet]CreatingaConfigMap"kubelet-config-1.20"innamespacekube-systemwiththeconfigurationforthekubeletsinthecluster [upload-certs]StoringthecertificatesinSecret"kubeadm-certs"inthe"kube-system"Namespace [upload-certs]Usingcertificatekey: 9f2632e16029303fffc5f56e53c29b1d0dd55a444b12e2f49e93bd6f6e7361b4 [mark-control-plane]Markingthenodetest160ascontrol-planebyaddingthelabels"node-role.kubernetes.io/master=''"and"node-role.kubernetes.io/control-plane=''(deprecated)" [mark-control-plane]Markingthenodetest160ascontrol-planebyaddingthetaints[node-role.kubernetes.io/master:NoSchedule] [bootstrap-token]Usingtoken:7t2weq.bjbawausm0jaxury [bootstrap-token]Configuringbootstraptokens,cluster-infoConfigMap,RBACRoles [bootstrap-token]configuredRBACrulestoallowNodeBootstraptokenstogetnodes [bootstrap-token]configuredRBACrulestoallowNodeBootstraptokenstopostCSRsinorderfornodestogetlongtermcertificatecredentials [bootstrap-token]configuredRBACrulestoallowthecsrapprovercontrollerautomaticallyapproveCSRsfromaNodeBootstrapToken [bootstrap-token]configuredRBACrulestoallowcertificaterotationforallnodeclientcertificatesinthecluster [bootstrap-token]Creatingthe"cluster-info"ConfigMapinthe"kube-public"namespace [kubelet-finalize]Updating"/etc/kubernetes/kubelet.conf"topointtoarotatablekubeletclientcertificateandkey [addons]Appliedessentialaddon:CoreDNS [addons]Appliedessentialaddon:kube-proxy YourKubernetescontrol-planehasinitializedsuccessfully! Tostartusingyourcluster,youneedtorunthefollowingasaregularuser: mkdir-p$HOME/.kube sudocp-i/etc/kubernetes/admin.conf$HOME/.kube/config sudochown$(id-u):$(id-g)$HOME/.kube/config Alternatively,ifyouaretherootuser,youcanrun: exportKUBECONFIG=/etc/kubernetes/admin.conf Youshouldnowdeployapodnetworktothecluster. Run"kubectlapply-f[podnetwork].yaml"withoneoftheoptionslistedat: https://kubernetes.io/docs/concepts/cluster-administration/addons/ Youcannowjoinanynumberofthecontrol-planenoderunningthefollowingcommandoneachasroot: kubeadmjoin192.168.100.122:6443--token7t2weq.bjbawausm0jaxury\ --discovery-token-ca-cert-hashsha256:4e1bd4a557221e73a0d3b7d168a2e02522475ec9a775602577cf4a1117fcfb9d\ --control-plane--certificate-key9f2632e16029303fffc5f56e53c29b1d0dd55a444b12e2f49e93bd6f6e7361b4 Pleasenotethatthecertificate-keygivesaccesstoclustersensitivedata,keepitsecret! Asasafeguard,uploaded-certswillbedeletedintwohours;Ifnecessary,youcanuse "kubeadminitphaseupload-certs--upload-certs"toreloadcertsafterward. Thenyoucanjoinanynumberofworkernodesbyrunningthefollowingoneachasroot: kubeadmjoin192.168.100.122:6443--token7t2weq.bjbawausm0jaxury\ --discovery-token-ca-cert-hashsha256:4e1bd4a557221e73a0d3b7d168a2e02522475ec9a775602577cf4a1117fcfb9d [root@test160~]#exportKUBECONFIG=/etc/kubernetes/admin.conf 记录下kubeadm join 这段,node加入集群会用到 配置环境变量,加入这段export KUBECONFIG=/etc/kubernetes/admin.conf [root@test160~]#vim/root/.bashrc exportKUBECONFIG=/etc/kubernetes/admin.conf [root@test160~]#source.bashrc [root@test160~]#kubectlgetnodes NAMESTATUSROLESAGEVERSION test160NotReadycontrol-plane,master5m14sv1.20.5 8、节点加入集群 [root@test161~]#kubeadmjoin192.168.100.122:6443--token7t2weq.bjbawausm0jaxury\ >--discovery-token-ca-cert-hashsha256:4e1bd4a557221e73a0d3b7d168a2e02522475ec9a775602577cf4a1117fcfb9d [preflight]Runningpre-flightchecks [WARNINGIsDockerSystemdCheck]:detected"cgroupfs"astheDockercgroupdriver.Therecommendeddriveris"systemd".Pleasefollowtheguideathttps://kubernetes.io/docs/setup/cri/ [WARNINGSystemVerification]:thisDockerversionisnotonthelistofvalidatedversions:20.10.5.Latestvalidatedversion:19.03 [WARNINGHostname]:hostname"test161"couldnotbereached [WARNINGHostname]:hostname"test161":lookuptest161on202.96.128.86:53:nosuchhost [preflight]Readingconfigurationfromthecluster... [preflight]FYI:Youcanlookatthisconfigfilewith'kubectl-nkube-systemgetcmkubeadm-config-oyaml' [kubelet-start]Writingkubeletconfigurationtofile"/var/lib/kubelet/config.yaml" [kubelet-start]Writingkubeletenvironmentfilewithflagstofile"/var/lib/kubelet/kubeadm-flags.env" [kubelet-start]Startingthekubelet [kubelet-start]WaitingforthekubelettoperformtheTLSBootstrap... Thisnodehasjoinedthecluster: *Certificatesigningrequestwassenttoapiserverandaresponsewasreceived. *TheKubeletwasinformedofthenewsecureconnectiondetails. Run'kubectlgetnodes'onthecontrol-planetoseethisnodejointhecluster. 在master查看结果,加入成功了,虽然状态还是NotReady的,是网络还没有 [root@test160~]#kubectlgetnodes NAMESTATUSROLESAGEVERSION test160NotReadycontrol-plane,master84mv1.20.5 test161NotReady<none>42sv1.20.5 9、配置网络 下载脚本,不用改什么,直接安装即可 [root@test160~]#curlhttps://docs.projectcalico.org/manifests/canal.yaml-O %Total%Received%XferdAverageSpeedTimeTimeTimeCurrent DloadUploadTotalSpentLeftSpeed 100184k100184k003360900:00:050:00:05--:--:--51158 [root@test160~]#ll total196 -rw-------.1rootroot1289Mar1000:41anaconda-ks.cfg -rw-r--r--.1rootroot188519Apr215:28canal.yaml -rw-r--r--.1rootroot979Apr213:56new.yaml 安装,现在去看个节点都ready了 [root@test160~]#kubectlapply-fcanal.yaml configmap/canal-configcreated customresourcedefinition.apiextensions.k8s.io/bgpconfigurations.crd.projectcalico.orgcreated customresourcedefinition.apiextensions.k8s.io/bgppeers.crd.projectcalico.orgcreated customresourcedefinition.apiextensions.k8s.io/blockaffinities.crd.projectcalico.orgcreated customresourcedefinition.apiextensions.k8s.io/clusterinformations.crd.projectcalico.orgcreated customresourcedefinition.apiextensions.k8s.io/felixconfigurations.crd.projectcalico.orgcreated customresourcedefinition.apiextensions.k8s.io/globalnetworkpolicies.crd.projectcalico.orgcreated customresourcedefinition.apiextensions.k8s.io/globalnetworksets.crd.projectcalico.orgcreated customresourcedefinition.apiextensions.k8s.io/hostendpoints.crd.projectcalico.orgcreated customresourcedefinition.apiextensions.k8s.io/ipamblocks.crd.projectcalico.orgcreated customresourcedefinition.apiextensions.k8s.io/ipamconfigs.crd.projectcalico.orgcreated customresourcedefinition.apiextensions.k8s.io/ipamhandles.crd.projectcalico.orgcreated customresourcedefinition.apiextensions.k8s.io/ippools.crd.projectcalico.orgcreated customresourcedefinition.apiextensions.k8s.io/kubecontrollersconfigurations.crd.projectcalico.orgcreated customresourcedefinition.apiextensions.k8s.io/networkpolicies.crd.projectcalico.orgcreated customresourcedefinition.apiextensions.k8s.io/networksets.crd.projectcalico.orgcreated clusterrole.rbac.authorization.k8s.io/calico-kube-controllerscreated clusterrolebinding.rbac.authorization.k8s.io/calico-kube-controllerscreated clusterrole.rbac.authorization.k8s.io/calico-nodecreated clusterrole.rbac.authorization.k8s.io/flannelcreated clusterrolebinding.rbac.authorization.k8s.io/canal-flannelcreated clusterrolebinding.rbac.authorization.k8s.io/canal-calicocreated daemonset.apps/canalcreated serviceaccount/canalcreated deployment.apps/calico-kube-controllerscreated serviceaccount/calico-kube-controllerscreated poddisruptionbudget.policy/calico-kube-controllerscreated [root@test160~]#kubectlgetnodes NAMESTATUSROLESAGEVERSION test160Readycontrol-plane,master107mv1.20.5 test161Ready<none>24mv1.20.5

资源下载

更多资源
优质分享App

优质分享App

近一个月的开发和优化,本站点的第一个app全新上线。该app采用极致压缩,本体才4.36MB。系统里面做了大量数据访问、缓存优化。方便用户在手机上查看文章。后续会推出HarmonyOS的适配版本。

腾讯云软件源

腾讯云软件源

为解决软件依赖安装时官方源访问速度慢的问题,腾讯云为一些软件搭建了缓存服务。您可以通过使用腾讯云软件源站来提升依赖包的安装速度。为了方便用户自由搭建服务架构,目前腾讯云软件源站支持公网访问和内网访问。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

Sublime Text

Sublime Text

Sublime Text具有漂亮的用户界面和强大的功能,例如代码缩略图,Python的插件,代码段等。还可自定义键绑定,菜单和工具栏。Sublime Text 的主要功能包括:拼写检查,书签,完整的 Python API , Goto 功能,即时项目切换,多选择,多窗口等等。Sublime Text 是一个跨平台的编辑器,同时支持Windows、Linux、Mac OS X等操作系统。

用户登录
用户注册