免费试用Serverless容器3个月(新用户免费领100元代金劵)
免费使用Serverless容器服务
在容器化和Kubernetes为中心的云原生行业大潮下,小伙伴们不再纠结应用是否需要容器化,而是思考着在云上如何更好的管理自己的容器应用,以及如何更好的提升弹性,降低计算成本,和加速应用开发的敏捷性。
阿里云容器服务团队联合弹性计算团队近日推出了面向新用户使用Serverless容器三个月的免费活动,无需购买ECS服务器,开发者就可以使用100元代金劵快速部署自己的web服务、执行Job任务或者简单的运行docker镜像,体验serverless容器的简单、便捷、弹性和低成本。
云上容器使用之旅
相信很多开发者在应用容器化过程中都经历过多个阶段,最初是在本地开发环境中学习docker,比如docker pull/push/run等基础命令,这时我们已经初步认识到容器的优势,build once, run everywhere。然后我们尝试把容器化的应用搬到云上,此时可以选择购买ECS服务器,在ECS中部署docker启动容器,这样一个基础的容器化过程就完成了,然而在单个ECS之中运行容器应用是不够的,需要解决很多生产级别的架构问题,比如ECS宕机后如何保证高可用,如何解决应用的快速水平扩展,以及ECS需要持续运维。显然我们需要一个容器管理系统来替我们解决这些系统级别的问题。至此我们把关注点从ECS服务器转向了容器编排系统。
容器编排系统解决了两个基本的容器化问题,一是容器的水平扩容,我们需要一组多副本容器来实现应用的水平扩展和高可用,我们称之为“南向”,另外我们需要让一组容器对外暴露服务(SLB/Ingress),我们称之为“北向”,这里的南北向设计是构成大部分生产可用的应用部署架构和编排系统的基本要素。目前Kubernetes已经成为业界容器编排系统的事实标准,部署容器应用已然离不开kubernetes。基于Kubernetes为中心的Cloud Native云原生生态(Helm, Istio, Knative, Spark/AI on k8s等)更是让Kubernetes成为应用部署的重要基石。(阿里云Kubernetes容器服务ACK也已是阿里云上使用Kubernetes的首选)
Kubernetes的广泛应用和标准化和在带来无可置疑的价值同时,其本身的复杂性让容器管理充满挑战,包括集群节点的管理维护、集群容量规划、节点资源闲置等。面对这些传统Kubernetes集群的复杂性,阿里云容器服务团队联合弹性计算团队推出了Serverless Kubernetes容器服务(ASK),在兼容Kubernetes标准的同时极大简化了Kubernetes集群的管理,底层基于弹性容器实例ECI提供安全隔离的容器运行环境,无需购买服务器即可快速部署容器应用,让用户关注在应用开发本身而非底层的基础设施管理。目前已有非常多的客户基于ASK管理弹性、在线应用托管、CI/CD、大数据计算等场景应用。
Serverless容器高阶功能
ASK基于ECI提供很多丰富的功能,包括spot可抢占实例、挂载eip、挂载云盘和NAS、CI/CD、GPU实例等。
在ACK集群中同样也可以使用虚拟节点来体验Serverless容器带来的高弹性能力。
领劵试用
创建Serverless Kubernetes集群(只有当运行容器时才计费):https://cs.console.aliyun.com/#/k8s/cluster/createV2/serverless
领劵地址(100元真的可以用很久):https://pre-www.aliyun.com/daily-act/ecs/eci_freetry
加入ASK用户钉钉群(答疑):https://qr.dingtalk.com/action/joingroup?code=v1,k1,t9A94y6nvhIMb1TFSEaQyuX+azXKfJTtEFgXuqjNfD4=&_dt_no_comment=1&origin=11
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
企业数字资产管理流程
上期我们数据资产管理的定义和分类,小编最近又看了些国外的网站,发现在国外DAM更多被称作数字资产管理(Digital Data Management),两者没有明显的差别,只是后者通常更多涉及一些多媒体数据比如图片、语音、视频等等。 所谓数字资产管理是从内容生成到其进入持久化存储这一阶段的流程管理,至于之后从数据脱库到进入归档是针对各系统对数据时效性的要求是数据服务管理的范畴。前一个流程大致有以下11个阶段,这也是我们今天要讲的主要内容。 首先,企业内的每一个员工都是内容创建者,甚至可能时刻都在创造着这个世界上独一无二的内容。所以面对每个公司独一无二的数据资产,一般IT会采用两级备份的方式。在线备份,或者叫在线存储可能更贴切一点,即通过网盘形式要求用户只能将数据存放在带冗余带防灾的存储系统上(例如带UPS的磁盘阵列),然后进一步通过定期的任务将特别重要的某些文件夹通过镜像或批量方式转存到异地的磁带库里,完成容灾存储。 下一步是对数据的编辑与处理,先说编辑,需要对进入DAM的数据做前期筛选,包括创建者的筛选,编辑人员的筛选以及最终用户的筛选(这也被成为康奈尔三层选择模型),以照片为例,由...
- 下一篇
通过Job Committer保证Mapreduce/Spark任务数据一致性
并发地向目标存储系统写数据是分布式任务的一个天然特性,通过在节点/进程/线程等级别的并发写数据,充分利用集群的磁盘和网络带宽,实现高容量吞吐。并发写数据的一个主要需要解决的问题就是如何保证数据一致性的问题,具体来说,需要解决下面列出的各个问题: 在分布式任务写数据的过程中,如何保证中间数据对外不可见。 在分布式任务正常完成后,保证所有的结果数据同时对外可见。 在分布式任务失败时,所有结果数据对外不可见且能正确清理。 开启预测执行时,保证多个执行相同任务的task只有一份结果数据在最终结果中。 此外,还要一些作业的异常情况需要处理,例如task失败重试,作业重启等等。Job Committer是MapReduce用来实现分布式写入一致性的保证,通过Job Committer的各种实现,保证MapReduce任务在各种异常场景中数据写出的一致性。Spark支持MapReduce的JobCommitter,同样也是通过JobCommitter实现Spark作业写出数据的一致性。 JobCommitter接口 MapReduce有V1和V2两套API接口,在包名中以mapred和mapredu...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS8编译安装MySQL8.0.19
- MySQL8.0.19开启GTID主从同步CentOS8
- SpringBoot2全家桶,快速入门学习开发网站教程
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
- CentOS7,CentOS8安装Elasticsearch6.8.6
- Red5直播服务器,属于Java语言的直播服务器
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- CentOS6,CentOS7官方镜像安装Oracle11G