【最全PPT下载+直播回顾】阿里云栖开发者沙龙合肥专场:高并发企业级应用架构实践分享
活动介绍
阿里云栖开发者沙龙是“云栖社区”主办的线下技术沙龙品牌,希望通过技术干货分享来打通线上线下专家和开发者的连接。沙龙每期将定位不同的技术方向,逐步覆盖 云计算,大数据,前端,PHP,android,AI,运维,测试 等技术领域,并会穿插一些特别专场(开源专场,女性开发者专场,开发者成长专场等)。我们希望它将是一个开发者的聚集地,每一期都是一个开发者的大Party!
本期合肥专场邀请阿里及第三方多位专家聚焦:高并发企业级应用架构实践分享
社区合肥技术交流群,欢迎合肥的同学入群与专家实时技术交流,点击链接入群http://tb.cn/9S1jYHw
或扫码入群
直播回顾
直播回顾地址:https://yq.aliyun.com/live/803
议程(PPT资料下载)
时间 | 主题 | 讲师 | PPT |
---|---|---|---|
13:00-13:30 | 签到 | — | — |
13:30-14:10 | 高并发应用中的数据库系统设计实践 | 周正中 | https://yq.aliyun.com/download/3285 |
14:10-14:50 | 大规模日志数据企业级分布式平台架构面临的问题与挑战 | 于俊 | https://yq.aliyun.com/download/3286 |
14:50-15:00 | 茶歇 | — | — |
15:00-15:40 | HBase数据迁移解决方案的设计与实践 | 侧田 | https://yq.aliyun.com/download/3287 |
15:40-16:20 | IT数字化转型-打造可衡量的高可用及数字化运维 | 杨跃山 | https://yq.aliyun.com/download/3288 |
演讲主题及嘉宾
Topic1:高并发应用中的数据库系统设计实践
本次分享高并发应用场景介绍,对数据库可能带来的压力,如何从内核、数据库架构方面解决高并发场景调度问题。同时介绍阿里云RDS PG相比社区版本有哪些优势,客户CASE
Topic2:大规模日志数据企业级分布式平台架构面临的问题与挑战
本次分享大规模日志数据企业级分布式平台架构面临的问题与挑战,架构之争和演进之路,当前架构的关键技术,未来架构优化思考。
Topic3:HBase数据迁移解决方案的设计与实践
本次分享HBase同构数据源、异构数据源的历史数据、增量数据迁移方案
Topic4:IT数字化转型-打造可衡量的高可用及数字化运维
本次分享IT数字化转型-打造可衡量的高可用及数字化运维
合作伙伴
主办:云栖社区、中生代、华章出版社
技术社区支持:开源中国;SegmentFault;51CTO;掘金;Gitchat,活动行
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
spark集群使用hanlp进行分布式分词操作说明
本篇分享一个使用hanlp分词的操作小案例,即在spark集群中使用hanlp完成分布式分词的操作以下为全文: 分两步: 第一步:实现hankcs.hanlp/corpus.io.IIOAdapter 1. public class HadoopFileIoAdapter implements IIOAdapter { 2. 3.@Override 4.public InputStream open(String path) throws IOException { 5.Configuration conf = new Configuration(); 6.FileSystem fs = FileSystem.get(URI.create(path), conf); 7.return fs.open(new Path(path)); 8.} 9. 10.@Override 11.public OutputStream create(String path) throws IOException { 12.Configuration conf = new Configuratio...
- 下一篇
Idea里面老版本MapReduce设置FileInputFormat参数格式变化
我们随便百度一个经典的MapReduce程序----wordcount的时候,在设置job文件输入路径和输出路径参数时,会看到别的博主会这么写: Configuration conf = new Configuration(); Job wordCountJob = Job.getInstance(conf); //省略。。。。 FileInputFormat.setInputPaths(wordCountJob,"hdfs://192.168.77.70:9000/wordcount/srcdata/"); FileOutputFormat.setOutputPath(wordCountJob, new Path("hdfs://192.168.77.70:9000/wordcount/output/")); 但是我在Idea里面复制粘贴编译时,其实是报错的。这是因为,我导的是老版本的包,但是也能运行,代码要稍作修改,它在版本中要求FileInputFormat调用的方法名是addInputPath且第一个参数是JobConf型,同样FileOutputFormat调用的输出名是se...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- Red5直播服务器,属于Java语言的直播服务器
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- Windows10,CentOS7,CentOS8安装Nodejs环境
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- CentOS7,8上快速安装Gitea,搭建Git服务器
- SpringBoot2更换Tomcat为Jetty,小型站点的福音