MySQL分布式集群文档整理
请点击以下文档目录直接跳转到相应的页面查看:
(1)MySQL表分区
(2)MySQL 慢查询日志
(3)MySQL 查询缓存
(5)MySQL 主从复制
(6)MySQL 主主复制
MySQL分布式集群视频链接:http://www.roncoo.com/course/view/658088f6e77541f5835b61800314083e

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
spark-streaming集成Kafka工程实例【转】
场景模拟 我试图覆盖工程上最为常用的一个场景: 1)首先,向Kafka里实时的写入订单数据,JSON格式,包含订单ID-订单类型-订单收益 2)然后,spark-streaming每十秒实时去消费kafka中的订单数据,并以订单类型分组统计收益 3)最后,spark-streaming统计结果实时的存入本地MySQL。 前提条件 安装 1)spark:我使用的yarn-client模式下的spark,环境中集群客户端已经搞定 2)zookeeper:我使用的是这个集群:10.93.21.21:2181,10.93.18.34:2181,10.93.18.35:2181 3)kafka:我使用的是standalone模式:10.93.21.21:9093 4)mysql:10.93.84.53:3306 语言 python:pykafka,pip install pykafka java:spark,spark-streaming 下面开始 1、数据写入kafka kafka写入 我们使用pykafka模拟数据实时写入,代码如下: kafka_producer.py #-*coding...
-
下一篇
python量化分析---使用python获取股票历史数据和实时分笔数据
财经数据接口包tushare的使用(一) Tushare是一款开源免费的金融数据接口包,可以用于获取股票的历史数据、年度季度报表数据、实时分笔数据、历史分笔数据,本文对tushare的用法,已经存在的一些问题做一些介绍。 一:安装tushare 为避免由于依赖包缺失导致安装失败,请先安装anaconda,百度网盘地址:链接:http://pan.baidu.com/s/1qYDQUGs密码:6wq8安装直接一直下一步即可安装完成之后,anaconda会自动配置环境变量,直接就可以用了,cmd打开命令行窗口,使用命令pip install tushare即可安装tushare 二:tushare的使用 1、获取历史数据之get_hist_data 参数说明: •code:股票代码,即6位数字代码,或者指数代码(sh=上证指数sz=深圳成指hs300=沪深300指数sz50=上证50zxb=中小板cyb=创业板) •start:开始日期,格式YYYY-MM-DD •end:结束日期,格式YYYY-MM-DD •ktype:数据类型,D=日k线W=周M=月5=5分钟15=15分钟30=...
相关文章
文章评论
共有0条评论来说两句吧...