“开源”vs“商业”,差别到底有多大?这篇测试一目了然
近些年来在数据分析领域,涌现出很多开源的技术方案,例如Presto、Spark、Impala等。面对多种选择,客户往往会比较困惑、无从下手。此外,MySQL生态非常火热,但对于数据分析类场景,使用此类关系型数据库是否合适呢?阿里云近期,基于常见的开源数据分析产品和数据库与阿里云自研的分析型数据库MySQL版进行了对比性能测试,希望从中能帮你找到答案。具体测试细节,可参见阿里云官网链接。
01、测试标准:TPC-H
本次对比测试,是使用TPC-H标准。TPC-H(商业智能计算测试)是美国交易处理效能委员会(TPC,Transaction Processing Performance Council) 组织制定的用来模拟决策支持类应用的一个测试集。目前在学术界和工业界普遍采用它来评价决策支持技术方面应用的性能。这种商业测试可以全方位评测系
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
【Elasticsearch 入门公开课】在Docker环境中,实操详解 ELK 基本概念-回顾篇
讲师:阮一鸣——eBay Pronto 平台技术负责人、极客时间『Elasticsearch 核心技术与实战』课程讲师课程为了更多同学能快速体验 Elasticsearch,为大家提供了免费的阿里云 Elasticsearch (3节点1核2G)的测试环境>>>>去开通 课程回顾 7 | 在Docker容器中运行Elasticsearch Kibana和 Cerebro8 | Logstash安装与导入数据9 | 基本概念:索引、文档和REST API10 | 基本概念:节点、集群、分片及副本 知识点一:在 Docker 容器中运行 Elasticsearch Kibana和 Cerebro lasticsearch 成立之初就开始拥抱容器技术,官方不仅提供 Docker Image,同时在2019年5月,在发布7
- 下一篇
Dataworks同步数据到X-pack Spark
简介 本文主要介绍如何通过“Dataworks->数据集成->离线同步”把数据同步到X-pack Spark的hdfs上。同步数据到X-pack的hdfs后,就可以使用X-pack Spark对数据进行分析。本例通过把Dataworks的一张表同步到X-pack Spark的hadfs为例,介绍如何同步数据。 前置条件 X-pack Spark集群已经开通hdfs端口。需要联系X-pack Spark维护人员:“云X-Pack Spark答疑” 开通。 操作步骤 在Dataworks中创建“独享数据集成资源组” X-pack Spark的hdfs是在VPC内,Dataworks要求一定要使用“独享数据集成资源组”才可以同步数据。假设创建的“独享数据集成资源组”的名称为:test_cluster,如下图:注意:可用区应要选择和X-pack Spark一样的可用区。独享数据集成资源组的创建详细指导请参考Dataworks官方文档:“独享资源组” 对“独享数据集成资源组”进行“专有网络绑定” 创建完“独享数据集成资源组”之后需要对其操作“专有网络绑定”,如下图:注意:“专有网络”...
相关文章
文章评论
共有0条评论来说两句吧...