创建企业级品质数据湖 Spark没那么简单
随着Spark受到越来越多的关注,许多企业正在尽力跟上这一开源平台快节奏的变化和发布频率。数据仓库研究院(TDWI)数据管理研究负责人Philip Russom博士表示:“许多企业正在尝试部署Apache Spark,通常会结合数据湖使用,希望能发挥其在流数据、查询和分析上的优势。但用户很快意识到,Spark并不容易使用,而且数据湖所需规划与设计超出用户想象。在这种情况下,用户需要求助于外部顾问和管理服务提供商,他们需要具备为各种不同类型的客户顺利部署Apache Spark和数据湖的可靠经验。” 大数据分析服务供应商Teradata天睿公司最近宣布旗下Think Big公司已经成功将Spark融入创建企业级品质数据湖和分析应用的开发框架。 目前,客户可在搭载“通用硬件”的一般Hadoop环境中部署云端Apache Spark使用数据湖。客户还可在Teradata Hadoop专用平台上使用。该就绪式企业级平台功能强大,专为运行企业级大数据工作负载进行预置和优化。 Think Big公司正在为部署Spark开发可复制的服务包,包括在提供数据湖和管理服务时,将Spark增加为执行引擎。T...