海量监控日志基于EMR Spark Streaming SQL进行实时聚合
前言 从EMR-3.21.0 版本开始将提供Spark Streaming SQL的预览版功能,支持使用SQL来开发流式分析作业。结果数据可以实时写入Tablestore。本文以LogHub为数据源,收集ECS上的日志数据,通过Spark Streaming SQL进行聚合后,将流计算结果数据实时写入Tablestore,展示一个简单的日志监控场景。 场景设计 假设有一个商品表Goods,商品信息开放给用户浏览,用户浏览完以后会产生以下格式的日志数据: { "RequestId":"c85df119-f6db-449f-89bb-6773d2468f89", "Time":2019-07-30 12:05:28, "GoodsName":"shoes", "OperationType":"query" } 我们需要将原始日志