【Kibana】快速上手Kibana平台(KQL)

阅读 7

2024-05-14

项目背景:

目前使用spark跑大体量的数据,效率还是挺高的,机器多,120多台的hadoop集群,还是相当的给力的。数据大概有10T的量。

最近在出月报数据的时候发现有一个任务节点一直跑不过去,已经超过失败次数的阈值,报警了。

预警很让人头疼,不能上班摸鱼了。

经过分析发现报错日志如下:

逻辑处理也很简单,两张表做关联,做聚合预算(聚合字段有30多个)相当于一个宽表了。

DWD层的dwd_temp

精彩评论(0)

0 0 举报