You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Copy file name to clipboardExpand all lines: aws-msa-reference/lma/site-values.yaml
-60Lines changed: 0 additions & 60 deletions
Original file line number
Diff line number
Diff line change
@@ -277,66 +277,6 @@ charts:
277
277
ruler.alertmanagers:
278
278
- http://alertmanager-operated:9093
279
279
ruler.persistence.size: 8Gi
280
-
ruler.config:
281
-
groups:
282
-
- name: "tks"
283
-
rules:
284
-
- alert: "PrometheusDown"
285
-
expr: absent(up{prometheus="lma/lma-prometheus"})
286
-
- alert: node-cpu-high-load
287
-
annotations:
288
-
message: 클러스터({{ $labels.taco_cluster }})의 노드({{ $labels.instance }})의 idle process의 cpu 점유율이 3분 동안 0% 입니다. (현재 사용률 {{$value}})
289
-
description: 워커 노드 CPU가 과부하 상태입니다. 일시적인 서비스 Traffic 증가, Workload의 SW 오류, Server HW Fan Fail등 다양한 원인으로 인해 발생할 수 있습니다.
290
-
Checkpoint: 일시적인 Service Traffic의 증가가 관측되지 않았다면, Alert발생 노드에서 실행 되는 pod중 CPU 자원을 많이 점유하는 pod의 설정을 점검해 보시길 제안드립니다. 예를 들어 pod spec의 limit 설정으로 과도한 CPU자원 점유을 막을 수 있습니다.
291
-
summary: Cpu resources of the node {{ $labels.instance }} are running low.
Copy file name to clipboardExpand all lines: aws-reference/lma/site-values.yaml
+1-61Lines changed: 1 addition & 61 deletions
Original file line number
Diff line number
Diff line change
@@ -277,67 +277,7 @@ charts:
277
277
ruler.alertmanagers:
278
278
- http://alertmanager-operated:9093
279
279
ruler.persistence.size: 8Gi
280
-
ruler.config:
281
-
groups:
282
-
- name: "tks"
283
-
rules:
284
-
- alert: "PrometheusDown"
285
-
expr: absent(up{prometheus="lma/lma-prometheus"})
286
-
- alert: node-cpu-high-load
287
-
annotations:
288
-
message: 클러스터({{ $labels.taco_cluster }})의 노드({{ $labels.instance }})의 idle process의 cpu 점유율이 3분 동안 0% 입니다. (현재 사용률 {{$value}})
289
-
description: 워커 노드 CPU가 과부하 상태입니다. 일시적인 서비스 Traffic 증가, Workload의 SW 오류, Server HW Fan Fail등 다양한 원인으로 인해 발생할 수 있습니다.
290
-
Checkpoint: 일시적인 Service Traffic의 증가가 관측되지 않았다면, Alert발생 노드에서 실행 되는 pod중 CPU 자원을 많이 점유하는 pod의 설정을 점검해 보시길 제안드립니다. 예를 들어 pod spec의 limit 설정으로 과도한 CPU자원 점유을 막을 수 있습니다.
291
-
summary: Cpu resources of the node {{ $labels.instance }} are running low.
Copy file name to clipboardExpand all lines: byoh-reference/lma/site-values.yaml
-60Lines changed: 0 additions & 60 deletions
Original file line number
Diff line number
Diff line change
@@ -285,66 +285,6 @@ charts:
285
285
ruler.alertmanagers:
286
286
- http://alertmanager-operated:9093
287
287
ruler.persistence.size: 8Gi
288
-
ruler.config:
289
-
groups:
290
-
- name: "tks"
291
-
rules:
292
-
- alert: "PrometheusDown"
293
-
expr: absent(up{prometheus="lma/lma-prometheus"})
294
-
- alert: node-cpu-high-load
295
-
annotations:
296
-
message: 클러스터({{ $labels.taco_cluster }})의 노드({{ $labels.instance }})의 idle process의 cpu 점유율이 3분 동안 0% 입니다. (현재 사용률 {{$value}})
297
-
description: 워커 노드 CPU가 과부하 상태입니다. 일시적인 서비스 Traffic 증가, Workload의 SW 오류, Server HW Fan Fail등 다양한 원인으로 인해 발생할 수 있습니다.
298
-
Checkpoint: 일시적인 Service Traffic의 증가가 관측되지 않았다면, Alert발생 노드에서 실행 되는 pod중 CPU 자원을 많이 점유하는 pod의 설정을 점검해 보시길 제안드립니다. 예를 들어 pod spec의 limit 설정으로 과도한 CPU자원 점유을 막을 수 있습니다.
299
-
summary: Cpu resources of the node {{ $labels.instance }} are running low.
0 commit comments