Хэлло, братья по разуму. Подскажите, пожалуйста, солюшн, ежели кто в курсе.
Вот собирается данные с порта свитча по снмп и сохраняются как разница(delta bps), по этим данным рисуются графики: Type Simple, Function avg - всё хорошо, всё работает. Вдруг этот свитч недоступен по snmp, однако сам работает и трафик по нему идёт, следовательно на портах растут счётчики прошедших байт. И когда связь до свитча появляется, Заббикс собирает счётчик байт и заносит разницу с предыдущим, она очевидно очень большая и на графике выглядит как большой пик после периода где вообще нет данных. Портятся данные Макс\Авг и вообще не красиво когда в порту 10мбит скорость в какую-то минуту 100500.
Кто как с этим борется? Вроде бы кажется правильным чтобы заббикс сам в итеме с хранением дельты учитывал дескать что разница нужна не просто между двумя последними данными, а между двумя подряд идущими валидными проверками, т.е. учитывая либо установленный интервал, либо очерёдность проверок.
Вот собирается данные с порта свитча по снмп и сохраняются как разница(delta bps), по этим данным рисуются графики: Type Simple, Function avg - всё хорошо, всё работает. Вдруг этот свитч недоступен по snmp, однако сам работает и трафик по нему идёт, следовательно на портах растут счётчики прошедших байт. И когда связь до свитча появляется, Заббикс собирает счётчик байт и заносит разницу с предыдущим, она очевидно очень большая и на графике выглядит как большой пик после периода где вообще нет данных. Портятся данные Макс\Авг и вообще не красиво когда в порту 10мбит скорость в какую-то минуту 100500.
Кто как с этим борется? Вроде бы кажется правильным чтобы заббикс сам в итеме с хранением дельты учитывал дескать что разница нужна не просто между двумя последними данными, а между двумя подряд идущими валидными проверками, т.е. учитывая либо установленный интервал, либо очерёдность проверок.
Comment