Ad Widget

Collapse

Скорость на bonding интерфейсах Linux

Collapse
X
 
  • Time
  • Show
Clear All
new posts
  • lknsfos
    Junior Member
    • Apr 2018
    • 6

    #1

    Скорость на bonding интерфейсах Linux

    Добрый день! Есть проблема с собиранием статистики с bonding интерфейсов на Linux хосте.
    Периодически полученные данные (судя по графику) по аггрегированному интерфейсу ниже чем любой из двух интерфейсов (eth2 и eth3), которые объединены в bond1. Причём график нормализуется, если на сервере запустить, например, nload на bond1. Также есть интерфейс bond2 (eth0+eth1), где график тоже сбоит, но не столь критично.
    Пример:
    net.if.in[bond1,bytes] = 76.97Mbit/s
    net.if.in[eth2,bytes] = 219.15Mbit/s
    net.if.in[eth3,bytes] = 119.64Mbit/s
    Хотя bond1 Должен быть eth2+eth3
    Проблема была и остаётся с давних времён (agent на хосте менялся каждую стабильную ветку 2.0 -> 3.4 и заббикс сервера аналогично 2.0->3.4).
    Хост агента: CentOS 7, сетевая Intel i340. Bonding менялся между balance-xor и lacp - разницы нет.

    Совсем критично график стал выглядеть после переноса заббикс сервера на другую машину.
    Ранее было Agent -> Server и были просто периодические, раз в пару минут сопли вниз по графику, после перехода на другую машину и схему agent -> proxy -> server график стал валяться совсем внизу.
    Пример на изображении

  • lknsfos
    Junior Member
    • Apr 2018
    • 6

    #2
    Решилось костылём по типу создания вычисляемого элемента данных с формулой
    (last("net.if.in[eth3,bytes]")+last("net.if.in[eth2,bytes]"))
    Не совсем человеческое решение, но хотя бы понятна актуальная нагрузка.

    Comment

    Working...