Ad Widget

Collapse

Проблема мониторинга оптического порта

Collapse
X
 
  • Time
  • Show
Clear All
new posts
  • VladimirN
    Member
    • May 2014
    • 38

    #1

    Проблема мониторинга оптического порта

    Добрый день.

    Есть оборудование Cisco 6513 с оптическими портами, три из которых подключены через gbic. Не получается эти 3 порта нормально "мониторить", т.е. они периодически исчезают и появляются. В пункте "Последние данные" устройства, данные которые они отображают кажутся недостоверными. С портами подключенными напрямую через оптические кабели таких проблем не возникает. Можно ли нормально настроить мониторинг этих портов или, возможно, проблема в чем-то другом?

    ОС: 3.16.0-4-amd64 #1 SMP Debian 3.16.36-1+deb8u2 (2016-10-19) x86_64 GNU/Linux
    Версия сервера zabbix: 3.0.8-1
    Last edited by VladimirN; 14-03-2017, 10:49. Reason: Изменил название темы
  • yukra
    Senior Member
    • Apr 2013
    • 1359

    #2
    Originally posted by VladimirN
    Добрый день.

    Есть оборудование Cisco 6513 с оптическими портами, три из которых подключены через gbic. Не получается эти 3 порта нормально "мониторить", т.е. они периодически исчезают и появляются. В пункте "Последние данные" устройства, данные которые они отображают кажутся недостоверными. С портами подключенными напрямую через оптические кабели таких проблем не возникает. Можно ли нормально настроить мониторинг этих портов или, возможно, проблема в чем-то другом?

    ОС: 3.16.0-4-amd64 #1 SMP Debian 3.16.36-1+deb8u2 (2016-10-19) x86_64 GNU/Linux
    Версия сервера zabbix: 3.0.8-1
    Наиболее вероятны 2 варианта:
    1) Ваша циска "чудит" при отдаче snmp. Попробуйте "подергать" нужные OID через обычный snmpget и сравнить данные "в заббиксе" и "от snmpget". Возможно кривая прошивка\высокая нагрузка на cpu\память\etc. Если данные пропадают и в zabbix и в выдаче snmpget, то нужно идти к вендору и спрашивать у него "как стабилизировать работу snmp"
    2) Так же можно попробовать выключить (или включить) массовые запросы

    Comment

    • aib
      Senior Member
      • Jan 2014
      • 1615

      #3
      еще один вариант вполне возможен именно в случае скоростных (оптических) портов
      This document describes answers to commonly asked questions about SNMP counters as they relate to Cisco equipment.


      для SNMP мониторинга входных/выходных пакетов могут быть использованы два типа ключей(счетчиков) :
      - 32-х битные, обычные ifInOctets / ifOutOctets
      - 64-х битные, для скоростных интерфейсов ifHCInOctets / ifHCOutOctets

      Проверьте в шаблонах для создания интерфейса, какой ключ используется?
      ifInOctets[{#SNMPVALUE}]
      или
      ifHCInOctets[{#SNMPVALUE}]
      и подправьте так, как нужно.

      Да, 64-х битные ключи можно использовать и для обычных 10/100/1000 интерфейсов. Так что можно поменять в шаблоне ключ и пересоздать все интерфейсы заново.
      Sincerely yours,
      Aleksey

      Comment

      • VladimirN
        Member
        • May 2014
        • 38

        #4
        Пока проблема не решена

        Добрый день.

        yukra, aib - спасибо за советы и помощь. Попробовал для начала перезапустить сервер, после этого около 12 часов статистика нормально собиралась, а затем продолжила собираться, но не каждые 30 секунд как установлено, а 5-6 раз в полчаса, но сейчас она похожа на правдивую и адекватную.

        Ключ в интерфейсе используется ifInOctets
        Буду пробовать менять ключ в интерфейсе и выключу массовые запросы на устройстве (сейчас включены).

        Comment

        • VladimirN
          Member
          • May 2014
          • 38

          #5
          Доброе утро.

          Увы, но сделанные настройки не помогли, данные по snmp собираются всё так же "кусками". Попробую уменьшить количество данных получаемых по snmp с этого узла.

          Comment

          • aib
            Senior Member
            • Jan 2014
            • 1615

            #6
            1) Данные по SNMP собираются редковато. При хорошем трафике Счетчики успеют переполниться и обнулиться за полчаса неоднократно.
            В той ссылке, которую я приводил, сказано:
            Code:
            As the speed of network media increases, the minimum time in which a 32-bit counter wraps decreases. For example, a 10 Mbps stream of back-to-back, full-size packets causes ifInOctets to wrap in just over 57 minutes. At 100 Mbps, the minimum wrap time is 5.7 minutes, [B]and at 1 Gbps, the minimum is 34 seconds[/B]
            Т.е. спустя 35 секунд данные уже снова будут близки к нулю.

            2) Если статистика собирается нормально какое-то время, а потом начинаются разрывы в графиках, это очень похоже на занятость сервера другими процессами. По умолчанию, процесс HouseKeeping запускается 1 раз в час и работает, пока не выполнит задание. При этом он задавливает абсолютно все процессы, включая сборку данных по ICMP/SNMP/etc.
            Проверьте графики на Zabbix сервере:
            - Zabbix Internal Process Busy % ( Обратите внимание на Zabbix busy housekeeper processes, in %)
            - Zabbix data gathering process busy % (проверьте, что занятость процесов не превышает нормальных величин 10-15%)
            Sincerely yours,
            Aleksey

            Comment

            • VladimirN
              Member
              • May 2014
              • 38

              #7
              aib, добрый день.

              1) Сейчас на одном из 3х интересующих меня портов настроил сбор данных каждые 15 секунд. Сложилось впечатление, что zabbix не успевает собирать данные -- график стал вообще пустой после этих изменений

              2) Zabbix busy housekeeper processes, in % раз в час примерно на 2-3 минуты грузит процессор почти на 100%
              Zabbix data gathering process busy % есть несколько процессов которые выходят за рамки 15-20%:
              zabbix busy unreacheble poller processes, in % -- в среднем 23%, бывают пики до 66%
              zabbix busy discovery processes, in % -- раз в день в одно и тоже время пик до 100%
              zabbix busy icmp pinger processes, in % -- в среднем 17%, максимум 61%

              Comment

              Working...