Ad Widget

Collapse

Разные данные по использованию дисковой

Collapse
X
 
  • Time
  • Show
Clear All
new posts
  • sergunz
    Junior Member
    • Apr 2013
    • 8

    #1

    Разные данные по использованию дисковой

    Добрый день!
    Снимаю данные с помощью zabbix по использованию дисковой подсистемы серверов.
    На серверах с ОС Windows 2008 R2 используется стандартный шаблон zabbix - Template OS Windows, далее Мониторинг-Последние данные- Perfomance-File read bytes per second и File write bytes per second. Выходят следующие данные: среднее 348 MBps, максимальное 2.16 ГBps.
    С серверов на linux снимаю данные с помощью пакета iostat, по инструкции с http://habrahabr.ru/post/220073/. Парметр disk sda read (write) frome device per second. Тут цифы кардинально отличаются от серверов с Windows: в среднем 10 Kkb/s, максимальное 60 Kkb/s. (Kkb/s означает MB/s судя по выводу iostat)
    При этом сервера одинаковые, отзывчивость серверов и программного обеспечения на них одинаковое.
    Подозреваю что данные в Mbps это не в Мегабайтах а в Мегабитах. Хотя пишется bytes per second, т.е байт. Но все равно остается вопрос по скорости, если скорость показанную zabbix делим на 8 и получаем скорость в Мегабайтах, получается средняя — 43, макс — 250. Это значительно больше того что показывает iostat в linux.
    Наверняка данный вопрос уже поднимался, но я не смог найти на него ответ. Буду благодарен любой помощи!
  • Zentarim
    Senior Member
    • Mar 2012
    • 526

    #2
    Возможно я неправильно прочитал вопрос однако решусь спросить:
    а чем вас не устроили ключи vfs.dev.read\vfs.dev.write ? Они вроде бы давно уже нормально работают и выскребать из iostat данные уже не нужно.

    К тому же мне почему-то кажется, что сервера на linux и windows несут разные функции и разница между загрузкой их дисков действительно может быть большой.

    Но больше всего меня настораживает значения, полученные от серверов windows:
    Code:
    максимум 2.16 ГBps.
    среднее 348
    Не многовато ли будет? Самый поверхностный поиск по всевозможным тестам дал мне максимум около 250 мбайт\с для жестких дисков. Уточните этот момент, пожалуйста.

    Comment

    • yukra
      Senior Member
      • Apr 2013
      • 1359

      #3
      Originally posted by sergunz
      Добрый день!
      Снимаю данные с помощью zabbix по использованию дисковой подсистемы серверов.
      На серверах с ОС windows 2008 r2 используется стандартный шаблон zabbix - template os windows, далее Мониторинг-Последние данные- perfomance-file read bytes per second и file write bytes per second. Выходят следующие данные: среднее 348 mbps, максимальное 2.16 Гbps.
      С серверов на linux снимаю данные с помощью пакета iostat, по инструкции с http://habrahabr.ru/post/220073/. Парметр disk sda read (write) frome device per second. Тут цифы кардинально отличаются от серверов с windows: в среднем 10 kkb/s, максимальное 60 kkb/s. (kkb/s означает mb/s судя по выводу iostat)
      При этом сервера одинаковые, отзывчивость серверов и программного обеспечения на них одинаковое.
      Подозреваю что данные в mbps это не в Мегабайтах а в Мегабитах. Хотя пишется bytes per second, т.е байт. Но все равно остается вопрос по скорости, если скорость показанную zabbix делим на 8 и получаем скорость в Мегабайтах, получается средняя — 43, макс — 250. Это значительно больше того что показывает iostat в linux.
      Наверняка данный вопрос уже поднимался, но я не смог найти на него ответ. Буду благодарен любой помощи!
      А вы с какой целью скорость диска мониторить то хотите? Как по мне - такое нудно только для понимания что "действие 1" увеличило нагрузку на диск на 30%, а "действие 2" уменьшило на 15%. То есть обычно графика по каким то там попугаям вполне достаточно ( я на линуксе меряю колво операций и колво секторов) для понимания что диск нагружен (если график в полку, значит нагрузка около 100%). А для тестирования скоростей дисков есть специлизированные инструменты.

      Comment

      • sergunz
        Junior Member
        • Apr 2013
        • 8

        #4
        Спасибо всем откликнувшимся!

        -Чем вас не устроили ключи vfs.dev.read\vfs.dev.write?
        - Если честно я так и не понял как ими пользоваться... Т.е "из коробки" в zabbixе этих ключей нет, с готовыми шаблонами. Видимо необходимо подключать их отдельно. Не смог разобраться.

        -К тому же мне почему-то кажется, что сервера на linux и windows несут разные функции и разница между загрузкой их дисков действительно может быть большой.
        -Нет, железо одинаковое, базы данных которые крутятся на серверах тоже одинаковые. Усредненно все одинаковое. И визуально, скорость работы баз данных одинаковая.

        - Но больше всего меня настораживает значения, полученные от серверов windows, не многовато ли будет?
        - Ну да много, поэтому меня это и смущает. Т.е получается шаблон из заббикса дает какие то неправильные данные. Это не на одном сервере так, на нескольких.

        - А вы с какой целью скорость диска мониторить то хотите?
        - Для того чтобы увидеть какая пропускная способность дисковой подсистемы. На линукс с использованием iostat к тому же видна утилизация диска, т.е можно увидеть при какой нагрузке на диск ( при каких скоростях на запись и на чтение) идет 100 утилизация диска. К примеру я вижу на "слабеньком " сервере что при записи на диск около 50 MB/s идет 100 утилизация, а на более сильном утилизация идет только в 220 МB/s.

        - Я на линуксе меряю колво операций и колво секторов
        - Каким образом меряете?

        Comment

        • yukra
          Senior Member
          • Apr 2013
          • 1359

          #5
          Originally posted by sergunz
          Если честно я так и не понял как ими пользоваться... Т.е "из коробки" в zabbixе этих ключей нет, с готовыми шаблонами. Видимо необходимо подключать их отдельно. Не смог разобраться.
          https://www.zabbix.com/documentation...s/zabbix_agent - Ctrl+F "vfs.dev." Там описано. Еще в винде кмк можно сделать стандартный счетчик производительности и смотреть через perf_counter https://www.zabbix.com/documentation...agent/win_keys

          Originally posted by sergunz
          Нет, железо одинаковое, базы данных которые крутятся на серверах тоже одинаковые. Усредненно все одинаковое. И визуально, скорость работы баз данных одинаковая. .
          Не буду спрашивать про зоопарк, спрошу почему вы уверенны что разные ОС одинаково работают (кэширование ФС, упреждающее чтение и все такое) на одном и том же железе.

          Originally posted by sergunz
          - Ну да много, поэтому меня это и смущает. Т.е получается шаблон из заббикса дает какие то неправильные данные. Это не на одном сервере так, на нескольких.
          По самим шаблонам видно что разработчики дают шаблоны как пример, а не как "навешиваем стандартные шаблоны и все хорошо". Вполне вероятно что виндовый шаблон делался во времена, когда последняя на тот момент винда отдавала данные агенту скажем в битах, а сейчас используемая вами отдает в байтах.

          Originally posted by sergunz
          - Для того чтобы увидеть какая пропускная способность дисковой подсистемы. На линукс с использованием iostat к тому же видна утилизация диска, т.е можно увидеть при какой нагрузке на диск ( при каких скоростях на запись и на чтение) идет 100 утилизация диска. К примеру я вижу на "слабеньком " сервере что при записи на диск около 50 MB/s идет 100 утилизация, а на более сильном утилизация идет только в 220 МB/s.
          Скорей всего на первом сервере у вас WD GREEN 1 ТБ из первой партии, а на втором raid5 из 3 SAS на каком нить адаптеке? Вы что собираетесь сделать шаблоны на каждый тип диска (один диск дает условно говоря 80Мб\с, другой 120, рэйд 5 дает те же 220, а если в рэйде 1 диск вылетел и пошел ресинк на спару то дай бог 90). Я Как уже говорил мониторю колво операций с сектором. Вот например я сегодня поднимал слэйв мускуля на сервере и вот 2 графика (проц и диск):
          ib4.keep4u.ru/b/2014/12/28/e9/e92f74f51548d79cd788527e61aedeca.png
          ib4.keep4u.ru/b/2014/12/28/4c/4c1069e2350e6cbe9161d9557321543f.png

          По ним виндо что с 11 до 12 была нагрузка на диск (на графике с cpu в это время появляется иовайт). При этом по графику с диском я понимаю что этот сервер в текущем состоянии выдержит увеличение нагрузки в 10 раз на диск и все будет нормально. Триггеров на диск у меня нету, если что то пойдет не так, то я увижу триггеры по ЛА и по иовайту, потому что высокий иовайт - значит диск не справляется. А если я читаю с диска 500Мб\с - это не значит что это дохрена как много, я могу это читать со сторы, в которой дохрена дисков и ей эти 500Мб вообще ни о чем.

          Originally posted by sergunz
          - Я на линуксе меряю колво операций и колво секторов
          - Каким образом меряете?
          Code:
          vfs.dev.write[,ops, avg1]
          vfs.dev.write[,sps, avg1]
          vfs.dev.read[,ops, avg1]
          vfs.dev.read[,sps, avg1]
          Это просто айтемы в шаблоне. Если вас интересует "по каждому блочному устройству", то их можно запихнуть в обнаружение, но мне оно не нужно.

          Зы у меня нет винды, все вышесказанно - про линукс

          Comment

          Working...