Ad Widget

Collapse

Probleme de disponibilité de l'hôte : configuration multi-serveur

Collapse
X
 
  • Time
  • Show
Clear All
new posts
  • levo01
    Junior Member
    • Jun 2012
    • 17

    #1

    Probleme de disponibilité de l'hôte : configuration multi-serveur

    Bonjour,

    dans le cadre de mon stage je dois installer une configuration de zabbix distribuée (multi serveur).

    J'ai pour cela configuré un maître (central) et un serveur enfant (child). Je peux monitorer un PC linux par le biais du central sans problème. Cependant lorsque j'effectue la même configuration à partir du child l'icone Z dans availability reste grisée. Pourtant la commande zabbix_get à partir du serveur child fonctionne donc ce n'est pas un problème de communication.

    Je pense avoir tout paramétré correctement avec l@IP du serveur child dans le fichier de conf du PC host, le bon hostname dans le fichier conf et l'interface web.

    Si quelqu'un à l'expérience de la surveillance distribuée (distributed monitoring) pourrrait il la partager.

    Merci de votre aide.


    Cordialement.

    PS : dernière question peut on se connecter à l'interface web en dehors du réseau, si oui comment ?
  • levo01
    Junior Member
    • Jun 2012
    • 17

    #2
    Même après une réinstallation complète

    Bonjour,

    j'ai tenté de réinstaller complètement mes deux serveurs zabbix (central et child node). J'ai mis la dernière version zabbix 2.0. Je rencontre exactement le même problème.

    Je m'explique, lorsque je configure un host sur le serveur central, je peux surveiller sans erreur. Mais lorsque je créé un host avec le serveur child node la case availability reste grise.

    Ma question est connaissez vous une commande spéciale/un ajout lors de la configuration d'un host à partir d'un sous serveur (child node) ?

    Je ne sais vraiment pas d'où peut venir l'erreur.


    Voici les logs :

    Le host (hostname : zabbix_server_child) surveillé par le child node :

    32582:20120605:161454.156 zabbix_agentd started. Zabbix 1.8.1 (revision 9702).
    32584:20120605:161454.160 zabbix_agentd collector started
    32587:20120605:161454.167 zabbix_agentd listener started
    32586:20120605:161454.167 zabbix_agentd listener started
    32589:20120605:161454.168 zabbix_agentd listener started
    32588:20120605:161454.169 zabbix_agentd listener started
    32590:20120605:161454.169 zabbix_agentd active check started [localhost:10051]
    32585:20120605:161454.171 zabbix_agentd listener started

    Le sous serveur child node :

    7783:20120605:150029.303 syncing history data...
    7783:20120605:150029.304 syncing history data done
    7783:20120605:150029.304 syncing trends data...
    7783:20120605:150029.304 syncing trends data done
    7783:20120605:150029.305 Zabbix Server stopped. Zabbix 2.0.0 (revision 27675).
    8267:20120605:150039.146 Starting Zabbix Server. Zabbix 2.0.0 (revision 27675).
    8267:20120605:150039.147 ****** Enabled features ******
    8267:20120605:150039.147 SNMP monitoring: NO
    8267:20120605:150039.147 IPMI monitoring: NO
    8267:20120605:150039.147 WEB monitoring: NO
    8267:20120605:150039.147 Jabber notifications: NO
    8267:20120605:150039.147 Ez Texting notifications: NO
    8267:20120605:150039.147 ODBC: NO
    8267:20120605:150039.147 SSH2 support: NO
    8267:20120605:150039.148 IPv6 support: NO
    8267:20120605:150039.148 ******************************
    8267:20120605:150039.148 NodeID: 2
    8267:20120605:150039.148 ******************************
    8268:20120605:150039.160 server #1 started [configuration syncer #1]
    8271:20120605:150039.161 server #4 started [poller #2]
    8274:20120605:150039.165 server #7 started [poller #5]
    8273:20120605:150039.165 server #6 started [poller #4]
    8275:20120605:150039.167 server #8 started [unreachable poller #1]
    8272:20120605:150039.168 server #5 started [poller #3]
    8276:20120605:150039.169 server #9 started [trapper #1]
    8277:20120605:150039.171 server #10 started [trapper #2]
    8270:20120605:150039.173 server #3 started [poller #1]
    8278:20120605:150039.174 server #11 started [trapper #3]
    8281:20120605:150039.174 server #14 started [icmp pinger #1]
    8284:20120605:150039.178 server #15 started [alerter #1]
    8280:20120605:150039.178 server #13 started [trapper #5]
    8285:20120605:150039.179 server #16 started [housekeeper #1]
    8285:20120605:150039.179 executing housekeeper
    8279:20120605:150039.179 server #12 started [trapper #4]
    8269:20120605:150039.187 server #2 started [db watchdog #1]
    8292:20120605:150039.190 server #18 started [node watcher #1]
    8291:20120605:150039.192 server #17 started [timer #1]
    8293:20120605:150039.195 server #19 started [http poller #1]
    8295:20120605:150039.198 server #20 started [discoverer #1]
    8267:20120605:150039.200 server #0 started [main process]
    8301:20120605:150039.202 server #24 started [history syncer #4]
    8300:20120605:150039.205 server #23 started [history syncer #3]
    8299:20120605:150039.206 server #22 started [history syncer #2]
    8298:20120605:150039.207 server #21 started [history syncer #1]
    8304:20120605:150039.210 server #26 started [proxy poller #1]
    8305:20120605:150039.212 server #27 started [self-monitoring #1]
    8303:20120605:150039.213 server #25 started [escalator #1]
    8285:20120605:150039.259 housekeeper deleted: 0 records from history and trends
    , 0 records of deleted items, 0 events, 0 alerts, 0 sessions


    PS : juste une info, je configure les deux serveurs uniquement à partir de l'interface web du serveur maître (central).
    Last edited by levo01; 05-06-2012, 17:04. Reason: Ajout logs

    Comment

    • levo01
      Junior Member
      • Jun 2012
      • 17

      #3
      Finalement j'ai réussi

      Bonjour,

      j'ai résolu mon problème.

      J'ai pour cela installé l'interface web sur le child node aussi... puis ça a fonctionné.

      Voila.


      Pourtant il était précisé qu'on peut aussi gérer uniquement à partir du master node mais bon l'essentiel est que ça fonctionne.

      Comment

      Working...