Bonjour,
Je dispose d'un serveur zabbix centralisé.
J'ai sur environ 100 sites géographiques différents des serveurs proxy (squid) sous ubuntu. Je souhaiterai mesurer les performances des accès internet depuis chaque site externalisé au travers du proxy du site en question.
Actuellement, pour tester, j'ai créer un script bash sur chaque serveur proxy squid.
Ce script est déclaré dans cron pour s'exécuter toutes les X minutes.
Ce script bash execute la commande suivante qui me renvoie le code de retour de squid et le temps de réponse (sur le serveur zabbix, je n'envoie que le temps de réponse)
curl -m 4 -H 'Cache-Control: no-cache' -o /dev/null -s -w "%{http_connect}\n%{time_total}\n" $URL_A_TESTER_AU_TRAVERS_DU_PROXY --proxy $IP_PROXY_LAN:3128
J'envoi ce temps de réponse par la commande suivante à mon serveur zabbix :
/usr/bin/zabbix_sender -z $IP_SERVEUR_ZABBIX -p 10051 -s $HOTE_DECLARE_SUR_SERVEUR_ZABBIX -k $NOM_ITEM -o $LATENCE
Sur le serveur zabbix, j'ai déclaré un item de type zabbix_trapper
Les graphs sont bien générés, ... mais j'ai quelques questions :
1 - est-ce la bonne méthode de passer par un item zabbix_trapper pour grapher ce type de données
2 - si il y a une coupure, le seul moyen d'être alerté est de créer un trigger qui m'alertera par exemple au bout de 10 minutes la non réception de donnée ?
3 - est-ce possible de créer des règles de découverte pour automatiser la créer des items de type zabbix_trapper ?
4 - cette méthode serait aussi adaptée si je souhaite tester plusieurs urls différentes (vpn, site internet francaise, site internet à l'étranger, ...)
Merci à vous pour vos réponses / liens vers des bouts de docs
Je dispose d'un serveur zabbix centralisé.
J'ai sur environ 100 sites géographiques différents des serveurs proxy (squid) sous ubuntu. Je souhaiterai mesurer les performances des accès internet depuis chaque site externalisé au travers du proxy du site en question.
Actuellement, pour tester, j'ai créer un script bash sur chaque serveur proxy squid.
Ce script est déclaré dans cron pour s'exécuter toutes les X minutes.
Ce script bash execute la commande suivante qui me renvoie le code de retour de squid et le temps de réponse (sur le serveur zabbix, je n'envoie que le temps de réponse)
curl -m 4 -H 'Cache-Control: no-cache' -o /dev/null -s -w "%{http_connect}\n%{time_total}\n" $URL_A_TESTER_AU_TRAVERS_DU_PROXY --proxy $IP_PROXY_LAN:3128
J'envoi ce temps de réponse par la commande suivante à mon serveur zabbix :
/usr/bin/zabbix_sender -z $IP_SERVEUR_ZABBIX -p 10051 -s $HOTE_DECLARE_SUR_SERVEUR_ZABBIX -k $NOM_ITEM -o $LATENCE
Sur le serveur zabbix, j'ai déclaré un item de type zabbix_trapper
Les graphs sont bien générés, ... mais j'ai quelques questions :
1 - est-ce la bonne méthode de passer par un item zabbix_trapper pour grapher ce type de données
2 - si il y a une coupure, le seul moyen d'être alerté est de créer un trigger qui m'alertera par exemple au bout de 10 minutes la non réception de donnée ?
3 - est-ce possible de créer des règles de découverte pour automatiser la créer des items de type zabbix_trapper ?
4 - cette méthode serait aussi adaptée si je souhaite tester plusieurs urls différentes (vpn, site internet francaise, site internet à l'étranger, ...)
Merci à vous pour vos réponses / liens vers des bouts de docs
Comment