Le Mon, May 13, 2013 at 09:53:55AM +0200, nap [naparuba@gmail.com] a écrit:
2013/5/13 Dominique Rousseau d.rousseau@nnx.com
[...] Et faut aussi beaucoup se méfier des critères en % Par exemple, 50% d'espace disque sur 2Go, c'est peu comme marge. Mais 5% sur 1To, n'est pas forcément immédiatement alarmant.
Je ne suis pas trop d'accord avec cette vision là. Tes Go/To ne sont pas arrivés là comme ça d'un coup. Ils sont le fruits d'une évolution de ton espace consommé.
Pour le tera, "ça peut" :)
Or si sur les 5 dernières années ton évolution disque de tes 2Go on changé genre à +10Ko/jour en quoi c'est un problème de n'avoir "que" 1go d'espace disque? De même, tu peux avoir 5% de 1To mais prendre 5Go par jour, et là tu es mal.
Tout à fait, ce qui compte c'est pas seulement la valeuer seuil, mais son interprétation dans son environnement particulier (usage actuel, historique, etc.)
C'est pour ça, par exemple, que sur des serveurs où y'a 1To qui est arrivé tout seul (ie la taille "standard" du disque fourni), je préfère souvent fournir un espace plus restreint, adapté à l'usage envisage. Quitte à ajuster, si on s'aperçoit qu'on a mal envisagé. (avec les outils modernes de gestions de volumes, c'est facile) Ça permet de détecter plus rapidement des comportements inhabituels ("pourquoi le serveur web a rempli 5Go de logs cette nuit ?!")
Des pistes intéressantes se développent, depuis quelques temps, sans certains outils de monitoring qui visent à faire de la détection d'anomalies, en analysant justement le comportement réputé habituel ("100% de cpu pendant 1h la nuit, c'est normal, pendant la journée, non")