Ziel
Der zweitägige Workshop zeigt die komplette Pipeline des Monitorings. Angefangen beim Sammeln der Metrik-, Netzwerk- und Logfile-Daten mit Beats, geht es weiter zur Filterung und Aufbereitung mit Logstash, über die Speicherung im Elasticsearch-Cluster, bis hin zur Darstellung und anwendungsspezifischen Analyse mit Kibana.
Tag 1 – Environment-Analyse und Data-Harvesting
- Analyse der im konkreten Umfeld vorkommender Systeme. Welche Logfiles, Server und Netzwerkmetriken sind relevant
- Aufbau des Elastic Stacks und des Elasticsearch Clusters
- Sammeln der LogFile und Server Metrik Daten mit Beat
- Parsen und Aufbereiten der Daten mit Logstash. Definition von Logstash Filtern, parsen von Log-Lines mit Grok Patterns
Tag 2 – Datenanalyse mit Kibana
- Anzeige und Analyse der Daten in Kibana
- Definition von Aussagekräftigen Dashboards
- Konfiguration von Watchern, zur automatischen Generierung von Warnmeldungen
- Skalierung und Monitoring des Elastic-Clusters