Transforming Your Visions To Innovative Results

Mit der Entwicklung und Implementierung des Reportings können Qualitätsnachweise für IT-Services an die unterschiedlichsten Zielgruppen mit unterschiedlich ausgerichteten Informationsinteresse geliefert werden. Diese Informationen werden mit klar differenzierten KPIs (Operative-, Prozess- und Service-KPIs) – aus der Warte des Business – präzise zugeschnitten um ein klares Bild über die IT-Services und deren Performance zu liefern. Mittels einer Ampel-Skala wir der Status einzelner Services oder Servicegruppen visualisiert. Zusätzlich werden in den Übersichten auch immer die Vormonate dargestellt, da für die Bewertung der Servicequalität die Entwicklung über einen längeren Zeitraum wichtig ist. Mit diesem Reporting wurde dem Management für Kundenprojekte ein Tool zur Bewertung der IT Services zur Verfügung gestellt und damit eine kontinuierliche Verbesserung des Service-Lebenszyklus erreicht werden.

Mit dem Wissensvorsprung der aus dem Berichtswesen erhalten wir – den Wissen besteht aus Erfahrung und muss erarbeitet und aufgebaut werden – findet durch das Sammeln, Weitergeben und Auswerten ein effiziente und effektive Wissensweitergabe statt.

monatliches Reporting

Applikation Entwickelt mit Java
basierend auf Open Source Komponenten
(Apache Hadoop, Apache Hive,  XML, …)

Hadoop ECO-System

Bei Hadoop handelt es sich um ein auf Java basierendes Software Framework – eine Art Ökosystem, das auf verschiedenen Architekturen und unterschiedlicher Hardware betrieben werden kann. Mit ihm lassen sich große Datenmengen auf verteilten Systemen in hoher Geschwindigkeit verarbeiten. Es ist zur Bewältigung der Datenverarbeitung im Big-Data-Umfeld geeignet.

ETL / ELT – Prozess

E -Die Extraktion stellt den ersten Schritt des Datenverarbeitungsprozesses dar. In diesem werden aus den Quellsystemen oder -dokumenten Daten extrahiert, also herausgezogen, und für die weiteren Bearbeitungsschritte in der Eingangsschicht des DWHs bereitgestellt.

T – Transformation der Daten in der im Datawarehouse benötigte Struktur.

L – Laden Daten in das Data Warehouse. Dort werden die sie strukturiert und normalisiert gespeichert. Ein Teil der Daten wird zudem historisiert, um Änderungen über einen Zeitverlauf nachvollziehbar und auswertbar zu machen.

Datenquellen: Warenwirtschaft, Monitoring-System, Syslog von Server & Netzwerkkompnenten, Mail, Datenbanksysteme, Streaming-Daten, Flat-Files, …

Bereitstellung der Ergenisse mittels XML

in gleichzeitig maschinen- und menschenlesbarer Form für die Weiterverarbeitung und Visualisiertung mit Software von Drittherstellern oder auch anderen Tools.

Visualisierung für maximale Informationsqualität

  • vereinfache, intuitive Darstellung von komplexe Sachverhalten
  • Darstellung von Zusammenhängen
  • Darstellung von Verteilungen

OLAP Cubes mit Apache Kylin

Multidimensionale Speicherung von Daten in Kylin OLAP Cubes für den Einsatz mit Online-Analytical-Processing-Applikationen.

Daten lassen sich dank des OLAP-Würfels aus verschiedenen Perspektiven analysieren.

Menü schließen