Aufrufe
vor 3 Jahren

Netzwoche 04/2016

  • Text
  • Schweiz
  • Unternehmen
  • Swiss
  • Schweizer
  • Netzmedien
  • Handys
  • Transformation
  • Gesellschaft
  • Digital
  • Webcode

32 Focus Analytics

32 Focus Analytics Erfolgreich Big-Data-Analysen in die IT integrieren – darauf kommt es an Im Zuge der Digitalisierung und des Internets der Dinge nehmen Big-Data-Analysen heute einen wichtigen Stellenwert ein. Denn sie können einen massgeblichen Teil zum Geschäftserfolg beitragen. Allerdings gilt es hier für Unternehmen, neue Wege zu gehen und in die Leistungsfähigkeit der IT-Infrastruktur inklusive einer effizienten Datenbanklösung zu investieren. DER AUTOR Um auch zukünftigen Anforderungen und Datenvolumen gewachsen zu sein, sollte die Datenbank funktional durch benutzerdefinierte Funktionen (UDFs) und architektonisch durch zusätzliche Hardware erweiterbar sein. Insbesondere Python, R oder Java sind beliebte Werkzeuge für Advanced Analytics. Mathias Golombek leitet als Chief Technology Officer (CTO) den Bereich Technologie bei der Exasol AG und ist zudem Vorstandsmitglied Für Unternehmen, für die schnelle Entscheidungen erfolgskritisch sind, bieten sich auf In-Memory-Technologie basierende Datenbanklösungen an. Dabei werden Daten im Hauptspeicher gehalten und verarbeitet. Das Besondere daran ist, dass auch riesige Datenmengen dort innerhalb kürzester Zeit verarbeitet werden können. Der Zugriff auf Daten, die im Hauptspeicher liegen, ist bis zu Faktor 1000 schneller als der Zugriff auf Festplattendaten. Nehmen wir als Beispiel die Finanzbranche. Kreditentscheidungen müssen häufig innerhalb kürzester Zeit getroffen werden – eine schnelle Datenverarbeitung und Auswertung grosser Datenmengen ist hier unabdingbar. Setzen Unternehmen auf In-Memory-Datenbanken, so können sie den oft entscheidenden Wettbewerbsvorteil erzielen. Was die In-Memory-Datenbank können sollte Grundsätzlich sind eine spaltenorientierte Speicherung sowie Kompression sehr hilfreich. Sie verringern die Anzahl der I/O-Operationen und die Datenmenge, die im Hauptspeicher verarbeitet werden muss, und sorgen somit für ein schnelleres Ergebnis. Bei der Wahl der Datenbank ist es zudem wichtig, dass die bestehende Lösung einfach auf das neue System zu migrieren ist. Dafür sind die Schnittstellen/Abfragesprachen ODBC, JDBC, ADO.net und SQL unumgänglich. Bild: Fotolia Intelligenter Einsatz von Algorithmen Der intelligente Einsatz von effizienten Algorithmen erweist sich bei Big-Data-Analysen ebenfalls als erfolgsentscheidend. So facettenreich wie Big-Data-Analysen sind, so differenziert sind diese Algorithmen. Zudem erweist sich jede Anwendung als so individuell und unterschiedlich, dass sie sich nicht einfach auf ein anderes Einsatzszenario projizieren lässt. Grundsätzlich ist es oft sinnvoll, die statistischen Methoden direkt auf den Rohdaten anzuwenden. Die Datenanalysten können so aus den gesammelten Daten verlustfrei die Informationen herausfiltern, die für die jeweiligen Auswertungen notwendig sind. Systemanforderungen: Hohe Leistung und Geschwindigkeit Die Basis für eine schnelle In-Memory-Datenbank bilden leistungsfähige, schnelle Systeme, die mit den anfallenden Datenmengen umgehen können. Klassische IT-Systeme sind in der Regel mit riesigen Datenmengen überlastet, reagieren zu langsam und weisen schleppende Lade- und Analysezeiten auf. Die Aufgabe der IT-Abteilung ist es nun, die bestehenden Systeme upzugraden sowie die Datenbanklösung auszuwählen, die folgende Kriterien erfüllt: ·· Zusammenführung von Daten aus verschiedenen, nicht homogenen Quellen. ·· Analysen auf grossen Datenmengen in Echtzeit. ·· Flexibilität, um mit steigenden Anforderungen mitwachsen zu können. ·· Die Lösung sollte wartungsarm sein und sich selbst optimieren. ·· Faires Lizenzmodell als Grundlage. ·· Basierend auf einer modernen Softwarearchitektur, die im Hardwarebereich Kosten einspart und beliebig skalierbar bleibt. Nur so ist eine langfristige Investitionssicherheit gegeben. 04 / 2016 www.netzwoche.ch © netzmedien ag

Focus Analytics 33 Nur durch Automatisierung zu agiler BI Agile Entwicklungsmethoden allein machen noch keine agile Business Intelligence (BI). Angefangen beim Design über die Entwicklung, das Testing und die Verteilung sollten möglichst viele BI-Entwicklungsaspekte soweit sinnvoll automatisiert werden. Nur so lassen sich die Wünsche der Fachabteilungen nach kurzen Lieferzeiten erfüllen. DER AUTOR Raphael Branger ist Senior Solution Archi tect und Partner bei IT-Logix Agile BI ist im Trend – zweifellos. Die Fachabteilungen benötigen heute mehr denn je schneller einsatzfähige BI- Lösungen. Kann die IT-Abteilung diese nicht in nützlicher Frist liefern, droht die viel gefürchtete Schatten-IT zu wuchern. Doch reicht es, sich der Methoden agiler Softwareentwicklung – wie kurze Sprints, User Storys und dem Einsatz von Product Ownern – zu bedienen? Mitnichten. Um die gewünschte Agilität zu erreichen und damit schnellere Produktivsetzungen zu ermöglichen, muss eine ganze Reihe an Voraussetzungen erfüllt sein. Schritte zu mehr Agilität in BI-Projekten Dazu gehören an erster Stelle Mitarbeiter, die bei der Entwicklung und dem Betrieb von BI-Lösungen Meister ihres Fachs sind und ihre Arbeit kritisch hinterfragen. Ein solches Team allein wiederum kann nur dann optimal agil arbeiten, wenn die Organisation selbst die Anwendung agiler Werte und Grundsätze unterstützt. Zu dieser professionellen Arbeitsweise gehört auch Standardisierung: So muss das Rad nicht immer wieder neu erfunden werden, was die Entwicklung als solches direkt beschleunigt. Gleichzeitig ist Standardisierung die elementare Grundlage für Automatisierung, die wiederum ein häufiges Ausliefern erst ermöglicht. Ein wichtiges Hilfsmittel sind dabei Design Patterns, etwa bei der Datenmodellierung, dem Design und der Entwicklung von Datentransformationsprozessen oder Informationsprodukten. Allerdings sind die typischen, über die Jahre gewachsenen heterogenen BI-Tool-Landschaften ungeeignet, die Standardisierung auch tatsächlich in eine vollständige Automatisierung zu überführen. Hier helfen Lösungen aus dem Bereich Data Warehouse Automation weiter. Bei der Auswahl sind indes einige Punkte zu beachten. Die Automatisierungssoftware sollte die Verwendung von Design Patterns institutionalisieren. Dadurch soll in einer integrierten Entwicklungsumgebung Refactoring auf Datenmodellebene und iterative Datenmodellierung mit vernünftigem Aufwand möglich werden. Wünschenswert ist zudem eine native Unterstützung verschiedener Datenbanktechnologien, sodass die Spezialitäten der jeweiligen Datenbanken über die Design Patterns automatisch angewandt werden. allerdings nur das Fundament für agile BI. Es genügt nicht, zur Steigerung der Agilität einfach die Menge an Voraus- Design (z.B. Anforderungsanalyse) zu reduzieren. Denn eine Verringerung beim Voraus-Design führt unweigerlich auch zu grösseren Risiken, die über entsprechende Prozesse und Infrastrukturen minimiert werden müssen. Dies wiederum lässt sich durch Zukauf und Integration entsprechender Werkzeuge, beispielsweise für Testautomatisierung und Versionierung, erreichen. Solange solch grundlegende Komponenten nicht vorhanden sind, ist bei der Einführung iterativer, inkrementeller Vorgehensmodelle äusserste Vorsicht geboten. Denn ohne Automatisierung – vor allem im Bereich Testing – ist ohne massive Zunahme von technischen Schulden ein agiles Arbeiten fast nicht erreichbar. Genau das aber – die schnelle und häufige Anpassung der Funktionalität der BI-Lösung – ist es, was die Auftraggeber und Endbenutzer letztlich als Agilität wahrnehmen. Auf dem Weg dahin müssen zuallererst die organisatorischen, fachlichen und technischen Grundlagen für ein inkrementelles Vorgehen geschaffen und Top-down eine Transformation hin zu agilen Werten und Prinzipien vollzogen werden. Danach folgt die Automatisierung von Routinearbeiten als ein weiterer Schlüsselfaktor, um BI-Lösungen agil auf den Boden zu bringen. Denn nur wer einen hohen Automatisierungsgrad bei BI-Entwicklung und -Betrieb erreicht, ist auch in der Lage, nachhaltig in kurzen Iterationen zu arbeiten. Vor Automatisierung agiles Vorgehen verinnerlichen Die Professionalisierung und die damit verbundene Automatisierung der Entwicklungsarbeiten als solches sind Bild: Fotolia www.netzwoche.ch © netzmedien ag 04 / 2016

Archiv