In-Memory Computing im Big-Data-Einsatz Erfolgreich durchs Big-Data-Meer navigieren

5. November 2015

Big Data ist seit einiger Zeit ein Hype-Thema, aber nicht nur. Big Data etabliert sich als ein Trend, der im Unternehmensumfeld immer höhere Wellen schlägt. Der Grund ist eindeutig: Chancen, Potenziale und daraus entstehende Wettbewerbsvorteile darf kein Unternehmen – gleich welcher Größe – links liegen lassen. Dem wachsenden IT-Investitionsvolumen für den Bereich Big Data steht jedoch eine gewisse Ratlosigkeit gegenüber, wie diese Potenziale tatsächlich in steigende Gewinne umzusetzen sind. Mit der richtigen Strategie kann dies gelingen.

Strategie für die Datenflut

Die erforderliche Strategie muss verschiedene Unternehmensbereiche umfassen und bedarf der genauen Planung. Den Startpunkt bilden dabei die Daten, welche eine erste große Veränderung aufzeigen: Noch vor einigen Jahren diente eine Datenbank zur schlichten Erfassung von beispielsweise Kundenadressen. Durch die Digitalisierung verdoppelt sich heute allerdings die produzierte Datenmenge in Unternehmen über einen Zeitraum von rund 20 Monaten.

Damit einher geht die zunehmende Komplexität der vorliegenden Daten. Die Branche ist dabei nicht von Bedeutung, da Daten mittlerweile in jedem Unternehmen und in jeder Abteilung anfallen. Heute stellt sich also nicht mehr die Frage ob, sondern wie das Daten-meer zum wirtschaftlichen Vorteil werden kann. Diese Frage beantwortet Business Intelligence (BI), nämlich die gezielte Auswertung der Datenflut auf verschiedene Fragestellungen hin und die damit verbundene Erkennung und Darstellung von Zusammenhängen.

Fakt ist, dass aufgrund der rasant ansteigenden Datenmengen nicht nur diese, sondern auch die Infrastrukturen in Unternehmen immer heterogener werden. Ein weithin etablierter Baustein ist in diesem Zusammenhang Hadoop. Zwar ist diese Technologie noch relativ jung, die Erfahrung in Unternehmen teilweise nicht vorhanden, jedoch setzen einer Studie des Analystenhauses BARC zufolge bereits 78 Prozent der befragten Unternehmen auf diesen Ansatz.

Der Vorteil: Das Open-Source Java-Framework ist flexibel skalierbar und gleichzeitig wirtschaftlich – darum werden in Zukunft immer mehr Applikationen auf Hadoop ablaufen. Da im Business Intelligence Umfeld die Zeit häufig ein kritischer Faktor ist, gerät das Framework hier aber an seine technischen Grenzen.

Für den BI-Anwendungsfall kommt dort die Datenanalyse auf Basis von In-Memory Datenbanken ins Spiel. Diese werden als High Performance Schicht auf Hadoop aufgesetzt und liefern die benötige Geschwindigkeit bei der Datenanalyse. Der Best-Practice-Ansatz, den viele datengetriebene Unternehmen verfolgen, erfordert leicht zu implementierende und maximal skalierbare Lösungen, die ein hohes Maß an Flexibilität ermöglichen und eigene, oft begrenzte IT-Ressourcen entlasten.

In-Memory-Prinzip

Beim In-Memory Computing werden die Daten im Hauptspeicher und somit extrem schnell verarbeitet. Dies alleine ist noch keine Innovation, denn jeder PC arbeitet genau nach diesem Prinzip. Wo früher allerdings die für den Hauptspeicher benötigten Chips sehr teuer waren und herkömmliche Datenbanken für Prozesse auf Festplatten optimiert sind, sinken die RAM-Preise seit einiger Zeit stetig. Damit ist es für Unternehmen attraktiv, den Hauptspeicher einzusetzen und von dessen Geschwindigkeit zu profitieren. Das In-Memory Prinzip wurde bis dato noch von wenigen Datenbank-Herstellern in eine gute funktionierende Lösung umgesetzt.

Verschiedene Beispiele zeigen hervorragend auf, welches Potenzial In-Memory den Unternehmen bieten kann: Der Onlineversandhändler Zalando arbeitet ständig an der Erweiterung des Sortiments – aktuell sind über 150.000 Produkte gelistet. Aufgrund der guten Umsatzentwicklung ist das Data Warehouse von Zalando seit 2010 um den Faktor fünf gewachsen.

Da die bis dato eingesetzte Lösung die hohen Ansprüche nicht mehr erfüllen konnte, ergänzte Zalando sein Data Warehouse um eine analytische In-Memory Datenbank als skalierbares und flexibles Data Mart. Das Ergebnis: Das neue Datenbanksystem war innerhalb von nur acht Wochen produktiv einsetzbar und verkürzte die nächtliche Vorberechnung von gut 13 Stunden auf nur 30 Minuten. Zalando kann nun viel schneller auf Kundenwünsche reagieren, das Sortiment zeitnah anpassen sowie Umsatzpotenziale und Marketing-Maßnahmen besser steuern.

Wie hoch das Investitionsvolumen zu beziffern ist, lässt sich nicht pauschal sagen. Dies ist zum Beispiel abhängig von der bereits bestehenden Infrastruktur, oder auch welche Daten (von strukturiert über teilstrukturiert hin zu unstrukturiert) die Daten vorliegen, oder wie viele Datenquellen angebunden werden sollen. Generell lässt sich jedoch festhalten, dass Big-Data-Analysen häufig keinen ganzen Austausch, sondern lediglich eine Ergänzung der bestehenden Systeme erfordert.

Setzen Unternehmen zudem auf eine analytische In-Memory-Datenbank, so reduzieren sich die Lizenzkosten bei bestimmten Anbietern auf den tatsächlich genutzten Arbeitsspeicher und nicht auf die gesamten Datenmengen. Hinzu kommen intelligente Kompressionsalgorithmen und vollautomatisierte Prozesse, die die Investitionskosten einer In-Memory-Datenbank im Vergleich zu konventionellen Datenbanken schnell mehr als halbieren können. Und auch bei einem stark beschränkten Budget lassen sich mithilfe von flexibel skalierbaren Software-as-a-Service- oder Cloud-Lösungen Big-Data-Projekte erfolgreich und kostengünstig umsetzen.

Technik genügt nicht

Um erfolgreich über das Datenmeer zu navigieren, sind technische Investitionen allein nicht genug. Das Schiff braucht auch einen erfahrenen Kapitän. Im Business-Intelligence-Umfeld ist dies der Data Scientist. An diesen Spezialisten mit tiefgründigem Wissen über Datenanalysen fehlt es in Unternehmen häufig noch. Data Scientists stellen die richtigen Fragen und halten die nötigen Analysegrundlagen bereit, um erfolgsentscheidende Antworten herauszufiltern. Weiterhin ist eine enge Verzahnung zwischen analytischer Expertise, dem Know-how der eigenen Fachbereiche und der IT ein Schlüssel zum Erfolg.

Mathias Golombek

ist Chief Technology Officer der EXASOL AG.

Hier geht es zu Exasol

Fünf Überlegungen zu In-Memory basierter Big Data Analyse

  • Big Data sollte als fester Bestandteil in der Unternehmensstrategie integriert sein.
  • Die durchgängige Lösung von einem einzigen Anbieter gibt es nicht. Erfahrungsgemäß wählt man einen Best Practice Ansatz und überlegt genau, welche Aufgaben wer/was erfüllen sollte. Die Abhängigkeit von nur einem Anbieter kann sehr kostspielig werden und den Erfolg ausbremsen.
  • Datenvolumen und -anforderungen ändern sich ständig: Abteilungen müssen in die Lage versetzt werden, ihren Analyse- und Datenbedarf schnell und ein-fach realisieren zu können.
  • Compliance-Vorgaben erfüllen: Mitarbeiter schulen, Transparenz und Vertrau-en schaffen sowie gut überlegen, welche Daten und Prozesse sinnvoll im Haus bleiben sollen bzw. welche in die Cloud gelegt werden.
  • Data Scientists: Immer mehr Unternehmen sind ‘data driven‘ – d.h. Mitarbeiter sind gefragt, die mit dem Thema Big Data und Datenanalyse umgehen können.

Fünf Vorteile der In-Memory basierter Big Data Analyse

  • Schnellste Big Data Analyse Technologie
  • Beliebige Skalierbarkeit
  • Branchenunabhängig
  • Ideale Datenbank-Ergänzung – nahtlos integrierbar
  • Realtime Analytics großer Datenmengen bei geringem TCO

Lesen Sie auch