Interview zum Datenmanagement: Wolfgang Huber, Cohesity; Teil 1„Es fehlt oft eine universelle Datenmanagement-Plattform“
21. Juli 2020Die Massenfragmentierung von Daten, also die Verbreitung von Daten über verschiedene Standorte, Infrastruktursilos und Managementsysteme hinweg, hat extrem negative Auswirkungen auf die Effizienz in Sachen Data Handling. Im Interview mit Line-of.biz (LoB) skizziert Wolfgang Huber, Regional Director Central Region (DACH) bei Cohesity, die aktuellen Problemfelder und zeigt auf, wie sich diese Herausforderungen meistern lassen.
LoB: Warum kommt es in heutigen Infrastrukturen zu dem Phänomen der Massenfragmentierung von Daten?
Huber: Heutige IT-Teams müssen sich mit einer neuen Reihe von Datensilos auseinandersetzen, die in mehreren Clouds erstellt werden. Dazu gehören Offsite-Backups, Langzeitarchive, Second-Tier-Speicher, Test- und Entwicklungssysteme und Analyse-Datenpools erstellt. Erschwerend kommt hinzu, dass die Inhalte oder Speicherorte der Daten nur schlecht „sichtbar“ und somit kontrollierbar sind. Um die Herausforderung noch komplexer zu machen, ist es in den meisten Unternehmen gängige Praxis, in Cloud-Umgebungen mehrere Kopien derselben Daten zu erstellen und zu speichern. Unabhängige Befragungen haben gezeigt, dass durchschnittlich drei Kopien derselben Daten erzeugt werden.
LoB: Welche „Pain Points“ quälen Unternehmen beim Datenzugriff generell und in den Bereichen Backup und Recovery im Besonderen?
Huber: Es fehlt in vielen Fällen eine generelle Datenmanagement-Plattform, die eine logische Harmonisierung herstellt. In Sachen Backup und Recovery schlagen sich die Verantwortlichen häufig mit einem schlecht konzipierten Management der Backup-Ketten herum. Gefragt sind im täglichen Betrieb auch Funktionen wie das „Singlefile Recovery“ und das „Agent Less Backup“ – alles Punkte, die von traditionellen Sicherungs- und Wiederherstellungslösungen in einem modernen Szenario aufgrund der skizzierten Komplexität nicht mehr zufriedenstellend geliefert werden können.
LoB: Damit plädieren Sie für eine Ablösung dieser herkömmlichen Backup-/Restore-Konzepte?
Huber: Ja und das hat auch seinen Grund: Mit den modernen Konzepten wird aus den gesicherten Daten weitaus mehr als nur eine „Versicherung gegen den Datenverlust“. Heutzutage sind vor allem im Bereich der RTO und RPO, also der Zeitdauer für die Wiederherstellung und die erneute Aufnahme des Normalbetriebs, möglichst kurze Zeitspannen gefragt. Man kann nicht mehr viele Stunden auf die Wiederherstellung der Informationen warten – das kann das Ende für das Business bedeuten.
LoB: Wie „eng“ sind die Anforderungen an die Wiederherstellung?
Huber: Eine generelle Zeitangabe lässt sich schwer geben – zu unterschiedlich sind die verschiedenen Branchen aufgestellt. Aber generell lässt sich festhalten, dass die Anforderungen an die Verfügbarkeit deutlich steigen: Das verlangen viele Unternehmen, denn sie müssen bei ihren Kunden ja auch enge Servicelevel garantieren. Beansprucht ein Ausfall eine längere Zeit, sind unter Umständen immense Image- und Umsatzverluste die Folge. Selbst Ausfälle im Minutenbereich haben heutzutage einen großen Einfluss.
LoB: Warum reicht der Umstieg auf eine optimierte Version – also ein Update – einer bestehenden Backup-Lösung meist nicht aus?
Huber: Es geht in erster Linie darum, eine komplett neue Architektur für das Data Handling aufzustellen. Nur so kann man die Einschränkungen des traditionellen Ansatzes hinter sich lassen. Ein Update einer bestehenden Backup-Lösung allein bringt nur in den seltensten Fällen eine technologische Neuerung mit sich. Generell versetzt die Lösung von Cohesity Organisationen in die Lage, Inhalte für eine wachsende Zahl von Anwendungsfällen zu analysieren und dabei die Vorteile nativer oder vorkonfigurierter, benutzerfreundlicher Anwendungen von Drittanbietern auf dem Markt zu nutzen. Mit der zentralisierten Benutzeroberfläche sorgt die Software für hohe Effizienz und leistet einen positiven Beitrag zur Verringerung der Gesamtbetriebskosten. (rhh)