Entlastung von IT-Teams bei datenzentrischen AufgabenNahtlose Automatisierung verringert die Komplexität

17. November 2020

Keine manuellen Eingriffe, Beherrschung von Multivendor-Umgebungen und eine flexible Abstraktionsschicht, wenn es um das Datenmanagement geht – all diese Argumente sprechen für den Einsatz einer einheitlichen und zugleich erweiterbaren Datenmanagment-Plattform.

Die Automatisierung spielt im Bereich der IT-Infrastruktur eine wichtige Rolle. Dabei handelt es sich um den Einsatz von Software zur Erstellung wiederholbarer Anweisungen und Prozesse, die eine menschliche Interaktion mit IT-Systemen entweder ganz ersetzen oder zumindest reduzieren. Diese Formulierung umfasst auch eine im Umfeld der Administratoren bestens bekannte Technik: das Skripting.

Generell arbeitet eine Automatisierungssoftware -wie zum Beispiel ein Backup-Skript – innerhalb der Grenzen dieser Anweisungen, Tools oder Frameworks, um die Aufgaben mit wenig oder ganz ohne menschlichem Eingreifen auszuführen. Damit ist auch der eigentliche Sinn dieser Technik skizziert: Es geht um die Optimierung im IT-Bereich, um das Reduzieren händischer und somit fehleranfälliger Aktionen und in letzter Konsequenz auch um das Umsetzen der digitalen Transformation. Denn moderne dynamische IT-Umgebungen sollten unbedingt in der Lage sein, schneller als die traditionellen IT-Anwendungen zu skalieren. Erst mit einer passenden IT-Automatisierung lässt sich diese Forderung elegant realisieren.

Theoretisch lässt sich jede IT-Aufgabe in verschiedenen „Intensitäten“ automatisieren—von der Netzwerkautomatisierung bis hin zu Server- und Desktop-Infrastruktur, Cloud-Bereitstellung, Standard Operating Environments (SOEs) und darüber hinaus auch auf den Einsatz von Anwendungen und das Konfigurationsmanagement. Automatisierungsfunktionen und -anwendungen lassen sich auch für Container-Technologien, DevOps-Methoden oder Bereiche wie Sicherheit, Tests und Überwachung/Alarmierung verwenden.

Fokussierung auf den Datenbeständen

In heutigen IT-Umgebungen spielen die Daten die wichtigste Rolle – Bezeichnungen wie der „eigentliche Schatz eines Unternehmens“ werden häufig dafür verwendet. Doch das moderne Datenzentrum in den meisten Organisationen erweist sich als äußerst komplex: Für das Aufsetzen von datenbezogenen Abläufen haben Unternehmen eine Vielzahl von Lösungen verschiedener Anbieter im Einsatz, um die vielfältigen Anforderungen beherrschen zu können.

Doch das hat keine effiziente Verwaltung der Daten zur Folge. Und dieser Trend wird immer schlimmer, denn die IT-Umgebungen und damit die Datenbestände breiten sich immer mehr aus – das gilt für das unternehmenseigene Rechenzentrum ebenso wie für die vielen Clouds, die von den Unternehmen genutzt werden.

Daraus resultiert eine weit fortgeschrittene Fragmentierung der Daten. Denn sie befinden sich in den traditionellen Anwendungs-Silos, wie etwa dem ERP- oder dem CRM-System. Auch die zugehörigen Abläufe und die erforderlichen Tools, um diese zu verwalten, leiden zusätzlich an dieser Fragmentierung. Die folgenden Faktoren tragen alle zu einer überbordenden Komplexität des Datenmanagements bei:

  • Eine Vielzahl von Management-Tools und speziellen Anwendungen (wie zum Beispiel für die Aktionen Backup und Recovery) ist in einer traditionellen IT-Umgebung nötig.
  • Servicelevel Agreements werden meistens nicht den tatsächlichen Anforderungen in einem Unternehmen angepasst, weil sie zu komplex zu ändern sind.
  • Self-Service-Lösungen oder das Ausführen von komplexen Operationen auf Knopfdruck für die dringlichsten und kritischsten IT-Workflows stehen nicht zur Verfügung.
  • Mitarbeiter im IT-Service müssen viel detailliertes Wissen über die verschiedensten Facetten der „fragmentierten Datenwelt“ haben.

Die Lösung: Eine einheitliche Datenplattform

Um der Komplexität von Backup, Recovery und dem generellen Datenmanagement Herr zu werden, braucht es eine einheitliche Datenplattform, die quasi als Abstraktionsschicht über die verschiedenen „fragmentierten Bereiche“ gelegt wird. Sie muss auf einer tiefen Ebene Integrationen mit den bestehenden Welten erlauben, um die betrieblichen Herausforderungen lösen.

Hierzu gehören das Konfigurationsmanagement, die Verwaltung von SLAs, die Orchestrierung einzelner Lösungskomponenten und das Aufsetzen von Workflows, die IT-bezogene Arbeiten im Unternehmen unterstützen.

Bei der Datenplattform von Cohesity sind alle Integrationen – sowohl für heute als auch für die Zukunft – nativ und wurden auf Grundlage der „Cohesity REST API“ entwickelt. Im Vergleich zu traditionellen Lösungen erfüllen native Integrationen ihren eigentlichen Zweck: Komplexität zu beseitigen.

Mit ihrer API-gestützten Architektur ist die Cohesity DataPlatform von Anfang an so ausgelegt, um zum einen die Automatisierung und zum anderen eine recht einfache Bedienung der Funktionsblöcke zu erlauben. Dabei fällt der API-basierten Architektur die tragende Rolle zu: Sie ermöglicht es der IT-Mannschaft alle Arbeiten ohne Komplexität zu verrichten. Dazu bilden die Kernfunktionen sozusagen die Grundlage für das System, können aber recht einfach erweitert werden, um so eine nahtlose Integration in bestehende Tools und Umgebungen zu erlauben.

Bei der Cohesity DataPlatform werden die Aspekte Verwaltbarkeit, Erweiterbarkeit und Integrierbarkeit als Teil der Architektur verstanden und nicht als etwas, das später nachgeliefert wird. Gemäß den OpenAPI-Spezifikationen und Designprinzipien baut jede Schnittstelle, Komponente und Integration auf der REST API von Cohesity auf. Integrationen zu Umgebungen wie die von ServiceNow oder die vRealize-Suite von VMware, wurden über das REST API von Cohesity entwickelt.

Ausfallzeiten minimieren

Eine weitere Automatisierungslösung steht mit der „Cohesity SiteContinuity“ zur Verfügung. Als eine automatisierte Disaster-Recovery-Lösung ist sie in bestehende Funktionen für Backup und Continuous Data Protection integriert. Diese webbasierte Lösung eignet sich zum Schutz von Anwendungen über mehrere Ebenen, Service-Levels und Standorte hinweg auf einer einzigen Plattform.

Damit können Unternehmen den Problemen vorbeugen, die sich aus dem Verlust von Daten durch Ransomware-Angriffe, Naturkatastrophen oder menschliches Versagen ergeben. Mit dieser integrierten Lösung stellen Unternehmen sicher, dass Daten nicht verloren gehen, Anwendungen verfügbar sind und Kosten gesenkt werden. Möglich wird dies durch die Vermeidung redundanter oder unnötiger Infrastruktur und durch die strenge Einhaltung von Service-Level-Agreements (SLAs).

Mit SiteContinuity lassen sich eine einzelne Datei, eine wichtige Geschäftsanwendung oder ein ganzes Rechenzentrum mit nur wenigen Klicks wiederherstellen. So können IT-Teams Recovery-Prozesse über Anwendungsebenen sowie lokale und Public-Cloud-Umgebungen hinweg automatisieren. Dies reduziert die Herausforderungen für Unternehmen, die komplexe Hybrid- und Multi-Cloud-IT-Umgebungen mit zahlreichen Anwendungen über mehrere Ebenen hinweg mit unterschiedlichen Service-Levels während des normalen Betriebs verwalten möchten. (rhh)

Hier geht es zum Zusammenspiel von HPE und Cohesity

Hier geht es zu Cohesity

Hier geht es zu weiteren Infos zu Automatisierungs- und Integrationslösungen.

Lesen Sie auch