DSGVO-konformes Entwickeln in virtuellen Datenumgebungen Neue Generation von Datenplattformen

10. November 2017

Um innovative digitale Angebote entwickeln zu können, benötigen Entwickler Zugriff auf Produktivdaten. Unternehmen müssen ihnen dafür schnell die richtigen Daten bereitstellen und diese zu Testzwecken in die Cloud übertragen können. Compliance-Vorgaben und Datenschutzbestimmungen sind hier oft der Flaschenhals. Zudem greift im Umgang mit sensiblen personenbezogenen Daten ab Mai 2018 auch die neue EU-Datenschutzgrundverordnung (DSGVO). Deren Vorschriften halten Anwenderfirmen leicht ein, wenn sie die DataOps-Technologie einsetzen, um virtuelle Datenumgebungen schnell und sicher für die Softwareentwicklung zu erzeugen.

Datensicherheit und -schutz

Wettbewerbsfähigkeit definiert sich heute darüber, wie agil Unternehmen datengetriebene und kundenspezifische Angebote realisieren. Dazu müssen sie ihren Entwicklern einen schnellen Zugriff auf Daten aus diversen Quellen verschaffen. Um maßgeschneiderte Software herzustellen, ist es unter Umständen nötig, sensible Informationen wie personenbezogene Daten einfließen zu lassen. In dem Fall müssen Entwickler diese Daten in Einklang mit Datenschutzregelungen und Compliance-Vorgaben verarbeiten.

Anzeige
cs espresso series

Eine zentrale Rolle spielt in dem Zusammenhang die EU-Datenschutzgrundverordnung (EU-DSGVO). Unternehmen haben bis 25. Mai 2018 Zeit, die Vorschriften zum Speichern, Übertragen und Verarbeiten der personenbezogenen Daten von EU-Bürgern umzusetzen. Die Vorgaben lassen sich durch das „Maskieren" der sensiblen Daten einhalten, wodurch die Informationen anonymisiert werden.

Entwickler erhalten so die Chance, mit „echten“ Daten des Produktivsystems zu arbeiten. Sie laufen somit nicht Gefahr, die Datenschutzbestimmungen zu unterlaufen, da die bereitgestellten Daten ein eindeutiges Identifizieren von Personen ausschließen. Durch das „Maskieren“ lassen sich so auch externe Experten, Freelancer oder auch Off-Shore-Entwickler in Entwicklungsprozesse einbinden, ohne dass Datenschutzbestimmungen verletzt werden. Eine ausgereifte DataOps-Lösung wie die Delphix Dynamic Data Platform bietet das „Verbergen“ von sensiblen Informationen als integrales Feature an. Zu mehr Datensicherheit und -schutz tragen zudem Zugriffskontrollen, professionelle Datenhaltung und Audits bei.

Sicherheit im Datenumgang allein schafft jedoch noch keine optimalen Arbeitsbedingungen für Entwickler. Diese finden die Experten vor, wenn sie Datenbestände und ihre Kopien einfach und schnell zwischen Unternehmensrechenzentren und Cloud-Umgebungen hin und her bewegen können. Doch in der Praxis gibt es SQL- und No-SQL-„Silos“ sowie Repositories für unterschiedliche Datentypen und Binaries diverser Applikationen. Durch den Einsatz von DataOps-Plattformen können Anwenderfirmen die Datensilos aufbrechen.

DataOps-Technologie

Selbst im Virtualisierungszeitalter, in dem ein (virtueller) Server nach ein paar Klicks läuft, bleibt es herausfordernd, Entwicklern die Daten in der erforderlichen Güte und Schnelligkeit bereitzustellen, die Informationsbestände abzusichern und parallel dazu eine Maskierung sensibler Daten durchzuführen. Die Lösung sind DataOps-Plattformen. Sie verbinden die Entwickler in ihrer Rolle als Datennutzer mit den Fachleuten, die solche Informationen verwalten, aufbereiten, sichern und bereitstellen. Beide Gruppen bringt eine solche Plattform mit den Systemen zusammen, die Daten erfassen, speichern und übermitteln.

Bei einer DataOps-Lösung handelt es sich um eine Software, die auf allen gängigen Virtualisierungsplattformen (Hypervisoren) installiert werden kann. Sie ist in der Lage, mit unterschiedlichen Speichersystemen zu kooperieren. Gleiches gilt für Server, egal, ob diese unter Linux, Unix, Windows oder einem anderen Betriebssystem laufen. Integrierte Standardschnittstellen binden Datenbanken wie Oracle, SQL Server, DB2, MySQL oder Sybase, aber auch Applikationen ein. Von diesen Daten und Applikationen erstellt die Plattform eine komprimierte Kopie. Die Technologie verkleinert so eine Umgebung mit einer Größe von einem Terabyte auf 0,3 Terabyte.

Eine DataOps-Plattform wie die Delphix Dynamic Data Platform stellt innerhalb von Minuten für Entwickler, Tester und Big-Data-Spezialisten virtuelle Datenumgebungen, sogenannte „Data Pods“, auf Basis von Produktivdaten bereit. Ein aufwändiges Hochfahren von voluminösen Test- und Entwicklungsumgebungen ist nicht erforderlich.

Das Arbeiten mit virtuellen Kopien von Produktivdaten macht es Softwareentwicklern einfacher, Qualität abzuliefern. Für die Qualitätssicherung spielt die Fehlersuche eine wichtige Rolle: Entsprechende Tests sollten stets mit hochwertigen Daten erfolgen, damit die Prüfläufe den realen Einsatzbedingungen einer Applikation entsprechen. An die 15 Prozent aller Fehler, die bei der Entwicklung auftreten, sind jedoch auf fehlerhafte oder unzureichende Testdaten zurückzuführen, ergab eine Studie von Delphix. Eine DataOps-Plattform bringt Test- und Entwicklungssysteme auch in der Cloud zum Laufen. Denn die Technologie unterstützt unterschiedliche Implementierungs-Formen.

Cloud-Migration

Minas Botzoglou ist Regional Director DACH bei Delphix; Quelle: Delphix

Im Entwickeln und Testen von Applikationen liegt ein wichtiges Einsatzfeld von DataOps-Lösungen. Die Technologie ist zudem prädestiniert, Daten und Applikationen aus einem hauseigenen Rechenzentrum in eine Hybrid- oder Public-Cloud-Umgebung zu migrieren. Administratoren können beispielsweise von einer zentralen Konsole aus die virtuellen Datenkopien in die Cloud replizieren. Das funktioniert sogar zweistufig – also von einer lokalen Testumgebung auf eine vollständig datenschutzkonform maskierte Cloud-Kopie für externe Entwickler.

Nach Erfahrungswerten von Delphix verlaufen Cloud-Migrationsprojekte bis zu 50 Prozent schneller, wenn eine DataOps-Umgebung zum Einsatz kommt. Ein Grund ist, dass sich große Datenmengen dank der Daten-Virtualisierung- und Deduplizierungstechnik schneller in Cloud-Rechenzentren übermitteln lassen. Das spart Netzwerkbandbreite und Speicherkapazitäten. Die Daten in der Cloud werden fortlaufend mit den Quelldaten auf Servern im Unternehmensnetz, in anderen Cloud-Umgebungen oder auch in Filialbetrieben synchronisiert. Zudem stehen Entwicklern DevOps-Werkzeuge zur Verfügung, mit denen sich Aufgaben und Prozesse in der Softwareentwicklung automatisieren und beschleunigen lassen.

Minas Botzoglou

ist Regional Director DACH bei Delphix. Das Unternehmen verfolgt die Mission, Daten in Unternehmen ohne Reibungsverluste bereitzustellen und Innovation zu beschleunigen. Fortune-100-Unternehmen setzen die Delphix Dynamic Data Platform ein, um Daten aus der Cloud oder aus Vor-Ort-Umgebungen miteinander zu verbinden, zu virtualisieren, zu sichern und zu verwalten.

Hier geht es zu Delphix

Lesen Sie auch