Effizientere Data-Science-TeamsÜber Data Science hinaus skalieren – mit ModelOps

22. Februar 2021

In den Data-Science-Teams gibt es viele kluge Köpfe, die selbständig arbeiten, ihre Datenquellen anzapfen und Aufgaben im Auftrag einer Abteilung erledigen. Aber die Welt ändert sich, was sich auch in der Einführung von ModelOps zeigt. Einer der Gründe dafür ist die Erkenntnis, dass Data-Science-Teams effizienter werden müssen, ein anderer der Wunsch nach besseren, wiederverwendbaren Analyse-Frameworks, die die Leistungsfähigkeit einer Gruppe statt der eines Einzelnen nutzen.

Warum gerade jetzt? Warum sich auf Daten konzentrieren? Analytics hat sich als wertvolles Werkzeug in der Rezession erwiesen. Während der weltweiten Wirtschafts- und Finanzkrise von 2008 hatten die Unternehmen, die zusätzliche Margen finden oder für höhere Kundenzufriedenheit sorgen konnten, in der Regel eine bessere Analytikstrategie. Sie überlebten, weil sie wussten, dass die Kombination aus Datenanalytik und der Fähigkeit, auf Erkenntnisse zu reagieren, ihnen einen entscheidenden Vorteil verschaffte.

Anzeige
mpu nutanix zeichenflaeche

Bedingt durch die globale Covid-19-Pandemie lässt sich heute ein ähnlicher Trend beobachten. Zwar wird Analytics wieder als Überlebenstaktik eingesetzt, aber es muss besser gesteuert werden – und hier kommt ein Begriff ins Spiel, der derzeit in aller Munde ist: ModelOps.

ModelOps als Kompetenz

Hierbei geht es um Kompetenzen, die für die Skalierung von Analyseverfahren erforderlich sind. Das wissen auch die Unternehmen, die jedoch vor einer Herausforderung stehen: Sie sind zwar vielleicht in der Lage, Modelle zu erstellen – nicht aber, sie einzusetzen, zu überwachen, auf Genauigkeit und Leistung zu testen und sie von einem Proof-of-Concept in Produktion zu überführen.

Mit ModelOps sorgt man für eine enge Verzahnung von Data-Science-Teams und Modellen auf Prozessebene – um KI- und ML-gesteuerte Logik besser testen zu können, die Entscheidungsfindung zu automatisieren und letztendlich wettbewerbsfähiger zu sein. Wer künstliche Intelligenz und maschinelles Lernen in die anderen Unternehmensbereiche skalieren und in weitere kritische Anwendungen einfließen lassen möchte, muss sich darauf konzentrieren, viel mehr dieser Praktiken zentral bereitzustellen.

Ohne einen neuen Ansatz für Modellierung, Design und Datenwissenschaft kann man nicht von einer Handvoll auf Hunderte oder gar Tausende von Modellen skalieren. Das ist der Punkt, an dem ModelOps entscheidend wird.

Tools, so viele Tools

Alle Datenwissenschaftler arbeiten mit einem bevorzugten Tool, R oder Python. Deshalb ist es richtig, sie auch als „Datenhandwerker“ oder „Künstler“ zu betrachten. Es sind erfinderische Menschen, die ihre Phantasie genauso gerne wie ihre Mathematikkenntnisse zur Lösung eines Problems einsetzen. Es ist diese Kombination aus Mathematik, Algorithmen und Kreativität, die analytische Verfahren vorantreibt und beschleunigt.

Und es ist diese schiere Anzahl an Tools, die es nötig macht, Data-Science-Assets zusammenzuführen und in ein „Analytic Centre of Excellence“ zu verlagern. Anstatt Datenwissenschaftler in Silos innerhalb von Abteilungen oder weit verstreuten Organisationseinheiten arbeiten zu lassen, muss man die Tools und die Menschen zusammenbringen, um von einem gemeinschaftlichen Ansatz zu profitieren – es braucht eine Community, um Datenwissenschaft und Analytik voranzutreiben.

grafik
Quelle: TIBCO Software

Mit dem gerade angesprochenen Analytischen Kompetenzzentrum lässt sich auf eine bisher nicht gekannte Weise skalieren, weil Redundanzen beseitigt werden und die Herangehensweise an Analytics standardisiert wird. Das ist der Schlüssel zu ModelOps und zur Skalierung von Analytik-Verfahren. Es ergibt keinen Sinn, wenn mehrere Data Scientists aus verschiedenen Abteilungen an ähnlichen Projekten nebeneinander her und aneinander vorbeiarbeiten – man muss in der Lage sein, die ganze Prozedur zu koordinieren. Vergleichen lässt sich das mit einem Bild, das der eine Künstler gemalt hat und an dem der andere weiterarbeitet – egal, welche Farben, Pinsel und Leinwände benutzt wurden. Auf diese Weise spart man letztlich Zeit, Ressourcen und Geld.

Wenn das der Fall ist, spielt es beim Deployment von Modellen keine Rolle, welche Malutensilien – um im Bild zu bleiben – ein Datenwissenschaftler benutzt hat. Denn in dem Kompetenzzentrum, das um ein ModelOps-Modell herum aufgebaut ist, gibt es eine zentralisierte Plattform, von der aus sie eingesetzt und verwaltet werden. Das beseitigt den schwerfälligen, siloartigen Ansatz und bringt Effizienz in die Datenpraxis.

Schritt eins: den Sprung wagen

Der Aufbau einer ModelOps-Umgebung erfordert die Bereitschaft zur Veränderung, sowohl von der Führungsebene als auch von den Datenwissenschaftlern. Im Allgemeinen sollte ein Analytic Centre of Excellence von einem Chief Analytics Officer (CAO) – oder zumindest dem Chief Data Officer (CDO) – geleitet werden. Mit anderen Worten: von jemandem, der einen direkten Draht zum CEO hat, seine Ideen bis in die höchste Unternehmensebene bringen, bestehende Abläufe hinterfragen und bei Bedarf ändern kann.

Wenn Unternehmen versuchen, ModelOps und ein Kompetenzzentrum ohne Kontrolle durch die oberste Führungsebene einzuführen, haben die Mitarbeiter einen steinigen Weg vor sich. Daran scheitern selbst smarte Unternehmen. Denn ohne diese Befugnisse stoßen sie auf eine Situation, die mit politischen Auseinandersetzungen und Landstreitigkeiten in vergangenen Jahrhunderten zu vergleichen ist: Es gibt viele „Lehnsgüter“, die um Daten und die dazugehörige Analytik herum aufgebaut sind.

Schritt zwei: die Vorteile nutzen

Im nächsten Schritt geht es darum, den kollaborativen Aspekt von ModelOps zu erschließen. Es gibt immer mehrere Möglichkeiten, ein Datenproblem zu lösen. Einige davon sind richtiger als andere – aber das wahre Potential erschließt sich erst, wenn Menschen in einem Centre of Excellence zusammenarbeiten.

Man kann nicht genug betonen, wie dieser Analytics-Ansatz hilft, Zeit sowie Geld zu sparen und für Konsistenz zu sorgen. Wenn die Mitarbeiter in definierten Frameworks arbeiten, erhält man Einheitlichkeit durch ein Security- und ein Datenzugriffs-Framework, in denen die Data Scientists ihre eigenen Anwendungen erstellen und Datenprobleme lösen können. Dabei sollte man bedenken, dass die meisten Unternehmen nicht mit der Erstellung von Modellen kämpfen – sondern mit deren Bereitstellung. Eine erschreckend hohe Anzahl an Modellen „stirbt“ auf der Werkbank der Datenwissenschaftler, einfach weil die meisten Unternehmen sich nicht mit Bereitstellung, Überwachung, Rekalibrierung und Optimierung ihrer Modelle befasst haben.

Nur weil ein Modell heute funktioniert, heißt das nicht, dass das auch morgen noch der Fall ist – denn Daten ändern sich. Wer das zentral überwacht, wird die Auswirkungen nicht spüren. Denn ein zentralisiertes Tool hilft dabei, die Modelle abzufragen, die im Einsatz sind. Die Covid-19-Pandemie ist ein ausgezeichnetes Beispiel dafür: Daten, die im Februar völlig korrekt waren, konnten bereits im Mai völlig aus dem Ruder gelaufen sein. Wenn man nun auch noch berücksichtigt, dass Modelle von einer Handvoll auf Tausende skaliert werden müssen, dann sieht man hier den wahren Nutzen von ModelOps.

Ein ganzes „Dorf“ von Datenwissenschaftlern

Einem afrikanischen Sprichwort zufolge bedarf es eines ganzen Dorfes, um ein Kind zu erziehen. Im übertragenen Sinne ist es das Centre of Excellence, das man für ein gutes Vorgehen bei der Datenanalyse benötigt: Hier packen Datenwissenschaftler, Daten- und Geschäftsanalysten gemeinsam mit Experten aus IT und Business an. Mit dem Erfolg, einen viel besseren Überblick über die Herausforderungen zu bekommen und daraus Nutzen für das Gesamtunternehmen statt für eine einzelne Abteilung zu ziehen.

Ein weiterer Vorteil von ModelOps: Unternehmen schreiben ihren Datenwissenschaftlern nicht vor, welche Farben, Pinsel oder Leinwände sie sie zum Malen ihres „Datenbildes“ verwenden, sondern setzen ihre Kompetenzen gebündelt ein. So wissen sie, wo der Code ist und wer ihn geschrieben hat, sie können auf den ursprünglichen Code zugreifen und ihn in einer anderen Umgebung neu schreiben oder wiederverwenden.

Wenn man sich ansieht, welchen Weg Unternehmen auf ihrer „Analytics-Reise“ einschlagen müssen, um das Potential von Analytics wirklich zu nutzen, müssen sie Vieles automatisieren und zentralisieren. Doch das ist ein Geben und Nehmen auf beiden Seiten: Das bedeutet auch, dass Datenwissenschaftler nicht mehr isoliert vor sich hinarbeiten.

ModelOps ermöglicht es Unternehmen, smarter in der Analytik zu werden. Aber nur weil man etwas tun kann, heißt es nicht, dass man es auch tun sollte. Mit einem Center of Excellence können Unternehmen erkennen, wann es genug ist und wann bestimmte Ideen ausgereizt sind, und – was noch wichtiger ist – sie können sich auf das konzentrieren, was funktioniert und wie sich das erweitern lässt. Ein Centre of Excellence wendet Frameworks auch auf Ergebnisverfälschungen, die durch Daten und sogar Algorithmen mit KI und ML entstehen können, an – was von unschätzbarem Wert ist.

Shawn Rogers ist Vice President of Analytic Strategy bei TIBCO Software.

TIBCO Software

Lesen Sie auch