Im Zeitalter des digitalen Marketings haben wir einen exponentiellen Anstieg der Datenmenge erlebt , die von einer ständig wachsenden Fülle von Systemen erzeugt, gespeichert und analysiert wird. Aber nicht nur die Komplexität der Daten- und Algorithmenlandschaft hat dramatisch zugenommen. Auch die Landschaft der Aktivierungssysteme selbst ist fortschrittlicher geworden, und mit diesem technischen Fortschritt haben sich auch die Möglichkeiten, wie Sie mit Ihren Kunden kommunizieren können, drastisch erhöht.
Doch wie kommt es, dass Unternehmen bei all diesen technologischen Fortschritten immer noch keinen Mehrwert aus den Analyse- und KI-Projekten ziehen können?
"Die meisten Analytik- und KI-Projekte scheitern, weil die Operationalisierung erst im Nachhinein angegangen wird. Das größte Hindernis für die Skalierung von Analyse- und KI-Implementierungen ist die Komplexität der Integration der Lösung in bestehende Unternehmensanwendungen und -infrastrukturen." - Gartner 2021

Schaubild 1: Veranschaulichung der Komplexität der Landschaft von Daten, Algorithmen und Maßnahmen
Im Software-Engineering ist der Betrieb ein Oberbegriff für die Verwaltung, Überwachung und Bereitstellung von Produktionsanwendungen. In ähnlicher Weise ist der Betrieb in den Bereichen Daten und Analyse der Prozess der Verwaltung, Überwachung und Bereitstellung von Algorithmen, damit Vorhersagen an ein Endsystem geliefert werden, in dem Maßnahmen ergriffen und Geschäftsergebnisse erzielt werden können.
Die manuelle Bearbeitung eines Modells für maschinelles Lernen würde bedeuten, dass ein data scientist Datensätze auf einem Laptop erstellt, ein Modell trainiert und dann zu einem späteren Zeitpunkt das Modell auf einen neuen Datensatz anwendet, um Vorhersagen zu erhalten, die Vorhersagen als CSV-Datei speichert und die Datei per E-Mail an jemanden sendet, der die Datei z. B. in ein E-Mail-System importieren kann. Eine vollautomatische Operationspipeline für maschinelles Lernen würde alle genannten Aufgaben automatisch erledigen und auch entscheiden, wann es notwendig ist, ein Modell neu zu trainieren, anstatt ein bereits trainiertes zu verwenden.
Der Operations-Sumpf
Wenn die Operationalisierung von Daten und Analysen nicht proaktiv angegangen wird, ist Ihre analytische Organisation dazu verdammt, im operativen Sumpf zu versinken. Manche Unternehmen sind so tief im Sumpf versunken, dass sie nicht einmal merken, dass sie sich in einem solchen befinden. Einige der wichtigsten Anzeichen dafür, dass Sie sich in einem solchen Sumpf befinden, sind:
- Sie denken bei Operationen immer an ein zukünftiges Problem
- Ihre besten Data-Science- und Engineering-Talente sind mit operativen Aufgaben beschäftigt, so dass sie wenig bis gar keine Zeit für neue Entwicklungen haben.
- Es fällt Ihnen schwer, Ihre Data-Science-Talente zu halten
- Sie skalieren Ihre Aktivitäten durch die Einstellung von Mitarbeitern und nicht durch die Erhöhung der Automatisierung
- Man entwickelt viele Algorithmen, aber keiner von ihnen wird am Ende verwendet.
Wenn Sie in geeignete Tools und Frameworks für Daten- und Analysevorgänge investieren, können Sie die Zahl der Mitarbeiter erhöhen, ohne neue einstellen zu müssen. Das bedeutet, dass Sie 10 Algorithmen pro data scientist erstellen können, anstatt 5 Datenwissenschaftler zu benötigen, um denselben Wert zu erzielen. Diese Investition ermöglicht es Ihren Datenwissenschaftlern auch, ihre Zeit mit kreativen und experimentellen Aufgaben statt mit manuellen Operationen zu verbringen, was die Fluktuation Ihrer Mitarbeiter deutlich verringert. Allein das wirtschaftliche Argument macht für jedes Unternehmen Sinn, das in die Analytik investiert oder darüber nachdenkt.
Gartner empfiehlt:
- "Investieren Sie im Vorfeld in die Qualifizierung von Teams und die Aufrüstung des Technologie-Stacks in den Bereichen Recheninfrastruktur, DevOps-Toolchains und angrenzende Operationalisierungsbereiche, um die Erfolgsquote von KI-Initiativen und die Wertschöpfung zu erhöhen.
- Nutzen Sie die Best Practices von DataOps und ModelOps in Symphony, um die Reibung zwischen verschiedenen Artefakten des maschinellen Lernens (ML) und der künstlichen Intelligenz (KI) zu verringern und die Reibung zwischen den damit verbundenen Teams zu reduzieren.
- Etablierung einer starken DevOps-Praxis in den verschiedenen Phasen - Datenpipeline, Data Science, ML, KI und zugrunde liegende Infrastruktur - zur radikalen Verbesserung der Lieferpipeline und Operationalisierung von Analyse- und KI-Architekturen.
- Schaffen Sie eine integrierte XOps-Praxis, die unterschiedliche Funktionen, Teams und Prozesse zur Unterstützung der Datenverarbeitung, des Modelltrainings, der Modellverwaltung und der Modellüberwachung zusammenführt und so eine kontinuierliche Bereitstellung von KI-basierten Systemen ermöglicht.
- Nutzen Sie DataOps-, ModelOps- und DevOps-Praktiken und -Know-how, um eine zusammensetzbare technische Architektur aufzubauen, die den Geschäftsfunktionen Ausfallsicherheit, Modularität und Autonomie bietet und die Bereitstellung von Analyse- und KI-Lösungen orchestriert."
Für uns ist es offensichtlich, dass Gartner aus gutem Grund den Schwerpunkt auf den Betrieb als zentralen Erfolgsfaktor für analytische und KI-Initiativen legt. Was Gartner jedoch ausgelassen hat, ist eine detaillierte Beschreibung der verschiedenen Best Practices innerhalb von DevOps, DataOps und ModelOps. Um Ihnen ein konkreteres Bild davon zu vermitteln, was die verschiedenen XOps-Praktiken bedeuten, haben wir mit unserer Erfahrung aus den letzten mehr als 10 Jahren in der Branche 5 wichtige Frameworks zur Beschleunigung der Operationalisierung von Algorithmen identifiziert.
Die Lösung: Die 5 wichtigsten Rahmenwerke für eine beschleunigte Operationalisierung von Algorithmen
- ML-Rahmenwerk: Ein Framework für maschinelles Lernen ermöglicht eine beschleunigte Entwicklung von Modellen für maschinelles Lernen. Ein gutes ML-Framework sollte alle Schritte in der Kette der Erstellung eines Modells übernehmen. Es sollte automatisch neue Trainingsdatensätze erstellen, viele verschiedene Modelle trainieren und sie mit einem Validierungssatz vergleichen, um den besten Kandidaten zu finden, und es sollte in der Lage sein, das neue Modell bereitzustellen, damit es an jedem Ort, an dem es verwendet wird, aktualisiert wird. Der Rahmen sollte auch eine Versionskontrolle der Modelle vorsehen und in der Lage sein, die Ergebnisse im Laufe der Zeit zu überwachen, um festzustellen, wann es angebracht ist, das Modell automatisch neu zu trainieren.

Schaubild 2: Rahmen für maschinelles Lernen
- Funktionsspeicher: Ein Merkmalsspeicher ermöglicht eine schnellere Entwicklung von Merkmalen des maschinellen Lernens. Durch die Speicherung aller Berechnungen von Merkmalen (daher der Name "Feature Store") werden die meisten Merkmale vorberechnet, wenn sie benötigt werden, was eine wesentlich schnellere Bereitstellung ermöglicht. Dies wiederum ermöglicht es den Datenwissenschaftlern, Merkmale für die Entwicklung von Modellen spontan auszuwählen, anstatt stunden- oder tagelang auf die Berechnung eines Datensatzes zu warten, was die Kreativität von data scientist erhöht. Außerdem sollte sich der Endnutzer des Merkmalspeichers keine Gedanken darüber machen müssen, ob das Merkmal für das Training eines Modells, für die Batch-Vorhersage oder für die Online-Vorhersage verwendet werden soll.

Schaubild 3: Die 5 wichtigsten Rahmenbedingungen für eine beschleunigte Operationalisierung von Algorithmen - Feature Store
- ETL-Rahmenwerk: Ein ETL-Framework nutzt bewährte DevOps-Praktiken für die Planung von Aufgaben und die Verwaltung von Abhängigkeiten in data & analytics Pipelines mit einer ständig wachsenden Komplexität. Ohne ein geeignetes ETL-Framework wird die Duplizierung von Code Ihre analytische Einheit schnell in eine Bande von Sumpfbewohnern verwandeln. Ein gutes Framework bietet auch gute Funktionen zum Testen und Verifizieren neuer Codeänderungen, schafft Vertrauen in die Freigabe neuen Codes und senkt die Schwelle für komplexe, aber nützliche Änderungen.

Schaubild 4: Die 5 wichtigsten Rahmenwerke für eine beschleunigte Operationalisierung von Algorithmen - ETL-Rahmenwerk
- A/B-Testing-Rahmen: Ein A/B-Testing-Rahmen ist für jede Organisation, die die Ergebnisse ihrer Maßnahmen messen will, unerlässlich. Dieses Framework ermöglicht unvoreingenommene und mehrfache parallele A/B-Tests, bei denen die Anzahl und Größe der Gruppen von Test zu Test angepasst werden kann. Außerdem werden die Tests über vordefinierte Metriken automatisch verfolgt, wenn der festgelegte Testzeitraum abgelaufen ist.

Schaubild 6: Die 5 wichtigsten Rahmenbedingungen für eine beschleunigte Operationalisierung von Algorithmen - A/B-Testing Framework
- Berichtsrahmen: Ein Reporting Framework ermöglicht eine systematische Nachverfolgung von Zielen über standardisierte, branchenspezifische Geschäftskennzahlen. Das Reporting Framework wird am besten zusammen mit Ihrem bestehenden BI-Tool für Visualisierung und maschinelles Lernen und dem A/B-Testing Framework für die automatische Nachverfolgung von Tests und Modellleistung eingesetzt. Ein gutes Reporting-Framework nutzt auch Augmented Analytics, um zu beschreiben, warum sich eine Kennzahl verändert hat, und nicht nur, dass sie sich verändert hat.

Schaubild 7: Die 5 wichtigsten Rahmenbedingungen für eine beschleunigte Operationalisierung von Algorithmen - Rahmen für die Berichterstattung
"Die konsequente Messung und Berichterstattung über den Geschäftswert von Analyse- und KI-Assets bleibt eine Herausforderung. Dies erfordert die Überwachung von Analyse- und KI-Assets während ihres gesamten Lebenszyklus, nicht nur von der Entwicklungsphase bis zur Produktionsumgebung, sondern auch in den verschiedenen Phasen ihrer Integration." - Gartner 2021
Zusammenfassend lässt sich sagen, dass die Betriebsabläufe für data & analytics kein Thema sind, das man auf die lange Bank schieben sollte. Wenn Ihr Unternehmen durch die Nutzung von Analysen und KI einen Wettbewerbsvorteil erzielen möchte, sind Investitionen in den Betrieb und die erforderlichen Tools eine Notwendigkeit, um Ihre Marktposition zu verbessern.
Wenn Sie mehr über dieses Thema erfahren möchten, sehen Sie sich den Avaus Expert Talks 4: Algo-Operationen oder wenden Sie sich an jemanden bei Avaus.
AET 4 ansehen: Algo-Operationen
Quelle: Gartner, Top Trends in Data and Analytics for 2021: XOps, Erick Brethenoux, Donald Feinberg, Afraz Jaffri, Ankush Jain, Soyeb Barot, Rita Sallam, 16. Februar 2021
Geschrieben von Sébastien Äneurd
Kontaktieren Sie uns