Sieben Learnings aus dem produktiven Einsatz von Machine Learning

Durch die Zusammenarbeit mit globalen Unternehmen konnte Data Reply über viele Jahre hinweg wertvolle Erfahrungen im Umgang mit Machine-Learning-Projekten sammeln – von der ersten Idee bis zum produktiven Deployment. Dabei fallen bestimmte Muster auf. Sie machen solche Projekte erfolgreich und können den maximalen Business Value herausholen.
Bild: ©sdecoret/Fotolia.com

In der strategischen Planung von großen Unternehmen spielen Machine-Learning-Projekte eine immer wichtigere Rolle. Mittlerweile zeichnet sich ein klares Bild von den Herausforderungen ab, die den Erfolg am stärksten beeinflussen. Eine reine Machine Learning-Logik lässt sich zwar oft sehr schnell und kostengünstig entwickeln. Doch die Integration in bereits bestehende Geschäftsprozesse und die allgemeine Software-Bereitstellung und -Wartung ist eine aufwändige und oft teure Angelegenheit. Drei Faktoren sind für die erfolgreiche Umsetzung maßgeblich: Erstens können traditionelle Softwareentwicklungsparadigmen den Projekterfolg nicht mehr garantieren, sobald große Datenmengen ins Spiel kommen. Zweitens ist ein hohes Maß an Koordination und Kooperation vonnöten, da häufig viele Teams in die Projekte eingebunden sind. Neben Data-Science- und Data-Engineering-Teams sind auch Infrastruktur- und Applikationsentwicklungs-Teams involviert. Drittens bauen ML-Entwicklungsprojekte zu Beginn oft nicht direkt auf den Daten auf – sondern auf einmaligen Daten-Exporten. Dies führt dazu, dass die Projektteams weder nicht-funktionale noch Skalierungsanforderungen einbeziehen können. Beispiele hierfür sind unterschiedliche Datenformate, aber auch die Größe von Datenmengen oder die Geschwindigkeit, mit der Daten bereitgestellt werden, sowie erwartete Antwortzeiten.

Sieben Learnings für die erfolgreiche Umsetzung von Machine-Learning-Projekten

Die folgenden Erkenntnisse zeigen, wie typische Fallstricke mit dem richtigen Mindset und den richtigen Tools vermieden werden können. Wichtig ist, zu Projektbeginn das richtige Setup für eine hohe Entwicklungsgeschwindigkeit zu wählen. Darüber hinaus soll das schlussendliche Ziel – das produktive Deployment – so unkompliziert wie möglich erreicht werden. Die folgenden Erkenntnisse sollen einen Beitrag leisten, um ML-Projekte erfolgreicher zu gestalten sowie schneller und kostengünstiger echten Business Value zu erzeugen.

Lokale Datenexporte und unstrukturierten Code vermeiden

Es ist üblich, lokal gespeicherte Beispieldaten, lokale Skripts und unstrukturierte Entwicklungsumgebungen für die Arbeit mit Daten und die Ergebnisanalyse zu nutzen. Dies sorgt anfangs für einen Zuwachs an Geschwindigkeit, weil die Daten vorhanden und beherrschbar sind. Sobald die Ressourcenanforderungen steigen, stößt dies jedoch schnell an Grenzen. Vor allem der Anspruch, die Entwicklungen universal nutzen zu können, leidet darunter: Der stark lokal getriebene Entwicklungsansatz macht es schwer, reproduzierbare Ergebnisse zu liefern, kollaborativ zu arbeiten und Aufgaben wie Parsen, Prozessierung, Training oder Inferenz unabhängig voneinander zu bearbeiten. Das ist fatal, sobald es um das Deployment in Produktivumgebungen geht, in denen sich Datenschemata, Speicher- und Prozessierungstechnologien sowie weitere Faktoren ständig ändern. Kurz gesagt: je früher an das produktive Deployment gedacht wird, desto besser.

Bei der initialen Auswahl der ML-Algorithmen an die späteren Skalierbarkeits-Anforderungen denken

Das Training von ML-Modellen kann sehr lange dauern. In Verbindung mit großen Datenmengen ist dies bei vielen Projekten eine erhebliche technische Herausforderung. Solche Erwägungen sollten bereits in der Experimentierphase einfließen. So lassen sich Skalierbarkeitsprobleme und ein hierdurch verursachter Neuentwicklungsaufwand in späteren Projektphasen verhindern. Eine von vornherein effiziente Trainings-Pipeline liefert zudem einen Produktivitätszuwachs für das Entwicklungsteam und reduziert die Kosten für das Training der Modelle.

Minimum Viable Products (MVPs) unter Einbeziehung von produktiven Anforderungen entwickeln

Ein MVP ist eine Produktversion, die gerade genug Features aufweist, um bereits zu einem frühen Zeitpunkt von Kunden genutzt werden zu können. MVPs reduzieren die Markteinführungszeit und helfen dabei, frühzeitig direktes Nutzerfeedback einzuholen. Letzteres kann damit von Beginn an in die Produktentwicklung einfließen. In der MVP-Entwicklung sollte rechtzeitig mit Produktivanforderungen gearbeitet werden. Das ermöglicht die spätere Erweiterung zu einem Vollprodukt. Sowohl der Code als auch die Infrastruktur sollten dementsprechend gestaltet sein.

Continuous Integration und Continuous Delivery nutzen

Continuous Integration/Continuous Delivery (CI/CD) ist eine Methodik, die das strukturierte Bereitstellen von Bugfixes und neuen Funktionalitäten ermöglicht. Der CI/CD-Prozess sorgt dafür, dass die Arbeit von vielen Teammitgliedern effizient kombiniert wird. Dabei bewahrt er die lokale und globale Integrität des Codes. Continuous Delivery macht Verbesserungen und Erweiterungen der Funktionalität schnellstmöglich für die Nutzer zugänglich. Machine-Learning-Projekte gehen zu Beginn häufig durch eine längere lokale Experimentierphase und sind aufgrund dessen oft sehr skriptlastig. Das steht im Gegensatz zur traditionellen Softwareentwicklung, bei der sich CI/CD-Prozesse flächendeckend durchgesetzt haben. CI/CD ist der einzige Ansatz, der die Betriebssicherheit der ML-Lösung im speziellen und der Applikation im Allgemeinen sicherstellt, denn dadurch können sicherheitskritische Updates zu jeder Zeit eingearbeitet werden.

Die Produktivsetzung schrittweise angehen

Die Software in eine Reihe von Pre-Production-Umgebungen auszurollen, hat sich in der Mainstream-Software-Entwicklung längt als Best Practice durchgesetzt. Im Zuge dessen wird die Software unter algorithmischen, infrastrukturellen und kommerziellen Gesichtspunkten geprüft, bevor eine produktive Bereitstellung erfolgt. Bei ML-Produkten ist das Endziel oft nicht klar und Entscheidungen über Maßnahmen zur Einrichtung entsprechender Umgebungen werden verzögert. Das frühzeitige Einrichten von DEV-, QA- und PROD-Umgebungen ist grundlegend für die reibungslose Entwicklung eines Machine-Learning-Produkts.

Pipeline-Strukturen anpassen

Das Training von Machine-Learning-Modellen kann selten direkt mit Rohdaten erfolgen. Im Vorfeld muss eine Datenbereinigung und -vorbereitung stattfinden. Das stellt Unternehmen mit großen Datenmengen vor eine komplexe Aufgabe. Damit tatsächlich alle notwendigen Schritte in der richtigen Reihenfolge ausgeführt werden, ist es empfehlenswert, ein Orchestrierungs-Framework wie z.B. Kubernetes zu nutzen. Das sorgt für einen Überblick über alle Abläufe.

Monitoring und Betrieb mit Machine Learning Operations (MLOps)

Es gibt Anforderungen an Monitoring und Betrieb, die speziell Machine-Learning-Deployments, so genannte MLOps betreffen. Darunter fallen z.B. das Performance-Monitoring für Machine-Learning-Modelle und die Wahl des richtigen Zeitpunkts für sein erneutes Training. Solche Monitoring-Operationen und Entscheidungen erfordern das effektive Sammeln, Zusammenführen und Speichern von Metriken zur Beschreibung der Performance von Machine Learning-Algorithmen. Die Wahl der richtigen Frameworks und der Infrastruktur für diese Aufgaben sind wichtige Bausteine der Systemarchitektur.

Fazit

Können die die beschriebenen Fehler vermieden werden, hat das eine erhebliche Wirkung auf den Ertrag von Machine-Learning-Projekten. Zumeist entstehen Fehlentwicklungen bereits in der Anfangsphase, wenn es um die Verwendung der richtigen Datenquellen geht. In späteren Phasen können Projekte scheitern, wenn wichtige Anforderungen wie Monitoring und Betrieb nicht frühzeitig in die Architektur einbezogen wurden. Gerade bei Machine-Learning-Projekten ist es elementar, mit produktionsähnlichen Daten, einer geeigneten Umgebung und einem Monitoring-Setup zu arbeiten.

Das könnte Sie auch Interessieren

Bild: Fraunhofer IEM
Bild: Fraunhofer IEM
Effiziente Produktionsplanung: KI reduziert Aufwand bei Schulte Kartonagen um 25%

Effiziente Produktionsplanung: KI reduziert Aufwand bei Schulte Kartonagen um 25%

Welcher Liefertermin steht wann an? Wie aufwändig muss die Maschine umgerüstet werden? Ist das benötigte Material bereits geliefert? Um die Reihenfolge verschiedener Kundenaufträge optimal zu planen, müssen Produktionsplaner:innen eine Vielzahl von Faktoren kennen und einschätzen. Bei Schulte Kartonagen hat ab sofort ein intelligenter KI-Assistent alle Faktoren im Blick – und macht Vorschläge für die effiziente Planung der Produktion. Gefördert wurde die Zusammenarbeit mit dem Fraunhofer IEM und den Universitäten Paderborn und Bielefeld im it’s OWL-Projekt ARISE.

Bild: schoesslers GmbH
Bild: schoesslers GmbH
appliedAI Institute for Europe launcht kostenlosen KI-Onlinekurs

appliedAI Institute for Europe launcht kostenlosen KI-Onlinekurs

Das gemeinnützige appliedAI Institute for Europe stellt den kostenfreien Online-Kurs ‚AI Essentials‘ zur Verfügung, der es Interessierten ermöglicht, in die Welt der Künstlichen Intelligenz einzusteigen. Konzepte wie maschinelles Lernen und Deep-Learning sowie deren Anwendungsmöglichkeiten und Auswirkungen auf unser Leben und unsere Wirtschaft sind Teile der umfassenden Einführung.

Bild: Trumpf SE + Co. KG
Bild: Trumpf SE + Co. KG
Künstliche Intelligenz macht Fabriken clever

Künstliche Intelligenz macht Fabriken clever

Seit dem Siegeszug des Chatbots ChatGPT ist künstliche Intelligenz in aller Munde. Auch in der industriellen Produktionstechnik kommt KI mit großen Schritten voran. Lernende Maschinen machen die Fertigung effizienter. Wie funktioniert das genau? Das können Interessierte auf der EMO Hannover 2023 vom 18. bis 23. September erfahren. Die Weltleitmesse für Produktionstechnologie wird ihr Fachpublikum unter dem Claim ‚Innovate Manufacturing‘. mit frischen Ideen inspirieren und künstliche Intelligenz spielt dabei ihre Stärken aus.

Bild: Mitsubishi Electric Corporation, Japan
Bild: Mitsubishi Electric Corporation, Japan
KI-gestütztes Analysetool für moderne Produktionslinien

KI-gestütztes Analysetool für moderne Produktionslinien

Das Data-Science-Tool Melsoft MaiLab von Mitsubishi soll Unternehmen bei der Digitalisierung ihrer Fertigung und unterstützen und so deren Produktivität steigern. Die neue Lösung ist eine intuitive, bedienerzentrierte Plattform, die KI nutzt, um Abläufe automatisch zu verbessern. Sei es Abfallvermeidung durch geringere Ausschussmengen, weniger Stillstandszeiten durch vorbeugende Wartung oder Senkung des Energieverbrauchs durch Prozessoptimierung.

Bild: Fraunhofer IGD
Bild: Fraunhofer IGD
Software Arrange beschleunigt Absortierprozesse

Software Arrange beschleunigt Absortierprozesse

In Kombination mit einer Augmented-Reality-Brille bietet eine neue Software des Fraunhofer IGD digitale Unterstützung von Absortiervorgängen. Zusammengehörige Bauteile werden direkt im Sichtfeld der Beschäftigten an der Produktionslinie farblich überlagert. Anwender im Automotive-Bereich können so etwa durch beschleunigte Prozesse und eine minimierte Fehleranfälligkeit Kosten reduzieren.