Vom Prototypen zur Lösung

Vom Prototypen zur Lösung

Raus aus der Proof-of-Concept-Hölle

Bild: ©metamorworks/stock.adobe.com

Viele Unternehmen scheitern daran, die Prototypen ihrer Data-Analytics-Projekte in eine produktive, skalierbare Lösung zu überführen. Entscheidend dafür sind gute Planung und ein langer Atem, meint Danny Claus von DoubleSlash.

Machine Learning (ML) lebt davon, dass Daten in ausreichender Menge und Qualität zur Verfügung stehen, um die Algorithmen zu füttern, die dann Muster und Gesetzmäßigkeiten erkennen. Dies wiederum bildet die Basis dafür, dass Maschinen tatsächlich selbstständig lernen und ihre Funktion den Gegebenheiten anpassen können. Der Mangel an Daten – die auch in der erforderlichen Qualität vorliegen müssen – gilt als einer der größten Stolpersteine auf dem Weg zu einer ML-Lösung. Dabei gilt: Was als Proof of Concept funktioniert, ist noch lange nicht reif für den Einsatz in der Produktion. Die Herausforderungen und die Komplexität bei der Umsetzung von Data-Analytics-Projekten werden oft unterschätzt. Deshalb schaffen es bislang nur wenige Projekte tatsächlich in den produktiven Betrieb. Wer die Hürden nehmen will, muss gut und vor allem frühzeitig planen.

80 Prozent Datenintegration

Stehen die benötigten Daten gar nicht oder in nicht ausreichender Menge zur Verfügung, kann es sein, dass Maschinen und Anlagen entweder noch nicht mit den notwendigen Sensoren und Funktionen ausgestattet sind oder sie liefern nicht alle benötigten Informationen. Doch selbst wenn die Daten verfügbar sind, verteilen sie sich oft auf unterschiedliche Fachbereiche – isolierte Datensilos aber machen eine übergreifende Auswertung der Daten unmöglich. Für die Datenintegration sollten daher etwa 80 Prozent des Gesamtaufwands bei Data-Analytics-Projekten eingeplant werden. Bereits in einer sehr frühen Phase des Produktdesigns sollten die datentechnischen Voraussetzungen für Machine Learning betrachtet sowie anhand eines konkreten Use Cases definiert werden, welche Daten später benötigt werden. Im Anschluss empfiehlt es sich, möglichst viele Informationen zu übermitteln bzw. parallel zu klären, welche Technologien zum Einsatz kommen sollen. Beispielsweise stellt sich die Frage, ob der Einsatz von Cloud- und Big-Data-Technologien sinnvoll ist. Viele Anwendungen lassen sich auch mit einfacheren Methoden und Technologien umsetzen. So kommt man beispielsweise über den Einsatz simpler regel- oder schwellwertbasierter Verfahren und Visualisierungen mit BI-Dashboards schnell und deutlich günstiger ans Ziel.

Durchdachte Datenverwaltung

Für größere Unternehmen kann es sinnvoll sein, einen Data Lake zu schaffen, in dem Daten kontinuierlich zusammengeführt werden. Aufwand und Kosten dieser Herangehensweise sollten jedoch gegen den möglichen Mehrwert abgewogen werden. Allzu oft allerdings reichen Menge und Qualität der verfügbaren Daten – zumindest am Anfang – nicht aus, um das Projekt wirklich erfolgreich zu machen. Entweder sind Datenbestände unvollständig bzw. fehlerhaft oder sie decken nur einen kurzen Zeitraum ab. Daher sollte bereits in einer sehr frühen Projektphase geprüft werden, ob Datenqualität und -quantität ausreichen, um einen Use Case aufzubauen und die gesetzten Ziele zu erreichen. Reichen sie nicht, muss zunächst sichergestellt werden, ob, wie und bis wann die benötigten Daten zur Verfügung stehen. Es genügt nicht, mit dem Sammeln der Daten erst zu beginnen, wenn ein Machine Learning Projekt gestartet wird.

Seiten: 1 2 3Auf einer Seite lesen

doubleSlash Net-Business GmbH
www.doubleslash.de

Das könnte Sie auch Interessieren

Bild: Fraunhofer IGD
Bild: Fraunhofer IGD
Software Arrange beschleunigt Absortierprozesse

Software Arrange beschleunigt Absortierprozesse

In Kombination mit einer Augmented-Reality-Brille bietet eine neue Software des Fraunhofer IGD digitale Unterstützung von Absortiervorgängen. Zusammengehörige Bauteile werden direkt im Sichtfeld der Beschäftigten an der Produktionslinie farblich überlagert. Anwender im Automotive-Bereich können so etwa durch beschleunigte Prozesse und eine minimierte Fehleranfälligkeit Kosten reduzieren.

Bild: Coscom Computer GmbH
Bild: Coscom Computer GmbH
Software-Plattform für KI und maschinelles Lernen

Software-Plattform für KI und maschinelles Lernen

Vermehrt interessieren sich Unternehmen dafür, auf Basis ihrer Fertigungsinformationen Verbesserungspotenziale in der Produktionsplanung und -steuerung zu heben. Maschinelles Lernen und künstliche Intelligenz (KI) kann aber nur dann wirtschaftlich sinnvoll eingesetzt werden, wenn alle relevanten Daten im Zugriff sind und deren Struktur zu den Anwendungen passen. Das Coscom-ECO-System soll eine Plattformökonomie als Basis für Business Intelligence (BI) bieten.

Bild: Benteler International AG
Bild: Benteler International AG
Produktionsfehler: KI findet die Nadel im Heuhaufen

Produktionsfehler: KI findet die Nadel im Heuhaufen

In der Qualitätsprüfung ist Zeit ein wichtiger Faktor: Wer Fehler rechtzeitig findet, kann sie effektiv und kostensparend beheben. Gemeinsam mit dem Fraunhofer IEM setzt der Automobilzulieferer Benteler dafür in der Warmumformung von Fahrzeugteilen auf Echtzeit-Sensordaten und Künstliche Intelligenz. Damit können Produktionsfehler schneller erkannt, behoben und zukünftig sogar vermieden werden.

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

„Künstliche Intelligenz ist eine, wenn nicht die wichtigste Zukunftstechnologie für Unternehmen.“ Diese Aussage bejahen 70 Prozent der Befragten der jüngsten Bitkom-Studie zu KI. Aber nur 10 Prozent aller Unternehmen haben KI-Technologie aktiv im Einsatz, lediglich 30 Prozent planen und diskutieren deren Anwendung. Was ist der Grund für diese große Diskrepanz?

Bild: Blue Yonder, Inc.
Bild: Blue Yonder, Inc.
Künstliche Intelligenz – mehr als eine Wissenschaft

Künstliche Intelligenz – mehr als eine Wissenschaft

Data Science ist mittlerweile ein fester Bestandteil der strategischen Planung in vielen Unternehmen. Um künftige Entwicklungen realistisch zu planen, brauchen wir Künstliche Intelligenz (KI) und Maschinelles Lernen (ML). Insbesondere im Einzelhandel vertrauen immer mehr große Player auf KI-Lösungen, die präzise Prognosen ermöglichen und zum Beispiel Bestände oder Preise optimieren. Doch viele Entscheidungsträger glauben noch nicht daran, dass KI in den Lieferketten der Zukunft eine tragende Rolle spielen wird. Der Grund hierfür liegt in einer falschen Sicht auf die Wissenschaft.

Bild: ©Stock57/stock.adobe.com
Bild: ©Stock57/stock.adobe.com
KI-Verfahren für die Produktion

KI-Verfahren für die Produktion

Mathematiker der Hochschule Darmstadt (h_da) entwickeln gemeinsam mit dem Hanauer Simulationsdienstleister und Softwareunternehmen SimPlan und dem Automationsexperten Fibro Läpple Technology neue KI-Technologien. Im Rahmen des Loewe-Projekts ‚KISPo‘ will das Konsortium eine autonome, selbstlernende Steuerungssoftware für Produktionsanlagen entwickeln, wie sie z.B. bei der Herstellung von Komponenten für Windräder oder Elektromotoren zum Einsatz kommen. Es wäre die erste KI-Software dieser Art. Damit würde eine von Industrieverbänden und Forschung lange bemängelte Technologielücke geschlossen. Das Land Hessen fördert das Projekt für zwei Jahre mit 320.000 Euro. Konsortialführerin ist die Hochschule Darmstadt.