Chancen und Herausforderungen von Machine Learning in der Fertigung

Automatisierung, künstliche Intelligenz (KI), Internet of Things (IoT) und Machine Learning (ML) sind heutzutage bekannte Technologien und kommen bereits in vielen Unternehmen zum Einsatz. Mit Hilfe von Machine Learning wird es IT-Systemen ermöglicht, Muster und Zusammenhänge aus Daten zu lernen und sich selbst zu verbessern. Dabei ist keine explizite Programmierung notwendig. Die Bearbeitung von Kundenanfragen, die Erkennung möglicher Störfälle sowie unerwarteter Ereignisse wie z.B. Cyberangriffe sind klassische Anwendungsfelder von ML. Aber auch die Unterstützung bei einer rein datengestützten Entscheidungsfindung und die Interpretation großer Datenmengen gehören dazu.
Bild: ©NicoElNino/stock.adobe.com

Unternehmen sind mit ML in der Lage ihre Kosten zu reduzieren und den Einsatz ihrer Mitarbeiter effektiver zu gestalten. Die Implementierung bringt aber auch Herausforderungen mit sich – darunter fallen z.B. die Datenaufbereitung, die Bereitstellung des Konzepts oder die Schätzung des ROI. Für die Umsetzung der Technologie werden daher interne Experten, Projekterfahrung sowie eine realistische Zielsetzung benötigt. Deshalb sollten zuverlässige Partner miteingespannt werden.

Anwendungsbereiche in der Fertigung

Die Industrie und Fertigung können von ML auch in vielerlei Hinsicht profitieren – z.B. in den Bereichen Asset Management, Supply Chain Management sowie der Lagerhaltung. Im Fokus stehen dabei Bedarfsprognosen, die automatische Bestandskontrolle und die Optimierung der Beschaffungsverfahren. Intelligente Routenplanung und Beladung von Fahrzeugen mindern deren Verbrauch. Durch vorausschauende Wartung von Fahrzeugen, digitales Anlagenmonitoring und die Prognose von Anomalien lassen sich Kosten reduzieren. Aber auch mit einer Personalplanung, die rechtzeitig leistungsmindernde Faktoren wie hohe Temperaturen und daraus resultierende Konzentrationsmängel berücksichtigt und so Fehler schon im Vorfeld zu vermeiden hilft.

ML ermöglicht bei der Qualitätssicherung das Video-Monitoring von Paket- oder Containerinhalten sowie die automatische Erfassung von Maßabweichungen bei massenhaft hergestellten Produkten. Versorger können z.B. über die Automatisierung von Routinetätigkeiten wie der Durchleitungskontrolle im Stromnetz profitieren. Das setzt viel Ingenieurpotenzial frei und sorgt zugleich für weniger Störfälle.

Stanislav Appelganz, Head of Business Development / Consulting & Smart Customer Solutions bei WaveAccess
Autor: Stanislav Appelganz, Head of Business Development / Consulting & Smart Customer Solutions bei WaveAccess – Bild: WaveAccess RD-Software GmbH

ML-Erfolg basiert auf Datenqualität

Oftmals scheitern ML-Projekte an der Qualität der vorhandenen Daten – sie dienen als einzige Quelle für den automatisierten Prozess. Daher führen minderwertige Daten zwangsläufig zu unbrauchbaren Ergebnissen.

Eine ideale Datenbasis ist groß (mit 10.000 bis 100.000 Fakten), korrekt, hinreichend umfassend und sachgerecht gekennzeichnet. Jedoch ist dieser Idealzustand in der Praxis nur selten vorhanden, es gibt dennoch Maßnahmen diesen zu erreichen.

Unvollständigkeit: Wenn nicht ausreichend Inputdaten bereitgestellt werden können, muss die Problemstellung neu eingegrenzt werden. Ähnliches gilt bei zu kleinen Datenmengen in bestimmten Situationen. Für eine automatische Routenplanung dürfen z.B. nicht nur die Daten aus einer bestimmten Region vorliegen, deren spezielles Muster nicht auf andere übertragbar ist.

Unkorrektes Labelling: Zum Training benötigen ML-Algorithmen korrekte Antworten auf die gestellten Fragen. Die Datensätze müssen also entsprechend gekennzeichnet sein. Jedoch sollte das nicht allein dem Technologiepartner überlassen werden, da dieser oft nicht das nötige Fachwissen besitzt. Schneller und kostengünstiger gelingt das sogenannte Labelling unter Mitwirkung hausinterner Fachleute.

Datenfehler: Es besteht die Gefahr einer größeren Menge systematischer Fehler, wenn die Grunddaten des ML-Modells manuell gesammelt wurden. Experten sollten daher die Daten im Vorfeld überprüfen und korrigieren – ein ML-Modell verzeiht nur einzelne Fehler ohne gemeinsames Muster.

Start mit Prototypen

Es lässt sich bei der Einführung von Machine Learning bereits vor der Entwicklungsphase feststellen, wie viel Geld aus den gesammelten Daten gewonnen werden kann und wie viel das ML-Projekt dem Unternehmen somit einbringen wird. Mit der Erstellung eines Pilotprojekts kann man die Technologie testen und somit das Potenzial für Anwendungen und Aufgaben verstehen. Somit gehen Unternehmen mit dem Projekt kein Risiko ein, sondern setzen auf eine ganz bewusste Investition mit einem prognostizierten ROI.

ML-Projekte sollten daher immer zunächst als Proof of Concept angegangen werden, um die Vor- und Nachteile zu erkennen. Welche Daten repräsentieren oder beeinträchtigen die Zusammenhänge am besten? Welche Trefferquote ist mit dem Modell erreichbar und wie kann sie verbessert werden? Nach welchen Kriterien lässt sich der Erfolg eines Projekts sinnvoll bewerten?

Zudem kommt ein Prototyp mit anonymisierten Datenquellen aus – sprich ohne die Weitergabe sensibler Daten an den Technologiepartner. Solche Pilotprojekte werden von Partner-Unternehmen eventuell auch kostenlos durchgeführt.

Realistische Erwartungen an Fehlertoleranz und Erfolg

Die Erwartungen an Zeitersparnis, Trefferquote, Ergebnisqualität und Amortisationszeit von ML-Projekten sind meist jedoch unrealistisch hoch, während gleichzeitig Problembeschreibung und Daten viel zu ungenau sind. Erfahrene Partner und Prototyping können helfen, die Erwartungen realistisch zu halten.

Zudem ist eine bessere Kalkulation der Fehlertoleranz des Modells möglich, wenn der ROI im Vorfeld geschätzt wird. Mehr Genauigkeit kann ein Vielfaches mehr an Kosten verursachen. Daher ist es oft klüger, ein falsch negativ eingestuftes Ergebnis zu verpassen, als viele falsch positiv gemeldete Ergebnisse teuer bewerten zu müssen. Auch das Nichteintreffen eines erwarteten Ereignisses kann wertvolle Hinweise auf das Modell geben.

Zudem braucht jedes Projekt den passenden Algorithmus. Oftmals ist jedoch die Erstellung teurer, rechenintensiver, neuronaler Netze oder der Zukauf von Marktforschungsdaten unnötig. Hier sollten Unternehmen deshalb auf die Erfahrungswerte des Technologiepartners vertrauen.

Die Fertigung und Unternehmen können bei der Umsetzung von ML-Projekten also leicht scheitern, wenn sie vom raschen Erfolg getrieben sind, den falschen Partner wählen oder ihm den nötigen Einblick in Geschäftsprozesse oder Daten verweigern. Gute Voraussetzungen für den Erfolg von ML-Projekten sind dagegen saubere Daten, Prototyping, realistische Erwartungen und Vertrauen.

Das könnte Sie auch Interessieren

Bild: Fraunhofer IGD
Bild: Fraunhofer IGD
Software Arrange beschleunigt Absortierprozesse

Software Arrange beschleunigt Absortierprozesse

In Kombination mit einer Augmented-Reality-Brille bietet eine neue Software des Fraunhofer IGD digitale Unterstützung von Absortiervorgängen. Zusammengehörige Bauteile werden direkt im Sichtfeld der Beschäftigten an der Produktionslinie farblich überlagert. Anwender im Automotive-Bereich können so etwa durch beschleunigte Prozesse und eine minimierte Fehleranfälligkeit Kosten reduzieren.

Bild: Coscom Computer GmbH
Bild: Coscom Computer GmbH
Software-Plattform für KI und maschinelles Lernen

Software-Plattform für KI und maschinelles Lernen

Vermehrt interessieren sich Unternehmen dafür, auf Basis ihrer Fertigungsinformationen Verbesserungspotenziale in der Produktionsplanung und -steuerung zu heben. Maschinelles Lernen und künstliche Intelligenz (KI) kann aber nur dann wirtschaftlich sinnvoll eingesetzt werden, wenn alle relevanten Daten im Zugriff sind und deren Struktur zu den Anwendungen passen. Das Coscom-ECO-System soll eine Plattformökonomie als Basis für Business Intelligence (BI) bieten.

Bild: Benteler International AG
Bild: Benteler International AG
Produktionsfehler: KI findet die Nadel im Heuhaufen

Produktionsfehler: KI findet die Nadel im Heuhaufen

In der Qualitätsprüfung ist Zeit ein wichtiger Faktor: Wer Fehler rechtzeitig findet, kann sie effektiv und kostensparend beheben. Gemeinsam mit dem Fraunhofer IEM setzt der Automobilzulieferer Benteler dafür in der Warmumformung von Fahrzeugteilen auf Echtzeit-Sensordaten und Künstliche Intelligenz. Damit können Produktionsfehler schneller erkannt, behoben und zukünftig sogar vermieden werden.

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

„Künstliche Intelligenz ist eine, wenn nicht die wichtigste Zukunftstechnologie für Unternehmen.“ Diese Aussage bejahen 70 Prozent der Befragten der jüngsten Bitkom-Studie zu KI. Aber nur 10 Prozent aller Unternehmen haben KI-Technologie aktiv im Einsatz, lediglich 30 Prozent planen und diskutieren deren Anwendung. Was ist der Grund für diese große Diskrepanz?

Bild: Blue Yonder, Inc.
Bild: Blue Yonder, Inc.
Künstliche Intelligenz – mehr als eine Wissenschaft

Künstliche Intelligenz – mehr als eine Wissenschaft

Data Science ist mittlerweile ein fester Bestandteil der strategischen Planung in vielen Unternehmen. Um künftige Entwicklungen realistisch zu planen, brauchen wir Künstliche Intelligenz (KI) und Maschinelles Lernen (ML). Insbesondere im Einzelhandel vertrauen immer mehr große Player auf KI-Lösungen, die präzise Prognosen ermöglichen und zum Beispiel Bestände oder Preise optimieren. Doch viele Entscheidungsträger glauben noch nicht daran, dass KI in den Lieferketten der Zukunft eine tragende Rolle spielen wird. Der Grund hierfür liegt in einer falschen Sicht auf die Wissenschaft.

Bild: ©Stock57/stock.adobe.com
Bild: ©Stock57/stock.adobe.com
KI-Verfahren für die Produktion

KI-Verfahren für die Produktion

Mathematiker der Hochschule Darmstadt (h_da) entwickeln gemeinsam mit dem Hanauer Simulationsdienstleister und Softwareunternehmen SimPlan und dem Automationsexperten Fibro Läpple Technology neue KI-Technologien. Im Rahmen des Loewe-Projekts ‚KISPo‘ will das Konsortium eine autonome, selbstlernende Steuerungssoftware für Produktionsanlagen entwickeln, wie sie z.B. bei der Herstellung von Komponenten für Windräder oder Elektromotoren zum Einsatz kommen. Es wäre die erste KI-Software dieser Art. Damit würde eine von Industrieverbänden und Forschung lange bemängelte Technologielücke geschlossen. Das Land Hessen fördert das Projekt für zwei Jahre mit 320.000 Euro. Konsortialführerin ist die Hochschule Darmstadt.