Analysemodelle eigenständig weiterentwickeln

Machine Learning einfach gemacht

Seit einigen Jahren schon werden die Fantasien der Ingenieure und Anlagenbauer beflügelt durch die Möglichkeiten von KI- und Machine-Learning-Algorithmen. Klingt zwar zunächst sehr kompliziert, bietet aber konkrete Vorteile für die smarte Fabrik. Maschinen und Anlagen bzw. Produktionsprozesse erzeugen kontinuierlich Daten. Erfolgreich werden zukünftig Unternehmen sein, denen es gelingt, Mehrwert aus diesen Daten zu generieren.

Lösungen für ausgewählte Applikationen

Gibt es denn eine Lösung, die auf alle Anwendungen passt und automatisiert die gewünschten Ergebnisse liefert? Sicher nicht! Hier ist eine differenziertere Sichtweise nötig. Wenngleich jeweils mit zeitreihenbasierten Daten und gängigen Machine-Learning-Algorithmen gearbeitet wird, so liegt der Schlüssel zum Erfolg im gezielten Zuschnitt der Automatisierung durch die sukzessive Verkleinerung des Suchraumes. Je breiter der Anwendungsbereich sein soll, desto allgemeiner müssen die Machine-Learning-Pipelines ausgestaltet sein. Hier gilt es den Spagat zu schaffen, möglichst viele Anwendungen erfassen zu können, aber spezifisch genug zu sein, mit Blick auf die Erreichung ausreichender Modellgüte, und dass bei immer noch endlichen Rechenressourcen. Es ist offensichtlich, dass die Überwachung eines Kühlsystems basierend auf Steuerungsdaten eine andere Herangehensweise benötigt als die Überwachung eines Lagers mit Hilfe von Schwingungsdaten. Die besten Ergebnisse werden erreicht, wenn die Machine-Learning-Automatisierung auf einen möglichst spezifischen Prozess zugeschnitten werden kann, ohne zu kleinteilig zu werden. Werden also z.B. spezifische Lösungen für die in der Intralogistik üblichen Regalbediengeräte aufgebaut, so können hier – bei entsprechender Datenlage – sehr gute Ergebnisse erzielt werden. Auch für Cluster wie Pumpen, Kompressoren und Gebläse sind die Vorteile von spezifischen Machine-Learning-Lösungen offenkundig. Der Nutzen von deren automatisierter Erstellung kommt hier voll zum Tragen, von der Vermeidung möglicher Fehler in der manuellen Herangehensweise bis zum erzielten Zeitgewinn. Es zeigt sich, dass gerade solche applikationsspezifischen Lösungen sehr gute Ergebnisse liefern, insbesondere wenn Best-Practise-Erfahrungen mit einfließen.

Nachvollziehbare Ergebnisse

Darüber hinaus kann der Anwender die Ergebnisse aus dem Algorithmus sehr gut nachvollziehen. Es ist eben keine Black Box, die scheinbar willkürliche Ergebnisse ausspuckt. Durch die einfache Nachvollziehbarkeit besteht die Möglichkeit für den Anwender, die Modelle und damit die Ergebnisse über die Zeit durch seinen Input weiter zu verbessern, etwa durch eine Verfeinerung des Feature Engineerings oder das Hinzufügen neuer Annotationen, die besonders relevante Zeitbereiche in den Sensordaten darstellen und für künftiges Modelltraining gezielt verfügbar machen. Das AutoML-Tool ist Teil des aufeinander abgestimmten IoT-fähigen Portfolios von Weidmüller. Hiermit will das Unternehmen einen einfachen Weg ins Industrial IoT ermöglichen, sowohl für Greenfield- als auch für Brownfield-Applikationen. Die Lösungen aus den Bereichen Datenerfassung, -vorverarbeitung und -kommunikation bilden dabei die Infrastruktur, um darauf aufbauend die logische Verknüpfung und Auswertung der gesammelten Informationen – die Datenanalyse – aufzusetzen. Eines ist dabei klar: Digitalisierung ist kein Selbstzweck. Die Mehrwerte erschließen sich im konkreten Anwendungsfall: Ob es um die Sicherstellung der Verfügbarkeit mit Condition Monitoring geht oder den effizienteren Einsatz von Servicetechnikern aufgrund Remote Maintenance. Nicht zuletzt lassen sich so neue Geschäftsmodelle durch den Einsatz von KI entwickeln, ohne selbst Data Scientist zu sein.

Beim automatisierten Machine Learning (ML) werden die notwendigen Schritte zur Erstellung von ML-Modellen für verschiedene ML-Algorithmen automatisiert durchlaufen. Anschließend wird automatisch bestimmt, welcher Algorithmus (ML-Modell) relevante Maschinenzustände oder Prozesskriterien am robustesten erkennt. Die ML-Automatisierung betrifft dabei vor allem folgende Schritte:

• Die Datenvorverarbeitung, um die Daten in eine für ein ML-Modell verdauliche Form zu konvertieren. Dabei wird für jede eingehende Datenspur automatisch das dem Datentyp (numerisch oder kategoriale Zeitreihe) entsprechende Bereinigungsverfahren ausgeführt und es werden die für das Modell relevanten Zeitbereiche aus dem Daten.-Pool gefiltert.

• Das Feature Engineering, bei dem aus den vorbereiteten Daten durch mathematische Transformationen besonders informative Eingangsdaten, sog. Feature, für das ML-Modell berechnet und selektiert werden. So ist für viele Analytics Use Cases nicht der absolute Wert eines Sensors relevant, z.B. die Temperatur oder die Motordrehzahl, sondern wie schnell sich die Sensor- Messwerte über die Zeit verändern. In einem Folgeschritt werden mit Hilfe von statistischen Methoden aus dem Pool an automatisch erzeugen Features, diejenigen herausgefiltert, die mit ihrem Informationsgehalt dem ML-Modell am wahrscheinlichsten helfen eine richtige Entscheidung zu fällen. Dies hilft entscheidend, den riesigen Suchraum für die anschließende Optimierung, das Training des ML-Modells, zu begrenzen und mit den zur Verfügung stehenden Rechenressourcen in einer möglichst kurzen Rechenzeit lösbar zu machen.

• Die Modellvorselektion, bei der aus einem Pool an verfügbaren ML-Algorithmen diejenigen ausgewählt werden, die bei industriellen Zeitreihen in der Regel gute Ergebnisse liefern. Dies kann für den jeweiligen Analytics Use Cases (Anomalieerkennung, Fehlerklassifikation, Fehlervorhersage, Überprüfung der Prozessqualität) und die Charakteristika der Eingangsdaten sehr unterschiedlich ausfallen.

• Das Modelltraining und die Optimierung, bei dem das ML-Modell interaktiv mittels verschiedenster Optimierungsalgorithmen die statistischen Eigenschaften des Trainingsdatensatzes erlernt und diese mit einem weiteren Testdatensatz überprüft werden. Zur weiteren Verbesserung der Modelle werden zusätzlich sogenannte Hyperparameter automatisiert an den Datensatz angepasst. Die Hyperparameter bestimmen die Architektur und das Verhalten des ML-Modells. Die Modelle werden so zu Spezialisten für den bestimmten Datentyp und den zu lösenden Analytics Use Case.

• Die Modellinterpretierbarkeit ist heutzutage ein weiterer wichtiger Schritt in der ML-Automatisierung. Dabei wird für die besten Modelle berechnet, welche Eingangs-Feature, also welche Maschinen Sensorik, die Modelantwort am meisten beeinflusst hat. Dies hilft dem menschlichen Anwender zu evaluieren, ob die Modelle das Richtige gelernt haben und gibt zusätzliche Einblicke, welche Messdaten relevant bzw. wertvoll sind und archiviert werden sollten und welche Daten keinen Mehrwert liefern und nicht gespeichert werden müssen. Dies hilft Kosten für Datentransport und Vorhaltung zu optimieren.

• Das Modell-Deployment, bei dem das Modell, welches von speziellen ML-Code Bibliotheken abhängig ist, in eine gekapselte Form gebracht wird, um es vielseitig z.B. direkt an der Maschine ausführbar zu machen. Dadurch können die Modelle dann mit wenigen Klicks zur Anwendung gebracht werden.

Seiten: 1 2Auf einer Seite lesen

Das könnte Sie auch Interessieren

Bild: Fraunhofer IGD
Bild: Fraunhofer IGD
Software Arrange beschleunigt Absortierprozesse

Software Arrange beschleunigt Absortierprozesse

In Kombination mit einer Augmented-Reality-Brille bietet eine neue Software des Fraunhofer IGD digitale Unterstützung von Absortiervorgängen. Zusammengehörige Bauteile werden direkt im Sichtfeld der Beschäftigten an der Produktionslinie farblich überlagert. Anwender im Automotive-Bereich können so etwa durch beschleunigte Prozesse und eine minimierte Fehleranfälligkeit Kosten reduzieren.

Bild: Coscom Computer GmbH
Bild: Coscom Computer GmbH
Software-Plattform für KI und maschinelles Lernen

Software-Plattform für KI und maschinelles Lernen

Vermehrt interessieren sich Unternehmen dafür, auf Basis ihrer Fertigungsinformationen Verbesserungspotenziale in der Produktionsplanung und -steuerung zu heben. Maschinelles Lernen und künstliche Intelligenz (KI) kann aber nur dann wirtschaftlich sinnvoll eingesetzt werden, wenn alle relevanten Daten im Zugriff sind und deren Struktur zu den Anwendungen passen. Das Coscom-ECO-System soll eine Plattformökonomie als Basis für Business Intelligence (BI) bieten.

Bild: Benteler International AG
Bild: Benteler International AG
Produktionsfehler: KI findet die Nadel im Heuhaufen

Produktionsfehler: KI findet die Nadel im Heuhaufen

In der Qualitätsprüfung ist Zeit ein wichtiger Faktor: Wer Fehler rechtzeitig findet, kann sie effektiv und kostensparend beheben. Gemeinsam mit dem Fraunhofer IEM setzt der Automobilzulieferer Benteler dafür in der Warmumformung von Fahrzeugteilen auf Echtzeit-Sensordaten und Künstliche Intelligenz. Damit können Produktionsfehler schneller erkannt, behoben und zukünftig sogar vermieden werden.

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

„Künstliche Intelligenz ist eine, wenn nicht die wichtigste Zukunftstechnologie für Unternehmen.“ Diese Aussage bejahen 70 Prozent der Befragten der jüngsten Bitkom-Studie zu KI. Aber nur 10 Prozent aller Unternehmen haben KI-Technologie aktiv im Einsatz, lediglich 30 Prozent planen und diskutieren deren Anwendung. Was ist der Grund für diese große Diskrepanz?

Bild: Blue Yonder, Inc.
Bild: Blue Yonder, Inc.
Künstliche Intelligenz – mehr als eine Wissenschaft

Künstliche Intelligenz – mehr als eine Wissenschaft

Data Science ist mittlerweile ein fester Bestandteil der strategischen Planung in vielen Unternehmen. Um künftige Entwicklungen realistisch zu planen, brauchen wir Künstliche Intelligenz (KI) und Maschinelles Lernen (ML). Insbesondere im Einzelhandel vertrauen immer mehr große Player auf KI-Lösungen, die präzise Prognosen ermöglichen und zum Beispiel Bestände oder Preise optimieren. Doch viele Entscheidungsträger glauben noch nicht daran, dass KI in den Lieferketten der Zukunft eine tragende Rolle spielen wird. Der Grund hierfür liegt in einer falschen Sicht auf die Wissenschaft.

Bild: ©Stock57/stock.adobe.com
Bild: ©Stock57/stock.adobe.com
KI-Verfahren für die Produktion

KI-Verfahren für die Produktion

Mathematiker der Hochschule Darmstadt (h_da) entwickeln gemeinsam mit dem Hanauer Simulationsdienstleister und Softwareunternehmen SimPlan und dem Automationsexperten Fibro Läpple Technology neue KI-Technologien. Im Rahmen des Loewe-Projekts ‚KISPo‘ will das Konsortium eine autonome, selbstlernende Steuerungssoftware für Produktionsanlagen entwickeln, wie sie z.B. bei der Herstellung von Komponenten für Windräder oder Elektromotoren zum Einsatz kommen. Es wäre die erste KI-Software dieser Art. Damit würde eine von Industrieverbänden und Forschung lange bemängelte Technologielücke geschlossen. Das Land Hessen fördert das Projekt für zwei Jahre mit 320.000 Euro. Konsortialführerin ist die Hochschule Darmstadt.