KI vereinfacht Generierung von Software-Sensoren

Ansätze wie Industrie 4.0 und Smart Production leben von Daten zum Zustand von Maschinen und Produktionsabläufen. Erfasst werden diese Daten über verschiedenste Sensoren. Wo das nicht möglich ist, bieten sich Software-Sensoren an. Deren Erstellung war bislang zeit- und datenaufwändig sowie teuer. Ein neuer KI-Ansatz hat den Prozess nun deutlich vereinfacht.
 Mit Pythia Virtual Sensors von PerfectPattern steht den Produktionsverantwortlichen eine praxistaugliche Lösung zur Verfügung, um sich ein aussagefähiges Bild der aktuellen Produktionsprozesse zu verschaffen.
Mit Pythia Virtual Sensors von PerfectPattern steht den Produktionsverantwortlichen eine praxistaugliche Lösung zur Verfügung, um sich ein aussagefähiges Bild der aktuellen Produktionsprozesse zu verschaffen.Bild: ©greenbutterfly/stock.adobe.com

Derzeit dominieren Schlagwörter wie Künstliche Intelligenz (KI), Internet of Things (IoT) und Big Data die Diskussion um die Zukunft der Produktion. Diese Technologien bilden die Basis für Trends wie Industrie 4.0, Smart Production und die Smart Factory, bei denen es im Kern um die intelligente und ganzheitliche Vernetzung der gesamten Produktionskette geht. Laut einer Studie von Microsoft führen 88 Prozent der Befragten bereits eigene IoT-Projekte durch, 92 Prozent davon sind überzeugt, dass IoT entscheidend für den Geschäftserfolg ist. IoT lebt wie alle Digitalisierungsprojekte von Daten, die, eingehend ausgewertet und analysiert, die Basis für Entscheidungen über die Art und Weise des weiteren Ablaufs der Produktion liefern. Dazu greifen Sensoren umfassende Daten zum Zustand der Maschinen und zum Ablauf der Produktionsprozesse ab, d.h. liefern ein Bild davon, was sich in der Anlage abspielt. Meist handelt es sich dabei um real existierende Sensoren, die, an den neuralgischen Punkten der Anlagen und Maschinen angebracht, Daten zu den verschiedensten Aspekten liefern. Das können Parameter wie Temperatur, Druck, (Fließ-)Geschwindigkeit, Beschleunigung sowie Werte zu Drehzahl, Schaltzustand, Position oder auch Schall sein.

Software-Sensoren

Der Einsatz physischer Sensoren kann aber durchaus fehleranfällig, oder aufgrund baulicher Gegebenheiten schlicht nicht möglich oder kostspielig sein. Zudem können viele Werte auch nur im Labor ermittelt werden. Beispiele dafür sind etwa Aspekte der Materialeigenschaften und damit der Qualität des Endproduktes. Solche Angaben liegen daher erst mit einer erheblichen Zeitverzögerung vor und können so nur begrenzt zur Steuerung der aktuellen Produktion beitragen. Die Lösung hierfür sind Software-Sensoren, oft auch als virtuelle Sensoren bezeichnet. Diese können auf Basis der von physischen Sensoren generierten Daten wie etwa Temperatur, Druck, oder Flüsse, sowie anderweitig verfügbarer, den Prozess beeinflussenden Parameter abhängige Größen vorhersagen, d.h. reale Sensorwerte, Labormesswerte oder nicht direkt messbare Größen wie Qualität, Lebensdauer oder anderes. Hierzu nutzen Software-Sensoren so genannte Vorhersagemodelle. Damit quantifizieren sie die Auswirkungen der Messgrößenauf die Zielgröße. Sie können außerdem durch einen erneuten Lernprozess der Modelle leicht an Veränderungen in der Systemumgebung angepasst werden.

Bislang daten-, zeit- und kostenaufwändig

Warum aber setzen sich Software-Sensoren trotz dieser Vorteile nur schleppend durch und warum schrecken viele Unternehmen vor deren Einsatz noch zurück? Der Grund: Der Aufbau der zugrundeliegenden Vorhersagemodelle erfordert in der Regel sehr große Datenmengen und nimmt viel Zeit in Anspruch. Darüber hinaus erfordert er manuelle Eingriffe und eine intensive Beteiligung von Data Scientists mit Fachkenntnissen. So müssen beispielsweise Daten synchronisiert und bereinigt werden, sowie Beziehungen zwischen Daten extrahiert, Ursachen von Vorkommnissen analysiert und auf Basis von Zeitreihen ein Vorhersagemodell erstellt werden. Verwendet man etwa neuronale Netze als Grundlage, muss zunächst das richtige Design gefunden und anschließend aufwändig trainiert werden. All dies machte die Erstellung von SoftwareSensoren zeit- und kostenaufwändig. Zudem können konventionelle datenwissenschaftliche Methoden in vielen Fällen industrielle Anforderungen nur unzureichend erfüllen, etwa, wenn es um komplexe Sensorik-Umgebungen mit mehreren 1.000 Signalen geht und schnelle Ergebnisse gefordert sind.

Eigenständige Analysen und Vorhersagemodelle

Die vom Münchner Unternehmen PerfectPattern entwickelte Pythia-Virtual-Sensors-Technik macht die Generierung von Software-Sensoren deutlich einfacher, in dem sie die eigenentwickelte Pythia-Plattform nutzt. Damit ist das System in der Lage, eigenständig und unbeaufsichtigt Daten zu bereinigen (synchronisieren, Anomalien entfernen, fehlende Werte ersetzen), Beziehungen zwischen Daten inklusive etwaiger Zeitversätze der Zeitreihen zu finden, sowie ein geeignetes Vorhersagemodell auszuwählen. Dazu nutzt das System ungefilterte Rohdaten: entweder Zeitreihendaten oder Daten in tabellarischer Form. Dabei kommt Pythia Virtual Sensors schon mit sehr geringen Datenmengen für das Training aus. Auf dieser Basis erstellt Pythia Virtua Sensors eigenständig Analysen und Vorhersagemodelle, einschließlich der Indikatoren für die Ursachenanalyse. Die Lösung findet selbstständig auch sehr verborgene Muster und Abhängigkeiten und lernt, wie es jede gewünschte Variable vorhersagen und kontrollieren kann. Dafür benötigt das System im Vergleich zu herkömmlichen Methoden sehr viel weniger Zeit. Konnte bisher die Erstellung eines neuen Software-Sensor-Modells in komplexen Szenarien schon einmal Tage oder gar Wochen dauern, ist das nun in der Regel innerhalb einer Stunde erledigt – und das ohne Zuarbeit von einem Datenwissenschaftler. Der fertige Software-Sensor wird als ausführbares Programm zur Verfügung gestellt, dessen Laufzeit meist nur wenige Millisekunden beträgt.

Seiten: 1 2Auf einer Seite lesen

Thematik: Technologie
PerfectPattern GmbH

Das könnte Sie auch Interessieren

Anzeige

Anzeige

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

„Künstliche Intelligenz ist eine, wenn nicht die wichtigste Zukunftstechnologie für Unternehmen.“ Diese Aussage bejahen 70 Prozent der Befragten der jüngsten Bitkom-Studie zu KI. Aber nur 10 Prozent aller Unternehmen haben KI-Technologie aktiv im Einsatz, lediglich 30 Prozent planen und diskutieren deren Anwendung. Was ist der Grund für diese große Diskrepanz?

Bild: Blue Yonder, Inc.
Bild: Blue Yonder, Inc.
Künstliche Intelligenz – mehr als eine Wissenschaft

Künstliche Intelligenz – mehr als eine Wissenschaft

Data Science ist mittlerweile ein fester Bestandteil der strategischen Planung in vielen Unternehmen. Um künftige Entwicklungen realistisch zu planen, brauchen wir Künstliche Intelligenz (KI) und Maschinelles Lernen (ML). Insbesondere im Einzelhandel vertrauen immer mehr große Player auf KI-Lösungen, die präzise Prognosen ermöglichen und zum Beispiel Bestände oder Preise optimieren. Doch viele Entscheidungsträger glauben noch nicht daran, dass KI in den Lieferketten der Zukunft eine tragende Rolle spielen wird. Der Grund hierfür liegt in einer falschen Sicht auf die Wissenschaft.

Bild: ©Stock57/stock.adobe.com
Bild: ©Stock57/stock.adobe.com
KI-Verfahren für die Produktion

KI-Verfahren für die Produktion

Mathematiker der Hochschule Darmstadt (h_da) entwickeln gemeinsam mit dem Hanauer Simulationsdienstleister und Softwareunternehmen SimPlan und dem Automationsexperten Fibro Läpple Technology neue KI-Technologien. Im Rahmen des Loewe-Projekts ‚KISPo‘ will das Konsortium eine autonome, selbstlernende Steuerungssoftware für Produktionsanlagen entwickeln, wie sie z.B. bei der Herstellung von Komponenten für Windräder oder Elektromotoren zum Einsatz kommen. Es wäre die erste KI-Software dieser Art. Damit würde eine von Industrieverbänden und Forschung lange bemängelte Technologielücke geschlossen. Das Land Hessen fördert das Projekt für zwei Jahre mit 320.000 Euro. Konsortialführerin ist die Hochschule Darmstadt.

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Chancen und Herausforderungen von Machine Learning in der Fertigung

Chancen und Herausforderungen von Machine Learning in der Fertigung

Automatisierung, künstliche Intelligenz (KI), Internet of Things (IoT) und Machine Learning (ML) sind heutzutage bekannte Technologien und kommen bereits in vielen Unternehmen zum Einsatz. Mit Hilfe von Machine Learning wird es IT-Systemen ermöglicht, Muster und Zusammenhänge aus Daten zu lernen und sich selbst zu verbessern. Dabei ist keine explizite Programmierung notwendig. Die Bearbeitung von Kundenanfragen, die Erkennung möglicher Störfälle sowie unerwarteter Ereignisse wie z.B. Cyberangriffe sind klassische Anwendungsfelder von ML. Aber auch die Unterstützung bei einer rein datengestützten Entscheidungsfindung und die Interpretation großer Datenmengen gehören dazu.

Bild: ©Shuo/stock.adobe.com
Bild: ©Shuo/stock.adobe.com
Sensoren lernen das Denken

Sensoren lernen das Denken

Im Fraunhofer-Leitprojekt NeurOSmart forscht das Fraunhofer IPMS zusammen mit vier weiteren Instituten (ISIT, IMS, IWU, IAIS) unter Leitung des Fraunhofer ISIT gemeinsam an energieeffizienten und intelligenten Sensoren für die nächste Generation autonomer Systeme. Dabei sollen die Brücken zwischen Wahrnehmung und Informationsverarbeitung durch innovative Elektronik neu definiert werden.

Bild: ©ipopba/stock.adobe.com
Bild: ©ipopba/stock.adobe.com
Wie KI 2022 praktikabel wird

Wie KI 2022 praktikabel wird

Künstliche Intelligenz war bereits in der Vergangenheit in aller Munde, schaffte es aber doch oft nicht bis in die Anwendung. Das wird sich 2022 ändern – auch weil sich langsam Standards etablieren und sich neue, konkrete Einsatzmöglichkeiten ergeben. In welchen Bereichen Business-Implementierungen zu erwarten sind, erläutert Bernhard Niedermayer, Head of AI bei Cloudflight.

Anzeige

Anzeige

Anzeige