Gibt es ein CIM 4.0?

Nach der Lean-Welle hat mit Industrie 4.0 die Digitalisierung und Automatisierung der Unternehmensprozesse erneut Fahrt aufgenommen. Deutlich verbesserte technische Möglichkeiten und methodische Ansätze rücken die Vision des Computer Integrated Manufacturing (CIM) aus den 1980er Jahre plötzlich in greifbare Nähe.

Bild: Fraunhofer – Institut IPA

Auf den ersten Blick gelten die klassischen logistischen Zielkonflikte einer Produktion zwischen hoher Termintreue und kurzen Durchlaufzeiten einerseits sowie geringen Beständen und hoher Auslastung anderseits weiterhin. Doch der genauere Blick auf eine digitalisierte Auftragsabwicklung eröffnet insbesondere Verbesserungen in indirekten Prozessen, was wiederum eine wirksamere Planung und Steuerung der direkten Prozesse ermöglicht.

Am 15. Oktober findet am Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA der 20. Stuttgarter PPS-Tag statt, der sich mit der digitalisierten Auftragsabwicklung auseinandersetzt. Das Seminar bietet neben Einblicken in die neuesten Entwicklungen der Produktionsplanung und -steuerung auch eine Plattform zum Austausch mit Experten aus Wissenschaft und Praxis. Dr.-Ing. habil. Hans-Hermann Wiendahl, Leiter der Gruppe Produktionsplanung und -steuerung am Fraunhofer IPA, und Veranstaltungsleiter des PPS-Tags erläutert im Gespräch, wie sich die Digitalisierung auf die Auftragsabwicklung auswirkt.

Herr Dr. Wiendahl, bereits in den 1980er Jahren integrierte August-Wilhelm Scheer mit seinem Y-Modell den technischen Ast (CAx) und logistischen Ast (PPS) zu einem umfassenden Verständnis des Computer Integrated Manufacturing (CIM). Doch aus unterschiedlichen Gründen stieß diese Vision an Grenzen, so dass viele Experten sie als gescheitert ansehen. Wird das Konzept jetzt auf dem Weg zur Industrie 4.0 doch noch realisiert?

Dr. Hans-Hermann Wiendahl: Die integrative Sichtweise ist heute allgemein anerkannt. Doch gegenüber den damals entwickelten Konzepten erscheinen drei Unterschiede wichtig:

  • Zum ersten hat Lean uns gelehrt, zuerst die Prozesse zu verbessern und sie dann erst zu automatisieren  – nicht umgekehrt, wie das in der Hochphase von CIM oft üblich war.
  • Zum zweiten stoßen zentrale Entscheidungen schnell an Grenzen., vor allem wo starke Umfeldveränderungen entsprechende Plananpassungen oder gar eine Umgestaltung der Produktionsprozesse und des -layouts erfordern.
  • Zum dritten ist eine menschenleere Fabrik nicht erstrebenswert. Vielmehr gilt es, die Stärken des Menschen mit denen der IT zu koppeln und so bestmögliche Ergebnisse zu erzielen.

Viele Unternehmen bevorzugen robuste, teilautomatisierte Prozesse, da diese auch unter geänderten Rahmenbedingungen noch gute Ergebnisse liefern. Demgegenüber sind hochintegrierte, vollautomatisierte Prozesse im dafür konzipierten Zielfeld zwar typischerweise überlegen. Aber ein Verfehlen der Zielstückzahlen oder des Auftragsmix führt in der Regel auch zu deutlichen Produktivitätsverlusten. Zudem ist ihre Fehleranfälligkeit oftmals zu hoch. Diese Grundphilosophie beeinflusst auch die angestrebte IT-Unterstützung in der Fabrik.

Nun werden die IT-Systeme immer leistungsfähiger und auch indirekte Prozesse stehen seit längerer Zeit im Fokus. Wie können diese digitalisiert beziehungsweise automatisiert werden? Wo sind die Grenzen?

Dr. Wiendahl: Zunächst ist die Automatisierung indirekter Prozesse kein neues Phänomen. Beispielsweise zeigen Stichproben im Maschinen- und Anlagenbau, dass die zentrale Planungs- und Dispositionsabteilung im Vergleich zu den 1990er Jahren heute lediglich mit einem Fünftel oder nur einem Zehntel des Personals ausgestattet ist. Das ist zum einen in der Aufgabendezentralisierung in Einzelbereiche begründet. Zum anderen standardisierten viele Unternehmen ihre Auftragsabwicklungsprozesse und die damit verbundenen Planungs- und Steuerungsaktivitäten konsequent. Hier hat sich das Vorgehen bewährt:

  1. Standardisieren der Abwicklungsfälle und ihrer Bearbeitungsschritte.
  2. Digitalisieren der Standardfälle. Hier sollte mit den einfachen Fällen begonnen werden.
  3. Installieren von Datenqualitäts- und Regeleinhaltungskennzahlen, um neben den operativen Prozessleistungskennzahlen ? etwa First Pass Yield, Liefertreue und -zeit – auch die Wirksamkeit der Umgestaltung zu überwachen.
  4. Erarbeiten entsprechender Planungs- und Steuerungsregeln für diese Prozessschritte.

Nach Erfahrungen des Fraunhofer IPA bietet es sich an, zunächst Prozessbausteine – analog zum Lego-Prinzip – zu definieren, um diese dann zu Abwicklungsfällen zu kombinieren. Workflow Engines erlauben ihre flexible Verknüpfung. Sie sind heute oftmals Teil der Standard-ERP- und -MES-Anwendungen. Darüber hinaus ist ein reifegradbasiertes Vorgehen sinnvoll: Es berücksichtigt die heterogenen Anforderungen – beispielsweise bezüglich Wiederholhäufigkeit, Kundenindividualität oder Mitarbeiterkompetenz. Das Seminar am 15. Oktober geht ausführlich auf diese Aspekte ein und Praxisreferenten schildern ihre Erfahrungen.

In der aktuellen Produktions-IT kommen immer häufiger maschinelles Lernen und künstliche Intelligenz zum Einsatz. Wie wird sich das auf PPS-Systeme auswirken? Rechnen Sie mit erfolgversprechenden Überlappungen beider Systeme?

Dr. Wiendahl: Historisch entstanden PPS-Systeme wie MES und ERP aus der Notwendigkeit einer IT-Unterstützung von Routineaufgaben in der Produktion. Demgegenüber entstammen Ansätze der künstlichen Intelligenz und des maschinellen Lernens aus der IT und sie versuchen beispielsweise über Verhaltensbeobachtung aus der Vergangenheit Verhaltensempfehlungen für die Zukunft abzuleiten. Dies gelingt mit höherer Wiederholhäufigkeit besser. Für die Anwendungsfälle der Produktion bedeutet dies:

  • Entweder es herrschen Prozesse mit einer hohen Wiederholhäufigkeit vor. Dies ist für Großserien- und Massenfertigungen oder Branchen mit hohem Automatisierungsgrad typisch. Kurze Prozesszeiten begünstigen mögliche Lerneffekte zusätzlich.
  • Oder es gelingt den Verantwortlichen, die Gesamtprozesse in kleine Abschnitte zu zerlegen und diese dann zusammenzusetzen. Somit entsteht eine ähnlich vielversprechende Situation wie im ersten Fall.

Doch sinnvolle Anwendungsfälle allein reichen für aussichtsreiche Überlappungen nicht aus. Zusätzlich sind die beiden Fachdisziplinen so zusammenzuführen, dass sie eine gemeinsame Sprache sprechen und so über eine Interaktion zu einer besseren Problemlösung kommen.

Angenommen, beide Systeme sprechen eine gemeinsame Sprache und können interagieren – was ändert sich dann in der Produktion?

Dr. Wiendahl: Unter solchen Rahmenbedingungen kann es vergleichsweise schnell gelingen, erste erfolgreiche Prototypen zu installieren. Einstiegspunkte ins Machine Learning in der Produktion bilden Optimierungsprobleme bezüglich Performance, Qualität und technischer Verfügbarkeit der Maschinen und Anlagen, die bisher durch Lean-Methoden gelöst wurden. Einige dieser Analyse- und Optimierungsaufgaben lassen sich somit automatisieren und erzeugen zudem neue Geschäftsmodelle für den Handel mit domänenspezifischen Optimierungsservices, Algorithmen sowie repräsentativen Trainingsdaten. Die Durchdringungsbreite hängt allerdings von den oben genannten Faktoren ab, die aktuell sehr heterogen sind.

Was bedeutet diese Entwicklung für die Aufgaben des Produktionsplaners und -steuerers in der Zukunft?

Dr. Wiendahl: Die Stärken der IT liegen unstrittig im Verarbeiten und Aufbereiten großer Datenmengen. Der Mensch hingegen erkennt – insbesondere erfahrungsgestützt – oftmals Unplausibilitäten schneller. Seine originäre Aufgabe besteht darin, Entscheidungen zu treffen und im Falle von Alternativen die Beste auszuwählen. So könnte also eine Aufgabenteilung so aussehen, dass die IT die erforderlichen Entscheidungsbedarfe anwendergerecht aufbereitet ? beispielsweise in Form rollenspezifischer Anwender-Cockpits. Der PPS-Verantwortliche entwickelt Entscheidungsalternativen, die die IT gegebenenfalls wiederum in Form von Szenarien probeweise auf Zielerreichung prüft. Der Mensch trifft abschließend eine Entscheidung, dokumentiert diese in der IT und überwacht Umsetzung und Wirkung. Umsetzungserfahrungen bei der Realisierung solcher PPS-Assistenzsysteme bewiesen erhebliche Zeiteinsparungen in der Vorbereitung, sodass freiwerdende Zeit in einer höheren Entscheidungsqualität mündet.

Herr Dr. Wiendahl, vielen Dank für das Gespräch.

Fraunhofer - Institut IPA
www.ipa.fhg.de

Das könnte Sie auch Interessieren

Bild: Fraunhofer IGD
Bild: Fraunhofer IGD
Software Arrange beschleunigt Absortierprozesse

Software Arrange beschleunigt Absortierprozesse

In Kombination mit einer Augmented-Reality-Brille bietet eine neue Software des Fraunhofer IGD digitale Unterstützung von Absortiervorgängen. Zusammengehörige Bauteile werden direkt im Sichtfeld der Beschäftigten an der Produktionslinie farblich überlagert. Anwender im Automotive-Bereich können so etwa durch beschleunigte Prozesse und eine minimierte Fehleranfälligkeit Kosten reduzieren.

Bild: Coscom Computer GmbH
Bild: Coscom Computer GmbH
Software-Plattform für KI und maschinelles Lernen

Software-Plattform für KI und maschinelles Lernen

Vermehrt interessieren sich Unternehmen dafür, auf Basis ihrer Fertigungsinformationen Verbesserungspotenziale in der Produktionsplanung und -steuerung zu heben. Maschinelles Lernen und künstliche Intelligenz (KI) kann aber nur dann wirtschaftlich sinnvoll eingesetzt werden, wenn alle relevanten Daten im Zugriff sind und deren Struktur zu den Anwendungen passen. Das Coscom-ECO-System soll eine Plattformökonomie als Basis für Business Intelligence (BI) bieten.

Bild: Benteler International AG
Bild: Benteler International AG
Produktionsfehler: KI findet die Nadel im Heuhaufen

Produktionsfehler: KI findet die Nadel im Heuhaufen

In der Qualitätsprüfung ist Zeit ein wichtiger Faktor: Wer Fehler rechtzeitig findet, kann sie effektiv und kostensparend beheben. Gemeinsam mit dem Fraunhofer IEM setzt der Automobilzulieferer Benteler dafür in der Warmumformung von Fahrzeugteilen auf Echtzeit-Sensordaten und Künstliche Intelligenz. Damit können Produktionsfehler schneller erkannt, behoben und zukünftig sogar vermieden werden.

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

„Künstliche Intelligenz ist eine, wenn nicht die wichtigste Zukunftstechnologie für Unternehmen.“ Diese Aussage bejahen 70 Prozent der Befragten der jüngsten Bitkom-Studie zu KI. Aber nur 10 Prozent aller Unternehmen haben KI-Technologie aktiv im Einsatz, lediglich 30 Prozent planen und diskutieren deren Anwendung. Was ist der Grund für diese große Diskrepanz?

Bild: Blue Yonder, Inc.
Bild: Blue Yonder, Inc.
Künstliche Intelligenz – mehr als eine Wissenschaft

Künstliche Intelligenz – mehr als eine Wissenschaft

Data Science ist mittlerweile ein fester Bestandteil der strategischen Planung in vielen Unternehmen. Um künftige Entwicklungen realistisch zu planen, brauchen wir Künstliche Intelligenz (KI) und Maschinelles Lernen (ML). Insbesondere im Einzelhandel vertrauen immer mehr große Player auf KI-Lösungen, die präzise Prognosen ermöglichen und zum Beispiel Bestände oder Preise optimieren. Doch viele Entscheidungsträger glauben noch nicht daran, dass KI in den Lieferketten der Zukunft eine tragende Rolle spielen wird. Der Grund hierfür liegt in einer falschen Sicht auf die Wissenschaft.

Bild: ©Stock57/stock.adobe.com
Bild: ©Stock57/stock.adobe.com
KI-Verfahren für die Produktion

KI-Verfahren für die Produktion

Mathematiker der Hochschule Darmstadt (h_da) entwickeln gemeinsam mit dem Hanauer Simulationsdienstleister und Softwareunternehmen SimPlan und dem Automationsexperten Fibro Läpple Technology neue KI-Technologien. Im Rahmen des Loewe-Projekts ‚KISPo‘ will das Konsortium eine autonome, selbstlernende Steuerungssoftware für Produktionsanlagen entwickeln, wie sie z.B. bei der Herstellung von Komponenten für Windräder oder Elektromotoren zum Einsatz kommen. Es wäre die erste KI-Software dieser Art. Damit würde eine von Industrieverbänden und Forschung lange bemängelte Technologielücke geschlossen. Das Land Hessen fördert das Projekt für zwei Jahre mit 320.000 Euro. Konsortialführerin ist die Hochschule Darmstadt.