Einsatz von KI beim Lichtbogenschweißen im automobilen Karosseriebau

Beim Lichtbogenschweißen prüfen meist Mitarbeiter oder komplexe Prüfsysteme die Qualität jeder Schweißnaht - in beiden Fällen ist der Aufwand groß. Neue Ansätze basieren deshalb auf der zusammenhängenden Betrachtung sämtlicher Prozessdaten mithilfe von KI zur Überwachung oder gar zur Vorhersage der Nahtqualität. Hierfür sind sehr große Datenmengen notwendig. Abhilfe kann hier ein Verfahren schaffen, das hochfrequente Schweißprozessdaten mittels mathematischer Methoden komprimiert, um sie mit gängiger Steuerungshardware und Kommunikationsprotokollen zu übertragen.
Frequenzspektrum der hochauflösenden Originaldaten (links) und der um Faktor 1.000 komprimierten Daten (rechts). Bild: ISW Institut für Steuerungstechnik der Werkzeugmaschinen und Fertigungseinrichtungen

Unregelmäßigkeiten in einer Schweißnaht können zu einer Minderung der Verbindungsfestigkeit führen. Aus diesem Grund kommt in der automobilen Karosseriefertigung der Überwachung der Fügequalität eine Schlüsselposition zu. Nach dem Stand der Technik haben sich hierfür zwei zerstörungsfreie Methoden etabliert. Die erste Möglichkeit ist die visuelle Beurteilung der Naht durch einen Mitarbeiter. Er prüft manuell auf Sicht, ob die Schweißnaht den geforderten Qualitätskriterien entspricht. Der Prüfaufwand ist hoch. Eine Untersuchung hat ergeben, dass die Visualisierung bis zu 70 Prozent der Gesamtprozesskosten ausmachen. Zudem können die Prüfergebnisse aufgrund der fehlenden Dokumentation nicht weiterverwendet werden. Die zweite Möglichkeit beruht auf die automatisierte Erfassung der Nahtoberfläche, etwa durch Lasertriangulationssysteme. Hierbei wird die Oberflächengeometrie der Schweißnaht erfasst und auf Unregelmäßigkeiten untersucht. Die Prüfsysteme werden unmittelbar neben dem Schweißbrenner positioniert. Nachteil dieser Methode sind die hohen Systemkosten und die konstruktive Einschränkung der Zugänglichkeit zur Fügestelle.

KI als smarte Alternative

Aus diesem Grund werden im Bereich der Forschung und Entwicklung neue Ansätze untersucht, mit dem Ziel anhand von verschiedenen Prozessdaten den Schweißvorgang zu Überwachen oder die Qualität zu ermitteln. Die Komplexität ist aufgrund der Vielzahl an Prozessinformationen und der komplexen physikalischen Vorgänge im Lichtbogen sowie Schmelzbad jedoch sehr hoch. Eine zusammenhängende Betrachtung und Modellierung dieser Daten scheinen auf Basis von experimentellen Untersuchungen sowie menschlicher Schlussfolgerungen unmöglich. Vielversprechender ist der Einsatz von modernen Algorithmen aus dem Bereich der künstlichen Intelligenz, welche in den letzten Jahren weitreichende Fortschritte gemacht haben. Mittels maschinellen Lernens können so Modelle trainiert werden, die anhand von Trainingsdaten die Zusammenhänge zwischen den Prozessdaten und der Qualität ermitteln. Um dieses Werkzeug jedoch sinnvoll nutzen zu können, ist eine große und gut dokumentierte Datenbasis erforderlich. Im Falle des Lichtbogenschweißens setzt sich diese aus den Prozessinformationen vor, während und nach dem Schweißvorgang zusammen. Damit keine Informationen des hochdynamischen Prozesses verloren gehen, sollten die Prozesssignale entsprechend hochfrequent aufgezeichnet werden. Abtastraten von mehr als 100kHz sind durchaus notwendig.

Speicherplatz und Bandbreite

Aus Sicht der Steuerungstechnik führen diese Anforderungen zu zwei wesentlichen Herausforderungen. Zum einen wird viel Speicherplatz und zum anderen hohe Bandbreiten bei der Übertragung benötigt. Einzelne lokale Festplatten reichen nicht aus, um alle wesentlichen Prozessinformationen zu speichern. Kann dann z.B. Abhilfe über eine cloudbasierte Architektur mit einem skalierbaren Datenspeicher geschaffen werden, muss als Nächstes eine Datenübertragung von der Datenquelle zum Cloudspeicher erfolgen. In der Steuerungstechnik sind übliche Kommunikationsprotokolle wie Feldbusse oder OPC UA allerdings nicht für zyklische Übertragungsraten von 100kHz oder mehr ausgelegt. Aus diesem Grund muss eine Architektur gewählt werden, welche die Daten lokal erfasst und komprimiert, bevor sie an die Cloud übertragen werden können.

Schematische Darstellung des Signalflusses bei der Datenkompression von Prozessdaten mittels Fouriertransformation mit anschließender Hauptkomponentenanalyse am Beispiel des Lichtbogenschweißens. Bild: ISW Institut für Steuerungstechnik der Werkzeugmaschinen und Fertigungseinrichtungen

Kompression von Prozessdaten

Im Falle der Prozessdaten gibt es grundsätzlich zwei Herangehensweisen zur Datenreduktion. Die erste Möglichkeit ist die verlustfreie Kompression. Dazu zählen Algorithmen, die aus den komprimierten Dateien wieder die Originaldateien herstellen können. Bekannte Kompressionsmethoden dieser Art basieren etwa auf der Wörterbuchmethode. Deutliche höhere Komprimierungsraten können durch eine Reduzierung des Informationsgehaltes, sprich Informationsverlust, erreicht werden. Bei dieser zweiten Möglichkeit zur Datenreduktion wird von einer verlustbehafteten Kompression gesprochen. Beispiele dafür finden sich im Bereich der Bildverarbeitung oder der Audioverarbeitung. Diese Methoden lassen sich jedoch auch auf die Erfassung von Prozesssignalen beim Lichtbogenschweißen übertragen, wie das folgende Beispiels mit Zahlen zeigt.

Seiten: 1 2Auf einer Seite lesen

ISW Institut für Steuerungstechnik der

Das könnte Sie auch Interessieren

Bild: Fraunhofer IGD
Bild: Fraunhofer IGD
Software Arrange beschleunigt Absortierprozesse

Software Arrange beschleunigt Absortierprozesse

In Kombination mit einer Augmented-Reality-Brille bietet eine neue Software des Fraunhofer IGD digitale Unterstützung von Absortiervorgängen. Zusammengehörige Bauteile werden direkt im Sichtfeld der Beschäftigten an der Produktionslinie farblich überlagert. Anwender im Automotive-Bereich können so etwa durch beschleunigte Prozesse und eine minimierte Fehleranfälligkeit Kosten reduzieren.

Bild: Coscom Computer GmbH
Bild: Coscom Computer GmbH
Software-Plattform für KI und maschinelles Lernen

Software-Plattform für KI und maschinelles Lernen

Vermehrt interessieren sich Unternehmen dafür, auf Basis ihrer Fertigungsinformationen Verbesserungspotenziale in der Produktionsplanung und -steuerung zu heben. Maschinelles Lernen und künstliche Intelligenz (KI) kann aber nur dann wirtschaftlich sinnvoll eingesetzt werden, wenn alle relevanten Daten im Zugriff sind und deren Struktur zu den Anwendungen passen. Das Coscom-ECO-System soll eine Plattformökonomie als Basis für Business Intelligence (BI) bieten.

Bild: Benteler International AG
Bild: Benteler International AG
Produktionsfehler: KI findet die Nadel im Heuhaufen

Produktionsfehler: KI findet die Nadel im Heuhaufen

In der Qualitätsprüfung ist Zeit ein wichtiger Faktor: Wer Fehler rechtzeitig findet, kann sie effektiv und kostensparend beheben. Gemeinsam mit dem Fraunhofer IEM setzt der Automobilzulieferer Benteler dafür in der Warmumformung von Fahrzeugteilen auf Echtzeit-Sensordaten und Künstliche Intelligenz. Damit können Produktionsfehler schneller erkannt, behoben und zukünftig sogar vermieden werden.

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

„Künstliche Intelligenz ist eine, wenn nicht die wichtigste Zukunftstechnologie für Unternehmen.“ Diese Aussage bejahen 70 Prozent der Befragten der jüngsten Bitkom-Studie zu KI. Aber nur 10 Prozent aller Unternehmen haben KI-Technologie aktiv im Einsatz, lediglich 30 Prozent planen und diskutieren deren Anwendung. Was ist der Grund für diese große Diskrepanz?

Bild: Blue Yonder, Inc.
Bild: Blue Yonder, Inc.
Künstliche Intelligenz – mehr als eine Wissenschaft

Künstliche Intelligenz – mehr als eine Wissenschaft

Data Science ist mittlerweile ein fester Bestandteil der strategischen Planung in vielen Unternehmen. Um künftige Entwicklungen realistisch zu planen, brauchen wir Künstliche Intelligenz (KI) und Maschinelles Lernen (ML). Insbesondere im Einzelhandel vertrauen immer mehr große Player auf KI-Lösungen, die präzise Prognosen ermöglichen und zum Beispiel Bestände oder Preise optimieren. Doch viele Entscheidungsträger glauben noch nicht daran, dass KI in den Lieferketten der Zukunft eine tragende Rolle spielen wird. Der Grund hierfür liegt in einer falschen Sicht auf die Wissenschaft.

Bild: ©Stock57/stock.adobe.com
Bild: ©Stock57/stock.adobe.com
KI-Verfahren für die Produktion

KI-Verfahren für die Produktion

Mathematiker der Hochschule Darmstadt (h_da) entwickeln gemeinsam mit dem Hanauer Simulationsdienstleister und Softwareunternehmen SimPlan und dem Automationsexperten Fibro Läpple Technology neue KI-Technologien. Im Rahmen des Loewe-Projekts ‚KISPo‘ will das Konsortium eine autonome, selbstlernende Steuerungssoftware für Produktionsanlagen entwickeln, wie sie z.B. bei der Herstellung von Komponenten für Windräder oder Elektromotoren zum Einsatz kommen. Es wäre die erste KI-Software dieser Art. Damit würde eine von Industrieverbänden und Forschung lange bemängelte Technologielücke geschlossen. Das Land Hessen fördert das Projekt für zwei Jahre mit 320.000 Euro. Konsortialführerin ist die Hochschule Darmstadt.