Deep Learning für die industrielle Computertomographie

Die künstliche Intelligenz ist derzeit in aller Munde. Inwiefern sich ihre Methoden auch in der industriellen Computertomographie (CT) einsetzen lassen, ist derzeit Gegenstand eines Entwicklungsprojekts bei Volume Graphics. Der Hersteller von CT-Analysesoftware lässt sich dabei weit über die Schulter schauen.
1a
1aBild: Volume Graphics GmbH
1a
1aBild: Volume Graphics GmbH

Es ist bisweilen eine Herausforderung, Defekte in einem mittels CT erstellten 3D-Volumen-Modell eines Bauteils zuverlässig zu erkennen und zu bewerten. Der Computertomograph blickt zwar tief, aber was er sieht, ist nicht immer klar. Das gilt insbesondere für komplexere Metall- und Mehrkomponentenbauteile. Auch erfahrene Qualitätstechniker kommen in kniffligen Fällen zu unterschiedlichen Einschätzungen. Was sind Unregelmäßigkeiten im Gefüge, was Artefakte oder wirkliche Materialdefekte? Gewiss, es lassen sich einige Parameter beim Scannen und bei der Auswertung feinjustieren, wobei das Augenmerk häufig auf bestimmte Regions of Interest (ROI) des untersuchten Objekts zu richten ist. Das ist die klassische Herangehensweise. Auch lässt sich die Qualität mit Hilfe der Auflösung und der Scanzeit steuern – je hochauflösender und länger die Scans, desto klarer bilden sich Defekte ab. Doch diese Maßnahmen, wie auch häufige Justageprozeduren, nehmen viel Zeit in Anspruch und verursachen Kosten. Gerade in der produktionsnahen Anwendung, wo vollautomatische Auswertungen verlangt werden, hat die Qualitätssicherung eines nicht: Zeit. Der Produktionstakt steht über allem. Dr. Sven Gondrom-Linke, Head of Technical Consulting bei Volume Graphics: „Die klassische Methode in der Defekterkennung ist innerhalb vollautomatischer Szenarien limitiert. Sie verlangt von den CT-Daten eine Mindestqualität, manuelle Auswertungen führen außerdem zu subjektiv gefärbten Ergebnissen. Die Konsequenz ist, wir benötigen eine Methode, die auch bei geringerer Bildqualität Bauteilfehler zuverlässig findet, unabhängig von äußeren Einflüssen.“

Deep Learning für CT

Ein Seitenblick auf andere Bereiche der Technik mit ähnlichen Ausgangslagen führt zum Thema Deep Learning. Das autonome Fahren, die Sprach- oder Bilderkennung, um nur drei Beispiele zu nennen, bedienen sich dieser Methode schon seit längerem. Sie ist eine Variante des Machine Learnings. Beides fällt unter den Oberbegriff der künstlichen Intelligenz, wobei die Deep-Learning-Methode auf künstlichen neuronalen Netzen (KNN) fußt. Das Vorbild dieser Netze, die im Übrigen bereits seit den 1940er Jahren bekannt sind, ist das Gehirn. Was in der Biologie die Neuronen bzw. Nervenzellen sind, sind in der künstlichen Welt miteinander verknüpfte mathematische Funktionen, die je nach Input einen bestimmten Output berechnen. Bei einer Anwendung in der CT-basierten Defekterkennung hätte so ein Netz die Aufgabe, Materialfehler zu finden und zu kennzeichnen. Intern arbeitet ein KNN mit Gewichtungen, d.h. nach Überschreiten eines bestimmten Schwellenwertes, wird ein entsprechender Output weitergegeben. Das Gebilde benötigt dafür so etwas wie ein Gedächtnis. Auf eine Anwendung in der CT bezogen bedeutet dies: das KNN ist mit Defektdaten zu trainieren. „Als Hauptarbeit beim Aufbau eines KNN für unsere Zwecke hat sich die Aufbereitung der Trainingsdaten erwiesen“, sagt Dr. Sven Gondrom-Linke. „Es macht bei der Erstellung eines speziellen neuronalen Netzes daher Sinn, das zu untersuchende Bauteilespektrum einzugrenzen. Wir entschieden uns, den Fokus zunächst einmal auf Bauteile aus Leichtmetallguss mit typischen Materialfehlern wie Gasporen, Lunker etc. zu richten.“

1b Drei Beispiele simulierter Defekte in CT-Aufnahmen in Aluminiumgussbauteilen als Polygonnetze: Gasporen (l.) in sind eher rund, Lunker (m.) eher zackig mit vielen Ecken, andere Hohlräume (r.) oft flach und gekrümmt. In das Training des künstlichen neu
1b Drei Beispiele simulierter Defekte in CT-Aufnahmen in Aluminiumgussbauteilen als Polygonnetze: Gasporen (l.) in sind eher rund, Lunker (m.) eher zackig mit vielen Ecken, andere Hohlräume (r.) oft flach und gekrümmt. In das Training des künstlichen neuBild: Volume Graphics GmbH

Defekte aus der Simulation

Im grauwertbasierten CT-Bild zeichnen sich Gussfehler als dunkle Bereiche ab. Die Frage, die sich der Qualitätstechniker dabei stellt, ist stets: Welche Voxel gehören zum Defekt und welche nicht? (Voxel=kleinstes 3D-Element im CT-Modell, ähnlich Pixel im 2D-Bild.) Überlässt man die Annotation, d.h. die Markierung der Voxel entweder als Defektvoxel oder kein Defektvoxel einer Reihe von Labortechnikern, so stehen sich am Ende, meist unterschiedliche Detaileinschätzungen gegenüber. „Für das Training des KNN schied diese Herangehensweise daher aus“, erklärt Patrick Fuchs, Software Engineer bei Volume Graphics. „Wir entwickelten stattdessen eine vollautomatische Annotation mit Hilfe einer Simulations-Pipeline.“ Dafür entwarfen die Heidelberger CT-Spezialisten verschiedene CAD-Modelle von realistischen Aluminiumwerkstücken, gespickt mit typischen Details wie Bohrungen, Gewinden, Nuten usw. Ein nächster Arbeitsschritt bestand darin, reale Defekte, wie sie in Aluminiumbauteilen vorkommen, genau zu analysieren. „Mit diesen Erkenntnissen“, so Fuchs weiter, „entwickelten wir einen Algorithmus, der nach realen Vorbildern ca. 700.000 Defekte generierte, die wir als Mesh-Modelle abgespeichert und in den CAD-Modellen platziert haben. Der Algorithmus erzeugte die Defekte mit zufälligen Formen, aber nach einheitlichen Mustern. Poren haben z.B. immer eine runde Form, Lunker sind aufgerissen und haben viele Ecken und Kanten.“ Im nächsten Schritt bediente sich Volume Graphics der Simulationssoftware aRTist der Bundesanstalt für Materialforschung und -prüfung (BAM), um aus den CAD-Modellen mit ihren Defekten realitätsgetreue CT-Projektionen zu erzeugen. Diese bilden die Ausgangsdaten, die auch der Computertomograph in der realen Welt ausgibt. Effekte wie Streustrahlungen oder Artefakte wurden von der Software ebenfalls simuliert. Die so erhaltenen CT-Rohdaten wurden schließlich mit VGinLine zu Voxelmodellen rekonstruiert.

1b
1bBild: Volume Graphics GmbH

Training mit präzisen Fehlerdaten

Die Ausgangsfrage – Welche Voxel gehören zum Defekt und welche nicht? – lässt sich für dieses Datenmaterial leicht beantworten: da es sich um simulierte Modelle handelt, sind die Defekte in Gestalt und Ausmaß bekannt. Wenn man das KNN mit diesen Daten trainiert, hat es die typischen Defektformen von Aluminiumbauteilen quasi intus. „Es ist elementar wichtig, das Netz mit präzisen Daten zu trainieren, um später genaue Ergebnisse zu erhalten“, betont Patrick Fuchs, „denn das KNN soll Ähnlichkeiten zwischen den simulierten Defekten und den Defekten neuer, realer Bauteile feststellen.“ Anders gesagt: Ein KNN findet nur, womit es gefüttert wurde. Erstreckt sich das Training nur auf Daten von Poren, wird es nur Poren finden. Die anschließende Evaluierung belegt, dass ein so trainiertes KNN sehr gut funktioniert und den klassischen Methoden in jeder Hinsicht überlegen ist, es findet sogar kleinere Defekte, und zwar problemlos. Zwei Qualitätskennzahlen quantifizieren den Sachverhalt anschaulich (s.Kasten): die Probability of Detection (PoD) und die Intersection over Union (IoU) . Die PoD kommt auch sonst in der Qualitätstechnik zu Anwendung. Sie ist ein Kriterium, ob Defekte überhaupt gefunden werden bzw. ab welcher Größe. Die IoU, auch als Jaccard-Index oder -koeffizient bezeichnet, kommt aus der Mengenlehre und wird häufig in der Bilderkennung verwendet. Im hier vorliegenden Anwendungsfall gibt die IoU voxelgenau Aufschluss über die Segmentierungsqualität. Wichtig dabei, die Ergebnisse gelten initial nur für Fehler in Aluminiumwerkstücken, worauf das KNN trainiert wurde. Patrick Fuchs dazu: „Hat man aber einmal ein trainiertes Netz vorliegen, ist der Aufwand, es auf andere ähnliche Anwendungen zu trainieren, überschaubar. Die Anwendung auf Kunststoffe oder andere Metallwerkstoffe ist also im Prinzip jederzeit möglich.“

Referenzmodelle nicht nötig

Erstes Fazit: Die Deep-Learning-Methode ist bei geringeren Auflösungen und schlechteren Datenqualitäten weit treffsicherer als herkömmliche Methoden und entlastet den Nutzer von der Abstimmung vieler Scan- und Analyseparameter. Sie liefert zuverlässigere Fehleranalysen und fördert generell kleinere Defekte zu Tage.

Zurück zur Inline-Situation mit ihren knappen Prüfzeiten. Die Anwender greifen häufig zu Referenzmodellen von Gutbauteilen für Soll-Ist-Vergleiche. Auf diese Weise lassen sich Abweichungen sicher erkennen. Wenn sich die Bauteile aber ändern, etwa durch Abweichungen im Gießprozess, durch Streuungen in der Werkstoffqualität oder bestimmter Prozessparameter, ist diese Vorgehensweise problematisch und macht Nachbewertungen notwendig. Nachbewertungen in einer Größenordnung von 20 bis 25% sind in der Praxis die Regel.

Zweites Fazit: Die Deep-Learning-Methode funktioniert referenzlos und damit zu jeder Zeit und mit allen Bauteilen in gleicher Weise effektiv. Sie macht Nachbewertungen weitgehend überflüssig. Volume Graphics plant bereits, die Methode in künftige Releases der Analysesoftware zu implementieren. Das Training des KNN werden die Heidelberger CT-Spezialisten vornehmen. Neben den beschriebenen Grundzügen des Ansatzes wird dann auch eine Klassifizierung der Defekte enthalten sein. Dem Anwender darf also ein leistungsstarkes Werkzeug erwarten, mit dem er viel Zeit und Kosten sparen kann. n @Kontakt _FA: over Union (IoU)

Die Intersection over Union (IoU) zeigt in Prozent, inwieweit die Vorhersagen der KNN voxelgenau mit den realen Annotationen, der Ground Truth, übereinstimmen. Dem Diagramm oben liegt ein Evaluierungsdatensatz mit 54 Defekten zugrunde. Eine niedrige IoU, bedeutet, dass bei der Beantwortung der Ausgangsfrage („Welche Voxel gehören zum Defekt, welche nicht?“), viele Voxel falsch interpretiert wurden. Dies kommt auch bei der herkömmlichen Experten-Annotation sehr häufig vor. Der Wahrscheinlichkeits-Schwellenwert auf der X-Achse (0 = kein Defekt, 1 = Defekt) zeigt, stark vereinfacht gesprochen, dass die Deep-Learning-Methode die robusteren Ergebnisse liefert. Der Übergang Defekt/nicht Defekt ist schärfer. Die klassische Vorgehensweise zeigt im Vergleich dazu eine große Streuung.

Die Probability of Detection (PoD) zeigt, dass die Deep-Learning-Methode kleinere Defekte findet als der klassische filterbasierte Ansatz. Auf der X-Achse sind die Defektgrößen nach Anzahl der Voxel aufgetragen. Bereits bei weniger als 4 Voxeln steigt die Kurve schnell an. Ab einer Defektgröße von etwa 5 Voxeln findet das KNN so gut wie 100% aller Defekte. Die klassische Methode wird erst später fündig und kommt in keinem Falle auf 100%. Getestet wurde der Zusammenhang mit einem schwer zu detektierenden Datensatz mit geringen Kontrasten und hoher Artefaktbehaftung. Ein besseres Abschneiden des filterbasierten Ansatzes wäre möglich, aber nur mit entsprechendem Aufwand (hohe Auflösungen, lange Scanzeiten, lokale Filteranwendung auf Regions of Interest usw.).

Thematik: Technologie
Volume Graphics GmbH

Das könnte Sie auch Interessieren

Bild: Fraunhofer IEM
Bild: Fraunhofer IEM
Effiziente Produktionsplanung: KI reduziert Aufwand bei Schulte Kartonagen um 25%

Effiziente Produktionsplanung: KI reduziert Aufwand bei Schulte Kartonagen um 25%

Welcher Liefertermin steht wann an? Wie aufwändig muss die Maschine umgerüstet werden? Ist das benötigte Material bereits geliefert? Um die Reihenfolge verschiedener Kundenaufträge optimal zu planen, müssen Produktionsplaner:innen eine Vielzahl von Faktoren kennen und einschätzen. Bei Schulte Kartonagen hat ab sofort ein intelligenter KI-Assistent alle Faktoren im Blick – und macht Vorschläge für die effiziente Planung der Produktion. Gefördert wurde die Zusammenarbeit mit dem Fraunhofer IEM und den Universitäten Paderborn und Bielefeld im it’s OWL-Projekt ARISE.

Bild: schoesslers GmbH
Bild: schoesslers GmbH
appliedAI Institute for Europe launcht kostenlosen KI-Onlinekurs

appliedAI Institute for Europe launcht kostenlosen KI-Onlinekurs

Das gemeinnützige appliedAI Institute for Europe stellt den kostenfreien Online-Kurs ‚AI Essentials‘ zur Verfügung, der es Interessierten ermöglicht, in die Welt der Künstlichen Intelligenz einzusteigen. Konzepte wie maschinelles Lernen und Deep-Learning sowie deren Anwendungsmöglichkeiten und Auswirkungen auf unser Leben und unsere Wirtschaft sind Teile der umfassenden Einführung.

Bild: Trumpf SE + Co. KG
Bild: Trumpf SE + Co. KG
Künstliche Intelligenz macht Fabriken clever

Künstliche Intelligenz macht Fabriken clever

Seit dem Siegeszug des Chatbots ChatGPT ist künstliche Intelligenz in aller Munde. Auch in der industriellen Produktionstechnik kommt KI mit großen Schritten voran. Lernende Maschinen machen die Fertigung effizienter. Wie funktioniert das genau? Das können Interessierte auf der EMO Hannover 2023 vom 18. bis 23. September erfahren. Die Weltleitmesse für Produktionstechnologie wird ihr Fachpublikum unter dem Claim ‚Innovate Manufacturing‘. mit frischen Ideen inspirieren und künstliche Intelligenz spielt dabei ihre Stärken aus.

Bild: Mitsubishi Electric Corporation, Japan
Bild: Mitsubishi Electric Corporation, Japan
KI-gestütztes Analysetool für moderne Produktionslinien

KI-gestütztes Analysetool für moderne Produktionslinien

Das Data-Science-Tool Melsoft MaiLab von Mitsubishi soll Unternehmen bei der Digitalisierung ihrer Fertigung und unterstützen und so deren Produktivität steigern. Die neue Lösung ist eine intuitive, bedienerzentrierte Plattform, die KI nutzt, um Abläufe automatisch zu verbessern. Sei es Abfallvermeidung durch geringere Ausschussmengen, weniger Stillstandszeiten durch vorbeugende Wartung oder Senkung des Energieverbrauchs durch Prozessoptimierung.

Bild: Fraunhofer IGD
Bild: Fraunhofer IGD
Software Arrange beschleunigt Absortierprozesse

Software Arrange beschleunigt Absortierprozesse

In Kombination mit einer Augmented-Reality-Brille bietet eine neue Software des Fraunhofer IGD digitale Unterstützung von Absortiervorgängen. Zusammengehörige Bauteile werden direkt im Sichtfeld der Beschäftigten an der Produktionslinie farblich überlagert. Anwender im Automotive-Bereich können so etwa durch beschleunigte Prozesse und eine minimierte Fehleranfälligkeit Kosten reduzieren.