Deep Learning für die industrielle Computertomographie

Die künstliche Intelligenz ist derzeit in aller Munde. Inwiefern sich ihre Methoden auch in der industriellen Computertomographie (CT) einsetzen lassen, ist derzeit Gegenstand eines Entwicklungsprojekts bei Volume Graphics. Der Hersteller von CT-Analysesoftware lässt sich dabei weit über die Schulter schauen.
1a
1aBild: Volume Graphics GmbH
1a
1aBild: Volume Graphics GmbH

Es ist bisweilen eine Herausforderung, Defekte in einem mittels CT erstellten 3D-Volumen-Modell eines Bauteils zuverlässig zu erkennen und zu bewerten. Der Computertomograph blickt zwar tief, aber was er sieht, ist nicht immer klar. Das gilt insbesondere für komplexere Metall- und Mehrkomponentenbauteile. Auch erfahrene Qualitätstechniker kommen in kniffligen Fällen zu unterschiedlichen Einschätzungen. Was sind Unregelmäßigkeiten im Gefüge, was Artefakte oder wirkliche Materialdefekte? Gewiss, es lassen sich einige Parameter beim Scannen und bei der Auswertung feinjustieren, wobei das Augenmerk häufig auf bestimmte Regions of Interest (ROI) des untersuchten Objekts zu richten ist. Das ist die klassische Herangehensweise. Auch lässt sich die Qualität mit Hilfe der Auflösung und der Scanzeit steuern – je hochauflösender und länger die Scans, desto klarer bilden sich Defekte ab. Doch diese Maßnahmen, wie auch häufige Justageprozeduren, nehmen viel Zeit in Anspruch und verursachen Kosten. Gerade in der produktionsnahen Anwendung, wo vollautomatische Auswertungen verlangt werden, hat die Qualitätssicherung eines nicht: Zeit. Der Produktionstakt steht über allem. Dr. Sven Gondrom-Linke, Head of Technical Consulting bei Volume Graphics: „Die klassische Methode in der Defekterkennung ist innerhalb vollautomatischer Szenarien limitiert. Sie verlangt von den CT-Daten eine Mindestqualität, manuelle Auswertungen führen außerdem zu subjektiv gefärbten Ergebnissen. Die Konsequenz ist, wir benötigen eine Methode, die auch bei geringerer Bildqualität Bauteilfehler zuverlässig findet, unabhängig von äußeren Einflüssen.“

Deep Learning für CT

Ein Seitenblick auf andere Bereiche der Technik mit ähnlichen Ausgangslagen führt zum Thema Deep Learning. Das autonome Fahren, die Sprach- oder Bilderkennung, um nur drei Beispiele zu nennen, bedienen sich dieser Methode schon seit längerem. Sie ist eine Variante des Machine Learnings. Beides fällt unter den Oberbegriff der künstlichen Intelligenz, wobei die Deep-Learning-Methode auf künstlichen neuronalen Netzen (KNN) fußt. Das Vorbild dieser Netze, die im Übrigen bereits seit den 1940er Jahren bekannt sind, ist das Gehirn. Was in der Biologie die Neuronen bzw. Nervenzellen sind, sind in der künstlichen Welt miteinander verknüpfte mathematische Funktionen, die je nach Input einen bestimmten Output berechnen. Bei einer Anwendung in der CT-basierten Defekterkennung hätte so ein Netz die Aufgabe, Materialfehler zu finden und zu kennzeichnen. Intern arbeitet ein KNN mit Gewichtungen, d.h. nach Überschreiten eines bestimmten Schwellenwertes, wird ein entsprechender Output weitergegeben. Das Gebilde benötigt dafür so etwas wie ein Gedächtnis. Auf eine Anwendung in der CT bezogen bedeutet dies: das KNN ist mit Defektdaten zu trainieren. „Als Hauptarbeit beim Aufbau eines KNN für unsere Zwecke hat sich die Aufbereitung der Trainingsdaten erwiesen“, sagt Dr. Sven Gondrom-Linke. „Es macht bei der Erstellung eines speziellen neuronalen Netzes daher Sinn, das zu untersuchende Bauteilespektrum einzugrenzen. Wir entschieden uns, den Fokus zunächst einmal auf Bauteile aus Leichtmetallguss mit typischen Materialfehlern wie Gasporen, Lunker etc. zu richten.“

1b Drei Beispiele simulierter Defekte in CT-Aufnahmen in Aluminiumgussbauteilen als Polygonnetze: Gasporen (l.) in sind eher rund, Lunker (m.) eher zackig mit vielen Ecken, andere Hohlräume (r.) oft flach und gekrümmt. In das Training des künstlichen neu
1b Drei Beispiele simulierter Defekte in CT-Aufnahmen in Aluminiumgussbauteilen als Polygonnetze: Gasporen (l.) in sind eher rund, Lunker (m.) eher zackig mit vielen Ecken, andere Hohlräume (r.) oft flach und gekrümmt. In das Training des künstlichen neuBild: Volume Graphics GmbH

Defekte aus der Simulation

Im grauwertbasierten CT-Bild zeichnen sich Gussfehler als dunkle Bereiche ab. Die Frage, die sich der Qualitätstechniker dabei stellt, ist stets: Welche Voxel gehören zum Defekt und welche nicht? (Voxel=kleinstes 3D-Element im CT-Modell, ähnlich Pixel im 2D-Bild.) Überlässt man die Annotation, d.h. die Markierung der Voxel entweder als Defektvoxel oder kein Defektvoxel einer Reihe von Labortechnikern, so stehen sich am Ende, meist unterschiedliche Detaileinschätzungen gegenüber. „Für das Training des KNN schied diese Herangehensweise daher aus“, erklärt Patrick Fuchs, Software Engineer bei Volume Graphics. „Wir entwickelten stattdessen eine vollautomatische Annotation mit Hilfe einer Simulations-Pipeline.“ Dafür entwarfen die Heidelberger CT-Spezialisten verschiedene CAD-Modelle von realistischen Aluminiumwerkstücken, gespickt mit typischen Details wie Bohrungen, Gewinden, Nuten usw. Ein nächster Arbeitsschritt bestand darin, reale Defekte, wie sie in Aluminiumbauteilen vorkommen, genau zu analysieren. „Mit diesen Erkenntnissen“, so Fuchs weiter, „entwickelten wir einen Algorithmus, der nach realen Vorbildern ca. 700.000 Defekte generierte, die wir als Mesh-Modelle abgespeichert und in den CAD-Modellen platziert haben. Der Algorithmus erzeugte die Defekte mit zufälligen Formen, aber nach einheitlichen Mustern. Poren haben z.B. immer eine runde Form, Lunker sind aufgerissen und haben viele Ecken und Kanten.“ Im nächsten Schritt bediente sich Volume Graphics der Simulationssoftware aRTist der Bundesanstalt für Materialforschung und -prüfung (BAM), um aus den CAD-Modellen mit ihren Defekten realitätsgetreue CT-Projektionen zu erzeugen. Diese bilden die Ausgangsdaten, die auch der Computertomograph in der realen Welt ausgibt. Effekte wie Streustrahlungen oder Artefakte wurden von der Software ebenfalls simuliert. Die so erhaltenen CT-Rohdaten wurden schließlich mit VGinLine zu Voxelmodellen rekonstruiert.

1b
1bBild: Volume Graphics GmbH

Training mit präzisen Fehlerdaten

Die Ausgangsfrage – Welche Voxel gehören zum Defekt und welche nicht? – lässt sich für dieses Datenmaterial leicht beantworten: da es sich um simulierte Modelle handelt, sind die Defekte in Gestalt und Ausmaß bekannt. Wenn man das KNN mit diesen Daten trainiert, hat es die typischen Defektformen von Aluminiumbauteilen quasi intus. „Es ist elementar wichtig, das Netz mit präzisen Daten zu trainieren, um später genaue Ergebnisse zu erhalten“, betont Patrick Fuchs, „denn das KNN soll Ähnlichkeiten zwischen den simulierten Defekten und den Defekten neuer, realer Bauteile feststellen.“ Anders gesagt: Ein KNN findet nur, womit es gefüttert wurde. Erstreckt sich das Training nur auf Daten von Poren, wird es nur Poren finden. Die anschließende Evaluierung belegt, dass ein so trainiertes KNN sehr gut funktioniert und den klassischen Methoden in jeder Hinsicht überlegen ist, es findet sogar kleinere Defekte, und zwar problemlos. Zwei Qualitätskennzahlen quantifizieren den Sachverhalt anschaulich (s.Kasten): die Probability of Detection (PoD) und die Intersection over Union (IoU) . Die PoD kommt auch sonst in der Qualitätstechnik zu Anwendung. Sie ist ein Kriterium, ob Defekte überhaupt gefunden werden bzw. ab welcher Größe. Die IoU, auch als Jaccard-Index oder -koeffizient bezeichnet, kommt aus der Mengenlehre und wird häufig in der Bilderkennung verwendet. Im hier vorliegenden Anwendungsfall gibt die IoU voxelgenau Aufschluss über die Segmentierungsqualität. Wichtig dabei, die Ergebnisse gelten initial nur für Fehler in Aluminiumwerkstücken, worauf das KNN trainiert wurde. Patrick Fuchs dazu: „Hat man aber einmal ein trainiertes Netz vorliegen, ist der Aufwand, es auf andere ähnliche Anwendungen zu trainieren, überschaubar. Die Anwendung auf Kunststoffe oder andere Metallwerkstoffe ist also im Prinzip jederzeit möglich.“

Seiten: 1 2Auf einer Seite lesen

Thematik: Technologie
Volume Graphics GmbH

Das könnte Sie auch Interessieren

Bild: Coscom Computer GmbH
Bild: Coscom Computer GmbH
Software-Plattform für KI und maschinelles Lernen

Software-Plattform für KI und maschinelles Lernen

Vermehrt interessieren sich Unternehmen dafür, auf Basis ihrer Fertigungsinformationen Verbesserungspotenziale in der Produktionsplanung und -steuerung zu heben. Maschinelles Lernen und künstliche Intelligenz (KI) kann aber nur dann wirtschaftlich sinnvoll eingesetzt werden, wenn alle relevanten Daten im Zugriff sind und deren Struktur zu den Anwendungen passen. Das Coscom-ECO-System soll eine Plattformökonomie als Basis für Business Intelligence (BI) bieten.

Bild: Benteler International AG
Bild: Benteler International AG
Produktionsfehler: KI findet die Nadel im Heuhaufen

Produktionsfehler: KI findet die Nadel im Heuhaufen

In der Qualitätsprüfung ist Zeit ein wichtiger Faktor: Wer Fehler rechtzeitig findet, kann sie effektiv und kostensparend beheben. Gemeinsam mit dem Fraunhofer IEM setzt der Automobilzulieferer Benteler dafür in der Warmumformung von Fahrzeugteilen auf Echtzeit-Sensordaten und Künstliche Intelligenz. Damit können Produktionsfehler schneller erkannt, behoben und zukünftig sogar vermieden werden.

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

„Künstliche Intelligenz ist eine, wenn nicht die wichtigste Zukunftstechnologie für Unternehmen.“ Diese Aussage bejahen 70 Prozent der Befragten der jüngsten Bitkom-Studie zu KI. Aber nur 10 Prozent aller Unternehmen haben KI-Technologie aktiv im Einsatz, lediglich 30 Prozent planen und diskutieren deren Anwendung. Was ist der Grund für diese große Diskrepanz?

Bild: Blue Yonder, Inc.
Bild: Blue Yonder, Inc.
Künstliche Intelligenz – mehr als eine Wissenschaft

Künstliche Intelligenz – mehr als eine Wissenschaft

Data Science ist mittlerweile ein fester Bestandteil der strategischen Planung in vielen Unternehmen. Um künftige Entwicklungen realistisch zu planen, brauchen wir Künstliche Intelligenz (KI) und Maschinelles Lernen (ML). Insbesondere im Einzelhandel vertrauen immer mehr große Player auf KI-Lösungen, die präzise Prognosen ermöglichen und zum Beispiel Bestände oder Preise optimieren. Doch viele Entscheidungsträger glauben noch nicht daran, dass KI in den Lieferketten der Zukunft eine tragende Rolle spielen wird. Der Grund hierfür liegt in einer falschen Sicht auf die Wissenschaft.

Bild: ©Stock57/stock.adobe.com
Bild: ©Stock57/stock.adobe.com
KI-Verfahren für die Produktion

KI-Verfahren für die Produktion

Mathematiker der Hochschule Darmstadt (h_da) entwickeln gemeinsam mit dem Hanauer Simulationsdienstleister und Softwareunternehmen SimPlan und dem Automationsexperten Fibro Läpple Technology neue KI-Technologien. Im Rahmen des Loewe-Projekts ‚KISPo‘ will das Konsortium eine autonome, selbstlernende Steuerungssoftware für Produktionsanlagen entwickeln, wie sie z.B. bei der Herstellung von Komponenten für Windräder oder Elektromotoren zum Einsatz kommen. Es wäre die erste KI-Software dieser Art. Damit würde eine von Industrieverbänden und Forschung lange bemängelte Technologielücke geschlossen. Das Land Hessen fördert das Projekt für zwei Jahre mit 320.000 Euro. Konsortialführerin ist die Hochschule Darmstadt.