Drei Millionen Bilder pro Tag analysiert

Der Spielraum für Fehler ist in der Fertigung von Hightech-Elektronik sehr klein. Um die ohnehin schon geringe Fehlerrate weiter zu reduzieren, hat Seagate bei der Wafer-Fertigung KI mit industrieller Bildverarbeitung gekoppelt.

Bild: ©sebastianreuter/stock.adobe.com

Seagate produziert jedes Jahr mehr als eine Milliarde Wandler in seiner Waferfertigung in Normandale, Minnesota, USA. Um die hohen Qualitätsstandards einzuhalten und Herstellungsfehler früh zu erkennen, müssen die Wandler umfassend analysiert und getestet werden. Die Produktion der Wandler startet mit dem Rohmaterial, das im Wesentlichen ein dünnes Halbleitersubstrat ist. Im Laufe eines fotolithografischen Prozesses wird das Substrat zu einem dünnen, flachen, kristallinen Wafer. Der Wafer wird, wenn er geschnitten und weiterverarbeitet wird, zu einem Wandler (auch bekannt als Schieberegler) – ein Element, das in der Lage ist, Daten auf eine rotierende Magnetplatte zu schreiben und sie zu lesen. Der Testprozess ist lang, komplex und erfordert viel Fingerspitzengefühl. In jedem 200mm-Wafer befinden sich 100.000 Schieber, die überprüft werden müssen. In der Fabrik in Normandale werden täglich Millionen von Mikroskopaufnahmen erzeugt. Das entspricht einem Volumen von 10 Terabyte an Daten, die gesichtet werden müssen, um mögliche Produktionsfehler zu erkennen, bevor die Wafer in Laufwerken verbaut werden.

Nur bekannte Fehler auffindbar

Bisher war es die Aufgabe der Ingenieure, all diese Bilder zu analysieren. Dies birgt ein gewisses Fehlerpotenzial, was dazu führen kann, dass defekte Wandler erst zu einem späteren Zeitpunkt im Herstellungsprozess erkannt werden und dadurch zusätzliche Kosten verursachen. Seagate benötigte eine Lösung, um mehr Bilder in kürzerer Zeit zu überprüfen. Doch selbst das Einstellen von mehr Bildanalyseexperten würde nicht ausreichen, um Millionen von Bildern zu verarbeiten. Schließlich wurde mit einer regelbasierten Bildanalyse zunächst ein erster Automatisierungsgrad erreicht. Mit diesem Ansatz ließen sich einige Anomalien identifizieren – die Voraussetzung dafür war jedoch, dass das System weiß, wonach es suchen muss. Hinzu kam, dass die Regeln manuell eingestellt werden mussten. Dies war ein zeitaufwendiger Prozess, der ständig optimiert und verfeinert werden musste. Das regelbasierte System konnte nur langsam eingerichtet und optimiert werden und lieferte dabei variable Ergebnisse. Abgesehen von einigen Fehlmeldungen des Systems konnte es durch die vorgegebenen Regeln nur bekannte Probleme erkennen. Dies führte zu dem potenziellen Risiko, dass fehlerhafte Wafer vor der Montage in Lese- und Schreibköpfe nicht erkannt werden konnten. Erst die Fortschritte in den Bereichen KI, maschinelles Lernen und Sensoren für das Internet der Dinge führte zu einer Lösung für das Problem.

Eine interne KI-Edge-Plattform

Einer Lösung standen zwei große Herausforderungen im Weg: Das riesige Volumen an Daten, das im täglichen Prozess zu bewältigen war und die Beschränkung bestehender regelbasierter Analyse-Tools, die es zu umgehen galt. Traditionelle Big-Data-Programme arbeiten nach einem Batch-Prozess – dieser eignet sich jedoch nicht für eine Produktionslinie, die rund um die Uhr und 365 Tage im Jahr betrieben wird. Der erste Schritt war der Aufbau eines neuronalen Netzes (Deep Neural Network, DNN), das Erkenntnisse zur Verbesserung der Automatisierung der Erkennung von defekten Wandlern liefern konnte. Das neuronale Netz wurde mit den Grafikprozessoren Nvidia V100 und P4 sowie leistungsstarken All-Flash-Array-Systemen der Reihe Nytro X 2U24 von Seagate entwickelt.

Seiten: 1 2Auf einer Seite lesen

Seagate Technology GmbH
www.seagate.com

Das könnte Sie auch Interessieren

Anzeige

Anzeige

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

„Künstliche Intelligenz ist eine, wenn nicht die wichtigste Zukunftstechnologie für Unternehmen.“ Diese Aussage bejahen 70 Prozent der Befragten der jüngsten Bitkom-Studie zu KI. Aber nur 10 Prozent aller Unternehmen haben KI-Technologie aktiv im Einsatz, lediglich 30 Prozent planen und diskutieren deren Anwendung. Was ist der Grund für diese große Diskrepanz?

Bild: Blue Yonder, Inc.
Bild: Blue Yonder, Inc.
Künstliche Intelligenz – mehr als eine Wissenschaft

Künstliche Intelligenz – mehr als eine Wissenschaft

Data Science ist mittlerweile ein fester Bestandteil der strategischen Planung in vielen Unternehmen. Um künftige Entwicklungen realistisch zu planen, brauchen wir Künstliche Intelligenz (KI) und Maschinelles Lernen (ML). Insbesondere im Einzelhandel vertrauen immer mehr große Player auf KI-Lösungen, die präzise Prognosen ermöglichen und zum Beispiel Bestände oder Preise optimieren. Doch viele Entscheidungsträger glauben noch nicht daran, dass KI in den Lieferketten der Zukunft eine tragende Rolle spielen wird. Der Grund hierfür liegt in einer falschen Sicht auf die Wissenschaft.

Bild: ©Stock57/stock.adobe.com
Bild: ©Stock57/stock.adobe.com
KI-Verfahren für die Produktion

KI-Verfahren für die Produktion

Mathematiker der Hochschule Darmstadt (h_da) entwickeln gemeinsam mit dem Hanauer Simulationsdienstleister und Softwareunternehmen SimPlan und dem Automationsexperten Fibro Läpple Technology neue KI-Technologien. Im Rahmen des Loewe-Projekts ‚KISPo‘ will das Konsortium eine autonome, selbstlernende Steuerungssoftware für Produktionsanlagen entwickeln, wie sie z.B. bei der Herstellung von Komponenten für Windräder oder Elektromotoren zum Einsatz kommen. Es wäre die erste KI-Software dieser Art. Damit würde eine von Industrieverbänden und Forschung lange bemängelte Technologielücke geschlossen. Das Land Hessen fördert das Projekt für zwei Jahre mit 320.000 Euro. Konsortialführerin ist die Hochschule Darmstadt.

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Chancen und Herausforderungen von Machine Learning in der Fertigung

Chancen und Herausforderungen von Machine Learning in der Fertigung

Automatisierung, künstliche Intelligenz (KI), Internet of Things (IoT) und Machine Learning (ML) sind heutzutage bekannte Technologien und kommen bereits in vielen Unternehmen zum Einsatz. Mit Hilfe von Machine Learning wird es IT-Systemen ermöglicht, Muster und Zusammenhänge aus Daten zu lernen und sich selbst zu verbessern. Dabei ist keine explizite Programmierung notwendig. Die Bearbeitung von Kundenanfragen, die Erkennung möglicher Störfälle sowie unerwarteter Ereignisse wie z.B. Cyberangriffe sind klassische Anwendungsfelder von ML. Aber auch die Unterstützung bei einer rein datengestützten Entscheidungsfindung und die Interpretation großer Datenmengen gehören dazu.

Bild: ©Shuo/stock.adobe.com
Bild: ©Shuo/stock.adobe.com
Sensoren lernen das Denken

Sensoren lernen das Denken

Im Fraunhofer-Leitprojekt NeurOSmart forscht das Fraunhofer IPMS zusammen mit vier weiteren Instituten (ISIT, IMS, IWU, IAIS) unter Leitung des Fraunhofer ISIT gemeinsam an energieeffizienten und intelligenten Sensoren für die nächste Generation autonomer Systeme. Dabei sollen die Brücken zwischen Wahrnehmung und Informationsverarbeitung durch innovative Elektronik neu definiert werden.

Bild: ©ipopba/stock.adobe.com
Bild: ©ipopba/stock.adobe.com
Wie KI 2022 praktikabel wird

Wie KI 2022 praktikabel wird

Künstliche Intelligenz war bereits in der Vergangenheit in aller Munde, schaffte es aber doch oft nicht bis in die Anwendung. Das wird sich 2022 ändern – auch weil sich langsam Standards etablieren und sich neue, konkrete Einsatzmöglichkeiten ergeben. In welchen Bereichen Business-Implementierungen zu erwarten sind, erläutert Bernhard Niedermayer, Head of AI bei Cloudflight.

Anzeige

Anzeige

Anzeige