Tücken der KI

Bild 1 | Neben der Anfälligkeit für subjektive Fehler ist die Annotation zugleich der zeitintensivste Teil eines KI-Projekts.
Bild 1 | Neben der Anfälligkeit für subjektive Fehler ist die Annotation zugleich der zeitintensivste Teil eines KI-Projekts. Bild: Maddox AI GmbH

Die Grenzen dieser Vorgehensweise sind seit langem bekannt: Menschliche Prüfer bewerten Fehler nie völlig objektiv. Faktoren wie Tagesform, Erfahrung, individuelle Wahrnehmung oder schlicht Ermüdung beeinflussen die Ergebnisse. So bleiben fehlerhafte Teile unentdeckt und gelangen weiter in den Prozess oder zum Kunden (Schlupf), während gleichzeitig einwandfreie Teile fälschlich aussortiert werden (Pseudoausschuss). Dieser Status quo befindet sich jedoch im Wandel. 80% der Befragten äußern den Wunsch, die manuellen Aspekte der Qualitätskontrolle zu automatisieren. KI-basierte Systeme erreichen Prüfgenauigkeiten auf dem Niveau stets aufmerksamer menschlicher Prüfer – und das ohne Ermüdung oder Schwankungen. Dennoch setzen bislang nur 19% der Unternehmen entsprechende Systeme ein. Dies zeigt: Mit KI-Systemen verfügen wir bereits über eine Lösung, die viele der manuellen Kontrollen automatisieren kann. In der Praxis scheitern jedoch viele Unternehmen an den Hürden der Implementierung.

Synthetische Datengenerierung
Bild 2 | Bild: Maddox AI GmbH

Datenqualität

KI-Inspektionssysteme erreichen die Genauigkeit eines stets wachsamen Prüfers – ohne dessen Grenzen bei Aufmerksamkeit und Konzentration. Ihre Leistung hängt jedoch maßgeblich von der Qualität der Trainingsdaten ab. Prof. Dr. Alexander Ecker, Mitgründer von Maddox AI, bringt es auf den Punkt: „Das beste KI-Modell kann nicht zaubern, wenn es auf einer inkonsistenten Datenbasis trainiert wurde. Die Qualität der Datenbasis, mit der KI-Modelle trainiert werden, ist der offensichtlichste, aber auch der am meisten ignorierte Hebel, um hochakkurate KI-Modelle in der visuellen Qualitätskontrolle zu entwickeln.“

 Bild 2+3 |  Mittels Similarity Search kann der Annotierer automatisch Bildbereiche identifizieren lassen, die einem zuvor markierten Defekt visuell ähneln.
Bild 2+3 | Mittels Similarity Search kann der Annotierer automatisch Bildbereiche identifizieren lassen, die einem zuvor markierten Defekt visuell ähneln.Bild: Maddox AI GmbH

In der Anlernphase markieren menschliche Experten Fehler auf Bauteilbildern und definieren so, welche Abweichungen als echte Defekte gelten (z. B. Kratzer, Schlagstellen) und welche ignoriert werden können (z. B. Schmutz, Schmierstoffe). Diese Annotationen bilden die Trainingsgrundlage für das KI-System. Damit bleibt der Mensch ein kritischer Faktor – und mit ihm auch die bekannten Probleme wie Subjektivität und Inkonsistenz. Behar Veliqi, Mitgründer und CTO von Maddox AI, betont: „Wenn ein Prüfer beim Annotieren einen Kratzer erkennt und markiert, während ein anderer Qualitätsmitarbeiter dies nicht tut, dann ist es unmöglich zu sagen, was für das KI-System gelten soll.“ Selbst das beste KI-System bleibt wirkungslos, wenn die Datengrundlage widersprüchlich ist.

Neben der Anfälligkeit für subjektive Fehler ist die Annotation zugleich der zeitintensivste Teil eines KI-Projekts. Da dieser Schritt immer menschliche Expertise erfordert, lässt er sich weder vollständig automatisieren noch beliebig beschleunigen. Jedes Bild muss durch einen geschulten Prüfer betrachtet, bewertet und markiert werden. Damit bildet die Annotation den Engpass im Projektgeschäft: Sie ist der kritischste Faktor für die spätere Modellqualität und zugleich der größte Treiber von Zeit- und Kostenaufwand.

Produktisierung ist die eigentliche Hürde

Neue Technologien oder Ansätze beginnen in Unternehmen meist mit Machbarkeitsanalysen. Erst wenn diese erfolgreich abgeschlossen sind, wird die Implementierung in der Live-Produktion angestrebt und versucht, die Lösung schrittweise zu skalieren. Doch ein erfolgreiches Pilotprojekt darf nicht mit einer dauerhaft funktionierenden Vision-Software verwechselt werden.

Um Bilderkennungsprobleme nachhaltig und skalierbar zu lösen, reicht ein leistungsfähiger Algorithmus allein nicht aus. Die eigentliche KI-Programmierung macht in der Regel weniger als 5% der Gesamtlösung aus. Der Hauptaufwand liegt im Aufbau eines vollständigen Ökosystems mit Tools für Datenannotation, Qualitätssicherung, Monitoring, Versionierung, automatisiertes Deployment und kontinuierliche Modellverbesserung im laufenden Betrieb. Erst diese Infrastruktur ermöglicht, dass ein KI-System robust, wartbar und langfristig nutzbar bleibt. Gerade hier scheitern aber viele Eigenentwicklungen großer Unternehmen. Zwar gelingt es häufig, in einem Pilotprojekt eine funktionierende Inspektionslösung zu demonstrieren, doch beim Übergang in den Regelbetrieb fehlen die Prozesse und Tools, um Daten konsistent zu annotieren, Modelle zu überwachen oder Fehler systematisch nachzuverfolgen. Ohne diese Basis entsteht keine nachhaltige Lösung, sondern ein einmaliger Prototyp, der im Praxisalltag schnell an seine Grenzen stößt.

Bausteine KI Losung
Bild 4 | Zwar gelingt es häufig, in einem Pilotprojekt eine funktionierende Inspektionslösung zu demonstrieren, doch beim Übergang in den Regelbetrieb fehlen die Prozesse und Tools, um Daten konsistent zu annotieren, Modelle zu überwachen oder Fehler systematisch nachzuverfolgen. – Bild: Maddox AI GmbH

Tooling für eine konsistente Datenbasis

Bei KI-basierten Inspektionssystemen verschiebt sich die Rolle des Menschen von der direkten Kontrolle hin zu einer vorgelagerten Aufgabe: In der Anlernphase des KI-Modells markieren Experten Fehler in Bilddaten der zu prüfenden Bauteile, die die Grundlage für das Training des Systems bilden. Um diesen kritischen Schritt zu meistern, benötigen Anwender Unterstützung. Maddox AI hat hierfür spezielle Tools entwickelt, die sicherstellen, dass Nutzer in kürzester Zeit einen maximal konsistenten Trainingsdatensatz erstellen können:

  • Label-Noise-Analyse: In realen Projekten treten häufig Inkonsistenzen in den Annotationen auf: Während ein Prüfer eine feine Kratzspur als Fehler markiert, stuft ein anderer dieselbe Stelle als irrelevant ein. Eine Label-Noise-Analyse erkennt diese Abweichungen systematisch und weist den Prüfer darauf hin. So werden Inkonsistenzen frühzeitig korrigiert, bevor sie ins Training einfließen.
  • Synthetische Datengenerierung: In der industriellen Qualitätskontrolle ist die Verfügbarkeit von Daten oft ungleich verteilt: Es gibt meist viele fehlerfreie, aber nur wenige defekte Teile. Für ein robustes Modell reicht diese Verteilung jedoch nicht aus. Synthetische Daten helfen, diese Lücke zu schließen, indem künstlich zusätzliche Bilddaten erzeugt werden – z.B. von seltenen Defekten oder unter variierenden Beleuchtungs- und Oberflächenbedingungen. So erhält das Modell ein breiteres Spektrum an Trainingsdaten und kann generalisierter und stabiler arbeiten.
  • Similarity Search: Dabei kann der Annotierer automatisch Bildbereiche identifizieren lassen, die einem zuvor markierten Defekt visuell ähneln. So können z.B. auf Knopfdruck 20–30 relevante Kratzer in zehntausenden von Bildern gefunden werden – ohne dass diese einzeln und manuell gesichtet werden müssen. So lassen sich Defekte deutlich schneller und systematischer auffinden. Das spart nicht nur Zeit, sondern erhöht zugleich die Konsistenz, da ähnliche Defekte in einem Schritt gleichartig annotiert werden. Darüber hinaus wird das gezielte Auffinden von Randfällen erleichtert, die für das Training des Modells besonders wertvoll sind.

Fazit

Der Erfolg eines KI-Projekts steht und fällt mit der Qualität der Daten, mit denen die Modelle trainiert werden. Während sich die Modellarchitekturen bei fast allen Anbietern stark ähneln, entscheidet die Qualität des Trainingsdatensatz über Erfolg oder Misserfolg eines KI-Projekts. Unterstützende Tools wie Similarity Search werden insbesondere bei Projekten mit >15 verschiedenen Fehlerklassen unerlässlich, da menschliche Flüchtigkeit und Subjektivität bei Komplexität stark zunehmen. Es ist daher entscheidend, dass Inspektionslösungen die Annotationsarbeit durch zusätzliche Tools so einfach wie möglich gestalten, um effizient qualitativ hochwertige Datensätze und damit hoch-akkurate Modelle zu entwickeln.