Anforderungen bei der KI-Modellentwicklung

IT-Plattform für Data Science

Wenn Unternehmen mehr als einen Prozess mit künstlicher Intelligenz optimieren wollen, können Data-Science-Plattformen Geschwindigkeitsvorteile bieten. Diese Lösungen bieten in der Regel verschiedene Komponenten, um Daten aufzubereiten und darzustellen.
Bild: Dataiku

Data Science in der Produktion bietet viele Möglichkeiten, etwa die vorausschauende Wartung von Fertigungsanlagen. Aber auch Logistik, Personaleinsatzplanung, Qualitätskontrolle und Produktionssteuerung lassen sich durch die Analyse bestehender Daten optimieren. Doch erfüllen einzelne Data-Science-Projekte oft nicht die Erwartungen, wenn die grundlegende Voraussetzungen zum strategischen Umgang mit Daten fehlen. Um schnell sichtbare Erfolge zu erzielen, sollten die Daten an einer zentralen Stelle verfügbar sein. Die Experten aus den Fachabteilungen müssen als Teil des Projektteams in definierten Rollen mit Data Scientists zusammenarbeiten. Gleichzeitig sollte sichergestellt werden, dass die Daten vertrauenswürdig sind. Eine unternehmensweite Data Science-Plattform kann diese Voraussetzungen schaffen.

Verschiedene Komponenten

Um alle Funktionen und Prozesse rund um die Daten zentral steuern und überwachen zu können, vereint eine Data-Science-Plattform unterschiedliche Softwarekomponenten – beispielsweise zur Bereinigung und Aufbereitung der Daten – die alle über eine zentrale Oberfläche bedient werden. Ebenso können Machine-Learning-Anwendungen direkt erstellt und angewendet werden. Auch Auswertungs- und Visualisierungsfunktionen sind Teil der Software. Schließlich wird über die Plattform auch die Verteilung der Data-Science-Lösungen vorgenommen, die dann auch darüber überwacht werden.

Vorteile von Open Source

Interessant können jene Plattformen sein, die neben integrierten Software-Tools Schnittstellen zu Open-Source-Technologien bieten. Diese tragen zur Verbreitung von Data Science und Machine Learning bei. Zudem werden Open-Source-Lösungen oft an Universitäten genutzt. Neu eingestellte Mitarbeiter können sich schneller einarbeiten, wenn sie bereits Erfahrungen mit den Tools gesammelt haben.

Basis schaffen für Kooperation

Im betrieblichen Alltag geht oft viel Zeit bei der Suche nach Informationen oder durch unklare Prozesse verloren, wodurch etwa Aufgaben in Fachabteilungen doppelt erledigt werden. Isolierte Data-Science-Projekte bergen dieses Risiko ebenfalls. Daher sollte Zusammenarbeit orchestriert, Verantwortlichkeit definiert und Regeln zur Data Governance eingerichtet werden. Date-Science-Plattformen sollten Werkzeuge für diese Aufgaben mitbringen.

System im Wandel

Ein Unterschied zwischen der meisten Softwares und Machine-Learning-Modellen ist ihre Wartung. Die meiste Software wird einmal entwickelt und hin und wieder aktualisiert. Machine Learning-Modelle hingegen werden entwickelt, produktiv gestellt und dann kontinuierlich überwacht sowie verbessert. Auch wenn die Leistung zunächst gut erscheint, kann sie sich mit neuen Daten schnell ändern. Wird dieser Aspekt vernachlässigt, kann das große Auswirkungen auf die Anstrengungen haben. Denkt man nun einen Schritt weiter in Richtung Automated Machine Learning oder Self Service Analytics, geht es auch darum, einmal geleistete Arbeit zu sichern. Dazu bieten viele Data-Science-Plattformen mit Option, Prozesse zu dokumentieren und Algorithmen zu speichern. Einmal aufbereitete Daten sind so leichter für weitere Projekte zu finden.

Hilfe beim Modell-Rollout

Ob ein entwickeltes Datenmodell den gewünschten Effekt erzielt, zeigt sich erst im operativen Betrieb. Über Programmierschnittstellen (API) verteilen Data-Science-Plattformen die Modelle ohne weitere Programmierarbeit. Ein solcher Schritt kostet Zeit und stellt eine Hürde dar. Über ein in der Plattform integriertes Werkzeug kann dieser Bruch verhindert werden.

Verschiedene Ausprägungen

All diese Anforderungen und grundlegenden Funktionen gelten für annähernd alle Data-Science-Plattformen. Darüber hinaus unterscheiden sich die Lösungen hinsichtlich Ihrer Funktionalität. Dataiku verfolgt als Anbieter einer solchen Plattform beispielsweise das Ziel, Data Science und Machine Learning zu demokratisieren. Sie soll eine strukturierte Zusammenarbeit zwischen Datenexperten und Anwendern ermöglichen und liefert eine Bibliothek mit Best Practices.

Das könnte Sie auch Interessieren

Bild: Fraunhofer IGD
Bild: Fraunhofer IGD
Software Arrange beschleunigt Absortierprozesse

Software Arrange beschleunigt Absortierprozesse

In Kombination mit einer Augmented-Reality-Brille bietet eine neue Software des Fraunhofer IGD digitale Unterstützung von Absortiervorgängen. Zusammengehörige Bauteile werden direkt im Sichtfeld der Beschäftigten an der Produktionslinie farblich überlagert. Anwender im Automotive-Bereich können so etwa durch beschleunigte Prozesse und eine minimierte Fehleranfälligkeit Kosten reduzieren.

Bild: Coscom Computer GmbH
Bild: Coscom Computer GmbH
Software-Plattform für KI und maschinelles Lernen

Software-Plattform für KI und maschinelles Lernen

Vermehrt interessieren sich Unternehmen dafür, auf Basis ihrer Fertigungsinformationen Verbesserungspotenziale in der Produktionsplanung und -steuerung zu heben. Maschinelles Lernen und künstliche Intelligenz (KI) kann aber nur dann wirtschaftlich sinnvoll eingesetzt werden, wenn alle relevanten Daten im Zugriff sind und deren Struktur zu den Anwendungen passen. Das Coscom-ECO-System soll eine Plattformökonomie als Basis für Business Intelligence (BI) bieten.

Bild: Benteler International AG
Bild: Benteler International AG
Produktionsfehler: KI findet die Nadel im Heuhaufen

Produktionsfehler: KI findet die Nadel im Heuhaufen

In der Qualitätsprüfung ist Zeit ein wichtiger Faktor: Wer Fehler rechtzeitig findet, kann sie effektiv und kostensparend beheben. Gemeinsam mit dem Fraunhofer IEM setzt der Automobilzulieferer Benteler dafür in der Warmumformung von Fahrzeugteilen auf Echtzeit-Sensordaten und Künstliche Intelligenz. Damit können Produktionsfehler schneller erkannt, behoben und zukünftig sogar vermieden werden.

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

„Künstliche Intelligenz ist eine, wenn nicht die wichtigste Zukunftstechnologie für Unternehmen.“ Diese Aussage bejahen 70 Prozent der Befragten der jüngsten Bitkom-Studie zu KI. Aber nur 10 Prozent aller Unternehmen haben KI-Technologie aktiv im Einsatz, lediglich 30 Prozent planen und diskutieren deren Anwendung. Was ist der Grund für diese große Diskrepanz?

Bild: Blue Yonder, Inc.
Bild: Blue Yonder, Inc.
Künstliche Intelligenz – mehr als eine Wissenschaft

Künstliche Intelligenz – mehr als eine Wissenschaft

Data Science ist mittlerweile ein fester Bestandteil der strategischen Planung in vielen Unternehmen. Um künftige Entwicklungen realistisch zu planen, brauchen wir Künstliche Intelligenz (KI) und Maschinelles Lernen (ML). Insbesondere im Einzelhandel vertrauen immer mehr große Player auf KI-Lösungen, die präzise Prognosen ermöglichen und zum Beispiel Bestände oder Preise optimieren. Doch viele Entscheidungsträger glauben noch nicht daran, dass KI in den Lieferketten der Zukunft eine tragende Rolle spielen wird. Der Grund hierfür liegt in einer falschen Sicht auf die Wissenschaft.

Bild: ©Stock57/stock.adobe.com
Bild: ©Stock57/stock.adobe.com
KI-Verfahren für die Produktion

KI-Verfahren für die Produktion

Mathematiker der Hochschule Darmstadt (h_da) entwickeln gemeinsam mit dem Hanauer Simulationsdienstleister und Softwareunternehmen SimPlan und dem Automationsexperten Fibro Läpple Technology neue KI-Technologien. Im Rahmen des Loewe-Projekts ‚KISPo‘ will das Konsortium eine autonome, selbstlernende Steuerungssoftware für Produktionsanlagen entwickeln, wie sie z.B. bei der Herstellung von Komponenten für Windräder oder Elektromotoren zum Einsatz kommen. Es wäre die erste KI-Software dieser Art. Damit würde eine von Industrieverbänden und Forschung lange bemängelte Technologielücke geschlossen. Das Land Hessen fördert das Projekt für zwei Jahre mit 320.000 Euro. Konsortialführerin ist die Hochschule Darmstadt.