Das Technologieprojekt ExDRa

KI-Systembaukasten auf Open-Source-Basis

Die Konsolidierung großer Datenmengen, um damit KI-Anwendungen für Produktionsprozesse zu entwickeln, fällt vielen Unternehmen noch schwer. Im Projekt ExDRa sollen Lösungen entstehen, die diesen Prozess spürbar vereinfachen. Dieser Text ist der Auftakt zu einer Artikelreihe zu den produktionsbezogenen Initiativen des vom BMWi geförderten Technologieprogramms Smarte Datenwirtschaft.

Machine-Learning-Werkzeuge kommen immer öfter auch in der Industrie zum Einsatz, denn KI-Methoden können Produktionsprozesse und Produktionsanlagen effizienter und nachhaltiger gestalten, ihre Verfügbarkeit und Flexibilität steigern und damit die Wettbewerbsfähigkeit von Unternehmen verbessern. Um eine derartige Technologie zu entwickeln, müssen die selbstlernenden Algorithmen der KI mit großen Datenmengen gefüttert werden. An die entsprechenden Daten zu kommen, ist für viele Unternehmen jedoch nicht einfach. Zwar fallen im Produktionsalltag täglich eine Vielzahl von Daten an, doch die Rohdaten sind häufig sehr heterogen und müssen zunächst aufbereitet werden, bevor sie für das maschinelle Lernen genutzt werden können. Die Daten liegen häufig nicht zentral vor, sondern sind über mehrere Standorte verteilt und dürfen etwa aus wettbewerblichen oder rechtlichen Gründen nicht einfach zusammengeführt werden. Zudem sind Data-Science-Prozesse in vielen Unternehmen explorativ. Das heißt, dass Datenwissenschaftler Hypothesen aufstellen, die erforderlichen Daten zusammenführen und verschiedene Analysen nach Mustern und Vorhersagemodellen suchen lassen, ohne dabei die Gewissheit zu haben, dass der Prozess verwertbare Ergebnisse hervorbringt. Im Zweifelsfall muss der aufwändige Vorgang von vorn begonnen werden, wodurch hohe Kosten entstehen.

Bild: ©xiaoliangge/stock.adobe.com

Konsolidieren und verarbeiten

Das Technologieprojekt ExDRa (für bessere Lesbarkeit: Exdra), bei dem die Siemens AG, die Technische Universität Berlin, die DFKI GmbH und die Technische Universität Graz zusammenarbeiten, zielt darauf ab, diese Herausforderungen zu bewältigen. Das Projekt wird vom Technologieprogramm Smarte Datenwirtschaft des Bundesministeriums für Wirtschaft und Energie gefördert. Die dort entstehende Systemsoftware Exdra soll es Datenwissenschaftlerinnen und -wissenschaftlern künftig deutlich erleichtern, explorative Datenanalysen und beispielsweise das Training von neuronalen Netzen auf geographisch verteilten Daten durchzuführen. Die Nutzung von Rohdaten, die auf verschiedenen Systemen liegen, wird optimiert, wodurch sich Anwender nicht mit der Komplexität paralleler und verteilter Programmierung auseinandersetzen müssen. Da die Rohdaten nicht in einem Fernwartungszentrum analysiert, sondern lediglich die aggregierten Daten dorthin übertragen werden, lassen sich zudem Kommunikationskosten reduzieren, die Datensicherheit erhöhen und rechtliche Einschränkungen im Zusammenhang mit dem Datenexport umgehen.

Batch- und Stream-Analysen

Die Aufbereitung der Daten ist nur der erste Schritt. Exdra umfasst eine breite Palette von KI-Algorithmen einschließlich überwachter und unüberwachter Verfahren sowie Deep-Learning-Modellen, die zu Datenanalyse-Pipelines quer durch den Machine-Learning-Entwicklungsprozess verknüpft werden können. Da der Schwerpunkt von Exdra auf der explorativen Datenanalyse liegt, wird deren Verarbeitung hauptsächlich auf zum Zeitpunkt der Analyse bereits vorliegenden Daten im Batch Modus durchgeführt. Exdra unterstützt aber auch den Streaming Modus, bei dem die Daten kontinuierlich ausgewertet werden, während sie entstehen. Exdra ist nicht auf bestimmte Lernalgorithmen begrenzt, sondern unterstützt viele Machine-Learning-Methoden. Die Software erlaubt es somit, individuelle KI-Lösungen zu entwickeln und auch nur Daten in die Analyse mit einzubeziehen, die bestimmten Merkmalen entsprechen und tatsächlich bei der Entwicklung der spezifischen KI-Methode von Bedeutung sind.

Gemeinschaftsprojekt

Die Systemsoftware von Exdra wird auf Basis der Open-Source-Projekte SystemDS der TU Graz und Nebula Stream der TU Berlin und dem Deutschen Forschungszentrum für Künstliche Intelligenz entwickelt. Durch die Open-Source-Basis soll das System deutlich flexibler einsetzbar als ähnlich gelagerte, jedoch proprietäre Anwendungen sein, etwa von Amazon AWS Greengrass oder Google TensorFlow Federated. Anders als bei diesen Anwendungen bleiben die Rohdaten zudem auf den dezentralen Speichern und werden nicht in eine Cloud übertragen. Lediglich die Metadaten, beispielsweise die Gewichtsparameter eines neuronalen Netzes, werden zwischen den dezentralen Systemen übertragen, sodass ein Rückschluss auf die Herkunft oder gar die Daten selbst nicht möglich ist. Gleichzeitig kann die Software das Problem lösen, dass viele Daten, die für eine effektive Datenanalyse notwendig sind, aufgrund von Datenschutzbestimmungen nur begrenzt zugänglich sind. Obwohl lediglich die Metadaten ihrem Umfeld entnommen werden, ist dennoch eine Zustimmung der jeweiligen Rechteinhaber zur Nutzung der Daten notwendig. Entsprechende Anfragen können direkt über die Software gestellt werden.

Seiten: 1 2Auf einer Seite lesen

Bundesministerium für Wirtschaft und Energie

Das könnte Sie auch Interessieren

Anzeige

Anzeige

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

„Künstliche Intelligenz ist eine, wenn nicht die wichtigste Zukunftstechnologie für Unternehmen.“ Diese Aussage bejahen 70 Prozent der Befragten der jüngsten Bitkom-Studie zu KI. Aber nur 10 Prozent aller Unternehmen haben KI-Technologie aktiv im Einsatz, lediglich 30 Prozent planen und diskutieren deren Anwendung. Was ist der Grund für diese große Diskrepanz?

Bild: Blue Yonder, Inc.
Bild: Blue Yonder, Inc.
Künstliche Intelligenz – mehr als eine Wissenschaft

Künstliche Intelligenz – mehr als eine Wissenschaft

Data Science ist mittlerweile ein fester Bestandteil der strategischen Planung in vielen Unternehmen. Um künftige Entwicklungen realistisch zu planen, brauchen wir Künstliche Intelligenz (KI) und Maschinelles Lernen (ML). Insbesondere im Einzelhandel vertrauen immer mehr große Player auf KI-Lösungen, die präzise Prognosen ermöglichen und zum Beispiel Bestände oder Preise optimieren. Doch viele Entscheidungsträger glauben noch nicht daran, dass KI in den Lieferketten der Zukunft eine tragende Rolle spielen wird. Der Grund hierfür liegt in einer falschen Sicht auf die Wissenschaft.

Bild: ©Stock57/stock.adobe.com
Bild: ©Stock57/stock.adobe.com
KI-Verfahren für die Produktion

KI-Verfahren für die Produktion

Mathematiker der Hochschule Darmstadt (h_da) entwickeln gemeinsam mit dem Hanauer Simulationsdienstleister und Softwareunternehmen SimPlan und dem Automationsexperten Fibro Läpple Technology neue KI-Technologien. Im Rahmen des Loewe-Projekts ‚KISPo‘ will das Konsortium eine autonome, selbstlernende Steuerungssoftware für Produktionsanlagen entwickeln, wie sie z.B. bei der Herstellung von Komponenten für Windräder oder Elektromotoren zum Einsatz kommen. Es wäre die erste KI-Software dieser Art. Damit würde eine von Industrieverbänden und Forschung lange bemängelte Technologielücke geschlossen. Das Land Hessen fördert das Projekt für zwei Jahre mit 320.000 Euro. Konsortialführerin ist die Hochschule Darmstadt.

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Chancen und Herausforderungen von Machine Learning in der Fertigung

Chancen und Herausforderungen von Machine Learning in der Fertigung

Automatisierung, künstliche Intelligenz (KI), Internet of Things (IoT) und Machine Learning (ML) sind heutzutage bekannte Technologien und kommen bereits in vielen Unternehmen zum Einsatz. Mit Hilfe von Machine Learning wird es IT-Systemen ermöglicht, Muster und Zusammenhänge aus Daten zu lernen und sich selbst zu verbessern. Dabei ist keine explizite Programmierung notwendig. Die Bearbeitung von Kundenanfragen, die Erkennung möglicher Störfälle sowie unerwarteter Ereignisse wie z.B. Cyberangriffe sind klassische Anwendungsfelder von ML. Aber auch die Unterstützung bei einer rein datengestützten Entscheidungsfindung und die Interpretation großer Datenmengen gehören dazu.

Bild: ©Shuo/stock.adobe.com
Bild: ©Shuo/stock.adobe.com
Sensoren lernen das Denken

Sensoren lernen das Denken

Im Fraunhofer-Leitprojekt NeurOSmart forscht das Fraunhofer IPMS zusammen mit vier weiteren Instituten (ISIT, IMS, IWU, IAIS) unter Leitung des Fraunhofer ISIT gemeinsam an energieeffizienten und intelligenten Sensoren für die nächste Generation autonomer Systeme. Dabei sollen die Brücken zwischen Wahrnehmung und Informationsverarbeitung durch innovative Elektronik neu definiert werden.

Bild: ©ipopba/stock.adobe.com
Bild: ©ipopba/stock.adobe.com
Wie KI 2022 praktikabel wird

Wie KI 2022 praktikabel wird

Künstliche Intelligenz war bereits in der Vergangenheit in aller Munde, schaffte es aber doch oft nicht bis in die Anwendung. Das wird sich 2022 ändern – auch weil sich langsam Standards etablieren und sich neue, konkrete Einsatzmöglichkeiten ergeben. In welchen Bereichen Business-Implementierungen zu erwarten sind, erläutert Bernhard Niedermayer, Head of AI bei Cloudflight.

Anzeige

Anzeige

Anzeige