Der Algorithmus als Treibstoff

Data Analytics an der Schwelle

Der Algorithmus als Treibstoff

Bild: Contact Software GmbH

Die digitale Transformation führt zu immer größeren, schnelleren und variableren Datenflüssen. Die intelligente Ordnung und Analyse dieser Daten lenkt den Blick auf Werte, die sich oft über neue Geschäftsmodelle monetarisieren lassen. Die Herausforderung ist, auch einmal radikalere Ideen durchzuspielen, als nur die der vorausschauenden Instandhaltung.
Gezielte Analyse von Daten entscheidet immer häufiger über den Erfolg einer Geschäftsidee. Für Unternehmen stellt sich die Frage, wie diese Herausforderungen in der Praxis angenommen und die Chancen für die eigenen Aktivitäten aufgegriffen werden können. Der Startpunkt dafür sind automatisierte Prozesse und Analysewerkzeuge, die aus Datenströmen Erkenntnisse ermitteln.

Wo wir stehen

Seit Beginn des Milleniums wurden enorme technologische Durchbrüche bei der Leistungsfähigkeit von Graphikprozessoren und im Bereich Machine Learning erreicht. Dies hat insbesondere die Entwicklung von neuronalen Netzwerken beschleunigt und ihren Einsatz bei der Bilderkennung, Sprachanalyse und Text-Klassifizierung möglich gemacht. Mit der Verfügbarkeit von immer größeren Datenmengen und der damit einhergehenden Komplexität der Datenmodelle ist eine Schwelle erreicht, wo klassische Analysemethoden oft nicht mehr zuverlässig greifen. Hier sind neuronale Netzwerke durch ihre größere Anpassungsfähigkeit an die Datenlage viel besser darin, präzise Vorhersagen zu treffen. Grundlage dafür ist eine Rechenleistung, die dank parallel arbeitender Graphikprozessoren und spezieller, auf neuronale Netzwerke abgestimmte Hardware deutlich gesteigert werden konnte. Die Barriere zum Einsatz solcher Technologien liegt momentan also eher am Fachkräftemangel und einer relativ langen Entwicklungszeit für dedizierte Lösungen. Die Entwicklung sich selbst programmierender neuronaler Netzwerke läuft allerdings bereits und zeigt vielversprechende Ergebnisse, was zu einer weiteren Beschleunigung und Breite in der Anwendung führen wird.

Die Datenpyramide

Bei der Adaption der neuen Techniken ist zu beobachten, dass oft ad-hoc-Ansätze gewählt werden, um möglichst schnell zu den neuesten Data-Analytics-Methoden vorzustoßen. Dieser Ansatz ist jedoch zu kurz gegriffen. Die wertschöpfende Nutzung von Daten setzt voraus, dass sie kontinuierlich gut strukturiert bereitgestellt werden. Erst dann führen die gezielte Abfrage und Verarbeitung der Daten zu neuen Erkenntnissen. Datenanalyse ist ein Prozess mit ständigem Verbesserungspotenzial, das nur zu heben ist, wenn die Datenmengen nach klaren Vorgaben und Analysestrategien ausgewertet werden. Um diese formulieren zu können, ist die genaue Kenntnis des fachlichen Kontextes unabdingbar. Erst dann können zielführende Verfahren und Algorithmen entwickelt beziehungsweise ausgewählt werden. Der nächste Schritt nach vorn ist das Reporting und die Visualisierung der bereitgestellten Datenflüsse. Findet das kontinuierlich statt, ergeben sich Geschäftsideen und Ziele für die Vorhersage, die dann gezielt angegangen werden kann. Der direkte Sprung von unten nach oben ist ohne erforderliche Basis meist wenig erfolgreich.

Seiten: 1 2Auf einer Seite lesen

Contact Software GmbH
www.contact.de

Das könnte Sie auch Interessieren

Anzeige

Anzeige

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

„Künstliche Intelligenz ist eine, wenn nicht die wichtigste Zukunftstechnologie für Unternehmen.“ Diese Aussage bejahen 70 Prozent der Befragten der jüngsten Bitkom-Studie zu KI. Aber nur 10 Prozent aller Unternehmen haben KI-Technologie aktiv im Einsatz, lediglich 30 Prozent planen und diskutieren deren Anwendung. Was ist der Grund für diese große Diskrepanz?

Bild: Blue Yonder, Inc.
Bild: Blue Yonder, Inc.
Künstliche Intelligenz – mehr als eine Wissenschaft

Künstliche Intelligenz – mehr als eine Wissenschaft

Data Science ist mittlerweile ein fester Bestandteil der strategischen Planung in vielen Unternehmen. Um künftige Entwicklungen realistisch zu planen, brauchen wir Künstliche Intelligenz (KI) und Maschinelles Lernen (ML). Insbesondere im Einzelhandel vertrauen immer mehr große Player auf KI-Lösungen, die präzise Prognosen ermöglichen und zum Beispiel Bestände oder Preise optimieren. Doch viele Entscheidungsträger glauben noch nicht daran, dass KI in den Lieferketten der Zukunft eine tragende Rolle spielen wird. Der Grund hierfür liegt in einer falschen Sicht auf die Wissenschaft.

Bild: ©Stock57/stock.adobe.com
Bild: ©Stock57/stock.adobe.com
KI-Verfahren für die Produktion

KI-Verfahren für die Produktion

Mathematiker der Hochschule Darmstadt (h_da) entwickeln gemeinsam mit dem Hanauer Simulationsdienstleister und Softwareunternehmen SimPlan und dem Automationsexperten Fibro Läpple Technology neue KI-Technologien. Im Rahmen des Loewe-Projekts ‚KISPo‘ will das Konsortium eine autonome, selbstlernende Steuerungssoftware für Produktionsanlagen entwickeln, wie sie z.B. bei der Herstellung von Komponenten für Windräder oder Elektromotoren zum Einsatz kommen. Es wäre die erste KI-Software dieser Art. Damit würde eine von Industrieverbänden und Forschung lange bemängelte Technologielücke geschlossen. Das Land Hessen fördert das Projekt für zwei Jahre mit 320.000 Euro. Konsortialführerin ist die Hochschule Darmstadt.

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Chancen und Herausforderungen von Machine Learning in der Fertigung

Chancen und Herausforderungen von Machine Learning in der Fertigung

Automatisierung, künstliche Intelligenz (KI), Internet of Things (IoT) und Machine Learning (ML) sind heutzutage bekannte Technologien und kommen bereits in vielen Unternehmen zum Einsatz. Mit Hilfe von Machine Learning wird es IT-Systemen ermöglicht, Muster und Zusammenhänge aus Daten zu lernen und sich selbst zu verbessern. Dabei ist keine explizite Programmierung notwendig. Die Bearbeitung von Kundenanfragen, die Erkennung möglicher Störfälle sowie unerwarteter Ereignisse wie z.B. Cyberangriffe sind klassische Anwendungsfelder von ML. Aber auch die Unterstützung bei einer rein datengestützten Entscheidungsfindung und die Interpretation großer Datenmengen gehören dazu.

Bild: ©Shuo/stock.adobe.com
Bild: ©Shuo/stock.adobe.com
Sensoren lernen das Denken

Sensoren lernen das Denken

Im Fraunhofer-Leitprojekt NeurOSmart forscht das Fraunhofer IPMS zusammen mit vier weiteren Instituten (ISIT, IMS, IWU, IAIS) unter Leitung des Fraunhofer ISIT gemeinsam an energieeffizienten und intelligenten Sensoren für die nächste Generation autonomer Systeme. Dabei sollen die Brücken zwischen Wahrnehmung und Informationsverarbeitung durch innovative Elektronik neu definiert werden.

Bild: ©ipopba/stock.adobe.com
Bild: ©ipopba/stock.adobe.com
Wie KI 2022 praktikabel wird

Wie KI 2022 praktikabel wird

Künstliche Intelligenz war bereits in der Vergangenheit in aller Munde, schaffte es aber doch oft nicht bis in die Anwendung. Das wird sich 2022 ändern – auch weil sich langsam Standards etablieren und sich neue, konkrete Einsatzmöglichkeiten ergeben. In welchen Bereichen Business-Implementierungen zu erwarten sind, erläutert Bernhard Niedermayer, Head of AI bei Cloudflight.

Anzeige

Anzeige

Anzeige