Künstliche Intelligenz – mehr als eine Wissenschaft

Data Science ist mittlerweile ein fester Bestandteil der strategischen Planung in vielen Unternehmen. Um künftige Entwicklungen realistisch zu planen, brauchen wir Künstliche Intelligenz (KI) und Maschinelles Lernen (ML). Insbesondere im Einzelhandel vertrauen immer mehr große Player auf KI-Lösungen, die präzise Prognosen ermöglichen und zum Beispiel Bestände oder Preise optimieren. Doch viele Entscheidungsträger glauben noch nicht daran, dass KI in den Lieferketten der Zukunft eine tragende Rolle spielen wird. Der Grund hierfür liegt in einer falschen Sicht auf die Wissenschaft.
Bild: Blue Yonder, Inc.

Viele Menschen sind der Meinung, dass Wissenschaft immer zu 100-prozentiger Gewissheit führt. Wir haben viele Beobachtungen um uns herum wie etwa Bewegungen von Sternen und Körpern in der täglichen Umgebung als durch wissenschaftliche, in diesem Falle physikalische, Prinzipien erklärbar akzeptiert (obwohl die Mehrheit sie nicht verstanden hat). Diese Erkenntnisse schaffen Vertrauen und liefern uns eine stabile Basis zum Leben. Jede dieser Gewissheiten ist das Ergebnis von Millionen von Beobachtungen, wissenschaftlichen Hypothesen, Gegenbeispielen und sonstigen Parametern. Anders als allgemein angenommen, kann uns die Wissenschaft aber nicht bei jeder Frage immer absolute Gewissheit garantieren. Sowohl in der subatomaren Physik als auch in vielen komplexen Systemen kann man – aus unterschiedlichen Gründen – die Zukunft oft nur kurzfristig und mit Unsicherheiten vorhersagen, wie z.B. beim Wetter. Auch in vielen Anwendungen der Datenwissenschaft ist die individuelle Prognosefähigkeit begrenzt, die optimale Prognose ist eine möglichst individualisierte und möglichst scharfe Wahrscheinlichkeit für jede mögliche Zukunft. Naturwissenschaftler und Statistiker kennen die Grenzen der Vorhersagbarkeit, während Laien oft denken, dass die Wissenschaft alles im Prinzip mit 100 Prozent Genauigkeit berechnen und prognostizieren kann.

Dabei besteht ein signifikanter Unterschied zwischen deterministischer und probabilistischer Wissenschaft. Bei ersterer wird immer nach einer endgültigen Antwort gesucht – nach Regeln, die eine Beobachtung zu 100 Prozent verifizieren und sich mit Sicherheit beweisen lassen. Dafür gibt es unzählige Beispiele wie etwa jeden Pendelausschlag, den täglichen Sonnenaufgang, magnetische Phänomene oder die Schwerkraft. Physiker haben entsprechende Formeln entdeckt, die alle Beobachtungen zuverlässig beschreiben. Z.B. können wir mit der Erfindung des Fallschirms immer noch wissenschaftlich sicher sein, dass ein Mensch auch beim Fall aus großer Höhe auf gesunde Weise wieder auf den Erdboden gelangt. Es sind allerdings nur relativ einfache und isolierbare Prozesse, bei denen das funktioniert.

100-prozentige Genauigkeit wird nie erreicht

Die überwiegende Mehrheit der Wissenschaft ist jedoch nicht deterministisch, sondern probabilistisch. Auch hier versuchen wir, mit so vielen Beobachtungen wie möglich unser Wissen über Trends, Muster und Gesetzmäßigkeiten zu erweitern, und sie in Form von Wahrscheinlichkeitsverteilungen zu prognostizieren. Aber in den meisten Fällen erreichen wir als Ergebnis nicht annähernd eine Genauigkeit von 100 Prozent. Es gibt einfach zu viele Faktoren, die für sichere Erkenntnisse berücksichtigt werden müssten, wie die Geschwindigkeit einzelner Luftmoleküle, von denen es aber Abermilliarden gibt und die wir nie alle gleichzeitig messen können. Wichtig ist es, die Unterscheidung zwischen diesen beiden wissenschaftlichen Prinzipien zu überwinden. Wir Menschen glauben so sehr an die deterministische Komponente und suchen immer nach der 100-prozentigen Sicherheit. Der meiste technologische Fortschritt (beispielsweise Halbleiter, Computer, Mobiltelefone) beruht jedoch auf wissenschaftlich nur durch Wahrscheinlichkeiten beschreibbaren Phänomenen.

Ein plakatives Beispiel ist die Impfung gegen Covid-19: Erfahren die Menschen, dass die von der Wissenschaft angebotene Lösung nicht zu 100 Prozent wirkt, entscheiden sich viele dagegen – obwohl die Impfung eine viel bessere Alternative zu einer Corona-Erkrankung bildet. Weit weniger gravierend ist die Entscheidungsfindung im Einzelhandel. Dennoch kann im geschäftlichen Sinn die Nichtimplementierung von Machine Learning (ML) schwerwiegende Folgen nach sich ziehen. So können Ungenauigkeiten bei Beschaffungsprozessen und der Bestimmung von Lagerbeständen massive Nachteile hinsichtlich der Umsätze, Logistikprozesse, Umweltaspekte und der Reputation eines Unternehmens verursachen – während der Wettbewerb ebendiese Parameter optimiert.

Fazit

ML beruht auf den gleichen Prinzipien, aus denen wir wissenschaftliche Erkenntnisse gewinnen, Phänomene prognostizieren und die Zukunft zu unserem Nutzen beeinflussen können. Meist werden diese ,,nur“ durch Wahrscheinlichkeiten quantifiziert. Je mehr valide Daten vorliegen, desto verlässlicher kann der Algorithmus statistisch signifikante Vorhersagen treffen. Doch eines ist sicher: Sobald Beobachtungen (historische Daten) (mathematisch korrekt) genutzt werden, erreichen Prognosen eine deutlich höhere Genauigkeit als menschliche Einschätzungen – die oft vorurteilsgetrieben sind. Zu 100 Prozent präzise Vorhersagen wird es jedoch niemals geben. Denn Menschen haben einen freien Willen, Trends ändern sich, Milliarden von Umwelteinflüssen sind schwer mess- und vorhersehbar und wirtschaftliche wie politische Faktoren unterliegen einem kontinuierlichen Wandel. Während wir Menschen kaum mit diesem Ausmaß an Veränderungen Schritt halten, geschweige denn statistisch korrekte Vorhersagen in Echtzeit treffen können, ist ML hierzu in einem gewissen Maß durchaus in der Lage. Dennoch kann die Technologie keine Wunder bewirken, sie bringt uns aber der realistischen Vorhersage der Zukunft einen entscheidenden Schritt näher und schafft damit einen entscheidenden Vorteil.

Das könnte Sie auch Interessieren

Anzeige

Anzeige

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

Strukturierter Beratungsansatz für KI-Einsatzbereiche im Unternehmen

„Künstliche Intelligenz ist eine, wenn nicht die wichtigste Zukunftstechnologie für Unternehmen.“ Diese Aussage bejahen 70 Prozent der Befragten der jüngsten Bitkom-Studie zu KI. Aber nur 10 Prozent aller Unternehmen haben KI-Technologie aktiv im Einsatz, lediglich 30 Prozent planen und diskutieren deren Anwendung. Was ist der Grund für diese große Diskrepanz?

Bild: ©Stock57/stock.adobe.com
Bild: ©Stock57/stock.adobe.com
KI-Verfahren für die Produktion

KI-Verfahren für die Produktion

Mathematiker der Hochschule Darmstadt (h_da) entwickeln gemeinsam mit dem Hanauer Simulationsdienstleister und Softwareunternehmen SimPlan und dem Automationsexperten Fibro Läpple Technology neue KI-Technologien. Im Rahmen des Loewe-Projekts ‚KISPo‘ will das Konsortium eine autonome, selbstlernende Steuerungssoftware für Produktionsanlagen entwickeln, wie sie z.B. bei der Herstellung von Komponenten für Windräder oder Elektromotoren zum Einsatz kommen. Es wäre die erste KI-Software dieser Art. Damit würde eine von Industrieverbänden und Forschung lange bemängelte Technologielücke geschlossen. Das Land Hessen fördert das Projekt für zwei Jahre mit 320.000 Euro. Konsortialführerin ist die Hochschule Darmstadt.

Bild: ©NicoElNino/stock.adobe.com
Bild: ©NicoElNino/stock.adobe.com
Chancen und Herausforderungen von Machine Learning in der Fertigung

Chancen und Herausforderungen von Machine Learning in der Fertigung

Automatisierung, künstliche Intelligenz (KI), Internet of Things (IoT) und Machine Learning (ML) sind heutzutage bekannte Technologien und kommen bereits in vielen Unternehmen zum Einsatz. Mit Hilfe von Machine Learning wird es IT-Systemen ermöglicht, Muster und Zusammenhänge aus Daten zu lernen und sich selbst zu verbessern. Dabei ist keine explizite Programmierung notwendig. Die Bearbeitung von Kundenanfragen, die Erkennung möglicher Störfälle sowie unerwarteter Ereignisse wie z.B. Cyberangriffe sind klassische Anwendungsfelder von ML. Aber auch die Unterstützung bei einer rein datengestützten Entscheidungsfindung und die Interpretation großer Datenmengen gehören dazu.

Bild: ©Shuo/stock.adobe.com
Bild: ©Shuo/stock.adobe.com
Sensoren lernen das Denken

Sensoren lernen das Denken

Im Fraunhofer-Leitprojekt NeurOSmart forscht das Fraunhofer IPMS zusammen mit vier weiteren Instituten (ISIT, IMS, IWU, IAIS) unter Leitung des Fraunhofer ISIT gemeinsam an energieeffizienten und intelligenten Sensoren für die nächste Generation autonomer Systeme. Dabei sollen die Brücken zwischen Wahrnehmung und Informationsverarbeitung durch innovative Elektronik neu definiert werden.

Bild: ©ipopba/stock.adobe.com
Bild: ©ipopba/stock.adobe.com
Wie KI 2022 praktikabel wird

Wie KI 2022 praktikabel wird

Künstliche Intelligenz war bereits in der Vergangenheit in aller Munde, schaffte es aber doch oft nicht bis in die Anwendung. Das wird sich 2022 ändern – auch weil sich langsam Standards etablieren und sich neue, konkrete Einsatzmöglichkeiten ergeben. In welchen Bereichen Business-Implementierungen zu erwarten sind, erläutert Bernhard Niedermayer, Head of AI bei Cloudflight.

Anzeige

Anzeige

Anzeige