Organisationen sehen zunehmend den Handlungsbedarf hinsichtlich ethischer KI-Systeme: 45 Prozent haben laut einer Studie des Capgemini Research Institute eine KI-Charta definiert (2019: 5 Prozent) und zwei Drittel (65 Prozent) der FĂĽhrungskräfte sind sich bewusst, dass KI-Systeme potenziell zu diskriminierenden Entscheidungen fĂĽhren können. Weitere 58 Prozent geben in der Studie an, ihre Mitarbeiter ĂĽber die möglichen Auswirkungen der KI-Nutzung aufgeklärt zu haben. Dennoch verzeichnen KI-Systeme in diesem Jahr allein in der ethischen Dimension ‚Erklärbarkeit‘ Fortschritte gegenĂĽber 2019, so die Studienautoren. Zudem meinen nur 40 Prozent der KI-Entwickler sowie 27 Prozent der KI-Anwender aus Marketing und Vertrieb nachvollziehen zu können, wie Entscheidungen durch KI getroffen werden. Auf Seiten der Verbraucher erwarten hingegen 71 Prozent, dass Unternehmen solche Entscheidungen genau herleiten können. Weiterhin setzen 66 Prozent voraus, dass KI-Modelle fair und vorurteilsfrei agieren und Interaktionen transparent ablaufen.
Vier Dimensionen
Die Studie untersucht KI-Systeme anhand der vier ethischen Dimensionen ‚Erklärbarkeit‘, ‚Fairness‘, ‚ĂśberprĂĽfbarkeit‘ und ‚Transparenz‘ und kommt zu dem Ergebnis, dass sich 2020 ausschlieĂźlich die ‚Erklärbarkeit‘ verbessert hat: Demnach können mit 64 Prozent doppelt so viele Organisationen wie 2019 die Funktionsweise ihrer KI-Systeme in einfacher Sprache erklären. Eine ĂśberprĂĽfung der Datensätze und KI-Systeme zwecks einer fairen Gleichbehandlung aller Gruppen nehmen 65 Prozent (2019: 66 Prozent) vor. Ebenfalls um einen Prozentpunkt auf 45 Prozent sank die Zahl der Unternehmen, die unabhängige Audits bei ihren KI-Systemen gemäß der ‚ĂśberprĂĽfbarkeit‘ ethischer Aspekte durchfĂĽhren. Am stärksten ging die Anzahl an Unternehmen zurĂĽck, die KI-Anwender transparent ĂĽber die möglichen Auswirkungen von KI-Entscheidungen informieren. Ihr Anteil sank von 73 auf 59 Prozent (Deutschland: von 63 auf 52 Prozent). Dies spiegelt sich laut Studienautoren auch im gesunkenen Vertrauen der Verbraucher, von denen 62 Prozent (2019: 76 Prozent) den Unternehmen attestieren, transparent zu agieren. Als mögliche Ursachen dafĂĽr nennt die Studie die gestiegene Komplexität von KI-Anwendungen, den Versuch, Geschäftspraktiken zu schĂĽtzen sowie die Auswirkungen auf den Algorithmus durch die Corona-Pandemie. Demnach haben ein verändertes Konsumentenverhalten, der Mangel an historischen Daten fĂĽr vergleichbare Situationen sowie die geänderte Gewichtung von Sicherheitsaspekten und weiterer Kriterien dazu gefĂĽhrt, dass Systeme neu gestaltet und an die neue Normalität angepasst werden mussten.
Mit KI gegen die Pandemie
Viele öffentliche und private Institutionen haben laut Studie zusätzliche KI-Technologien eingeführt, um den Folgen der Corona-Pandemie zu begegnen. Entsprechend wird das Vertrauen der Verbraucher in KI-Interaktionen künftig umso wichtiger, so die Autoren. Zugleich erhöhen gesetzliche Rahmenbedingungen den Druck auf Unternehmen.
Datensätze mit Vorurteilen
Die Studie zeigt, dass Datensätze mitunter tatsächlich soziale und kulturelle Vorurteile aufweisen, wobei sich 65 Prozent der Führungskräfte des Problems diskriminierender Verzerrungen bewusst sind. Einer rechtlichen Prüfung wurden bereits 60 Prozent der Unternehmen (Deutschland: 54 Prozent) unterzogen. Insgesamt 22 Prozent (Deutschland: 21 Prozent) der Unternehmen wurden in den letzten drei Jahren von Kunden damit konfrontiert, dass sie KI-basierte Entscheidungen anzweifeln, bzw. die Entscheidungsfindung nachvollziehen wollen. Darin liegt laut Studie ein Erfolgsrisiko, da unter anderem 45 Prozent der Kunden negative Erfahrungen mit Freunden und Verwandten teilen und sie beispielsweise dazu anhalten würden, nicht mit den entsprechenden Unternehmen in Kontakt zu treten.