Datenbasiert entscheiden

Explainable AI: Schlüssel zu Transparenz und Vertrauen

Künstliche Intelligenz (KI) hat in den letzten Jahren immense Fortschritte gemacht und verspricht enorme Vorteile für Unternehmen, von Effizienzsteigerungen bis hin zu besseren datengetriebenen Entscheidungen. Doch oft bleibt dabei die Grundlage der Entscheidungen in einer Blackbox verborgen. Explainable Artificial Intelligence (XAI) ist eine spezielle Kategorie der künstlichen Intelligenz, die auf Transparenz und Erklärbarkeit fokussiert.

Vertrauen in Explainable KI

Studien zu KI überschlagen sich immer wieder mit Effizienz-Prognosen. Die Marktforscher von McKinsey bescheinigen allein im Bereich Generativer KI (englisch „Gen AI“) einen jährlichen Produktivitätszuwachs für Unternehmen von 2,6 bis 4,4 Billionen US-Dollar. Aber trotz aller Vorteile kommt KI in vielen Branchen und Anwendungsfällen nicht zum Einsatz, weil Bedenken zu Datenschutz und fehlender Transparenz bestehen. So ermittelte der Branchenverband Bitkom, dass zwar zwei Drittel der Firmen in Deutschland KI als wichtigste Zukunftstechnologie einordnen, aber gleichzeitig knapp 60 Prozent noch einsteigerfreundliche Tools wie ChatGPT links liegen lassen. „Zwar setzt nur jedes fünfte Unternehmen, das KI als wichtigste Zukunftstechnologie sieht, selbst auch KI ein. Aber die deutsche Wirtschaft drückt beim Thema Künstliche Intelligenz seit diesem Jahr stärker aufs Tempo. An der Diskrepanz zwischen Wissen und Handeln müssen wir dauerhaft arbeiten“, sagt Bitkom-Präsident Ralf Wintergerst.

Ein Problem, das ebenfalls für Bedenken sorgen könnte, ist die fehlende Transparenz, wie die Tools arbeiten. ChatGPT nutzt ein so genanntes LLM (Large Language Model), um aus Eingaben (genannt Prompts) Texte zu generieren, die menschliche Sprache simulieren. Wie das geschieht, welche Quellen darin einfließen und mit welchen Daten das Modell GPT-4 trainiert wurde, bleibt unklar – bzw. unscharf. Es ist lediglich bekannt, dass GPT große Teile der Texte des Internets, Fachbücher und Wikipedia-Einträge „gelesen“ hat.

Explainable AI Entscheidungen werden nachvollziehbar

In diesem Zusammenhang wird der Ansatz „Explainable Artificial Intelligence“ (XAI) immer spannender. Explainable AI bezieht sich auf Techniken und Methoden in der KI, die es ermöglichen, dass die Entscheidungen und Aktionen der Künstlichen Intelligenz erklärbar und verständlich für menschliche Benutzer sind.

Es geht darum, die oft als „Blackbox“ bezeichneten Algorithmen offen und deren Funktionsweise transparent zu machen. Im Gegensatz zu Algorithmen wie dem Large Language Model (z.B. ChatGPT), bei dem es oft schwierig ist, die genaue Entstehung einer Entscheidung nachzuvollziehen, legt XAI den Fokus auf Transparenz. Somit wären auch die Entscheidungen einer KI nachvollziehbar.

Transparenz schafft Vertrauen und Sicherheit

In vielen sensiblen Bereichen wie dem Gesundheitswesen, den Finanzen und dem Rechtswesen ist das Verständnis und das Vertrauen in Technologie von entscheidender Bedeutung. Wenn etwa ein KI-System in einem Krankenhaus verwendet wird, um Diagnosen und Empfehlungen wie eine Krebsbehandlung oder Operation zu stellen, möchten Ärzte und Patienten wissen, wie das System zu seinen Schlussfolgerungen kommt. XAI könnte hier die Daten und den Entscheidungsprozess offenlegen.

Ebenso ist in der Finanzwelt, wo Millionen von Euros auf dem Spiel stehen können, die Transparenz in Entscheidungsprozessen unerlässlich.

3 Vorteile von Explainable AI:

  • Fairness: Ein transparentes System kann Vorurteile und Diskriminierungen erkennbar machen und so die Gefahr von „Bias“, also tendenziösen Entscheidungen der KI, minimieren. So kann sichergestellt werden, dass eine KI im HR-Bereich keine Bewerber aufgrund von Herkunft oder Geschlecht bevorzugen oder benachteiligen wird. XAI sorgt auch für mehr Gerechtigkeit bei Kreditwürdigkeitsprüfungen oder kann Anspruchsentscheidungen nachvollziehbar machen.
  • Mensch-Maschine-Zusammenarbeit: Wenn Menschen in der Lage sind, die Entscheidungen einer KI nachzuvollziehen, können sie besser mit der Technologie interagieren und gemeinsame Entscheidungen treffen.
  • Compliance: In vielen Ländern gibt es Vorschriften, die die Erklärung automatisierter Entscheidungen verlangen. Und auch die geplante EU-Verordnung zur Nutzung von KI wird hier mehr Transparenz vorschreiben. XAI hilft Unternehmen und Behörden, diesen Anforderungen gerecht zu werden.

Wie kann KI transparent werden?

Es gibt verschiedene Ansätze und Techniken, um erklärungsfähige KI zu realisieren. Dazu gehören beispielsweise das Hinzufügen von Erklärungen zu den Modellen, das Verwenden von einfachen und verständlichen Modellarchitekturen oder das Erstellen von Visualisierungen wie Entscheidungsbäumen, um die Entscheidungsprozesse der KI zu veranschaulichen.

In der Theorie klingt XAI überlegen – und man mag sich fragen, warum KI heute nicht gleich von vorneherein „Explainable“ gestaltet wird. Das liegt an den Einschränkungen: Wenn die Komplexität des AI-Modells zu hoch ist, kann es schwierig sein, eine angemessene Erklärung für die Entscheidungen des Modells zu liefern. Außerdem kann die Implementierung von XAI aufwendig und mit hohen Kosten verbunden sein.

Zudem gehen die Meinungen stark auseinander, wie Erklärbarkeit überhaupt aussehen muss. „Es gibt kein vollständig allgemeingültiges Konzept der Erklärung“, sagte Zachary Lipton, Assistenzprofessor für maschinelles Lernen und Operationsforschung an der Carnegie Mellon Universität. Dies birgt das Risiko, dass das Feld der XAI zu breit wird, wo es tatsächlich kaum noch etwas effektiv erklärt.

Fazit: XAI kann Vertrauen in KI schaffen

Die Weiterentwicklung und Akzeptanz von KI hängen nicht nur von ihrer Fähigkeit zur Problemlösung ab, sondern auch von ihrer Transparenz und Verständlichkeit. Explainable AI bietet einen Weg, diese Lücke zu schließen und Vertrauen in diese transformative Technologie zu schaffen. Dennoch gibt es noch Herausforderungen, wie beispielsweise Normen zu schaffen, was Erklärbarkeit überhaupt definiert. Anbieter und Nutzer von KI-Lösungen könnten vor allem durch den erwarteten gesetzlichen Rahmen unter Druck geraten, ihre Algorithmen und Entscheidungen transparenter und so mehr „explainable“ zu machen.

Sicher interessieren Sie auch diese Artikel zur künstlichen Intelligenz

Sie interessieren sich für alles rund um künstliche Intelligenz? Dann lesen Sie doch auch diese Artikel, die Sie sicherlich bei Ihrer Arbeit unterstützen:

KI in der Datenanalyse: Welche Rolle spielt der Mensch?

5 Gründe, warum KI die Personalverwaltung revolutionieren kann

Conversational AI: Next Level im Kundenservice

Chatbot ChatGPT: Outsourcing von HR an KI – ein Angriff auf die Menschlichkeit?

Wie funktioniert ein ethischer Umgang mit KI?

KI und HR