Die 7 wichtigsten Grundlagen der Vertrauenswürdigen KI

Künstliche Intelligenz (KI) ist eine der disruptivsten Technologien dieses Jahrhunderts. KI bringt heute in vielen Branchen einen erheblichen wirtschaftlichen und sozialen Mehrwert. Darüber hinaus setzen immer mehr Unternehmen und Organisationen KI in kritischen Infrastrukturen wie dem Gesundheits- und Finanzwesen sowie den Verkehrs- und Energiesystemen ein. Daher ist es wichtig, dass KI-Systeme eine Reihe von Kriterien erfüllen, die sie ausreichend vertrauenswürdig machen und das Risiko monetärer oder immaterieller Schäden minimieren. Hier setzt die Vertrauenswürdige Künstliche Intelligenz (engl. Trustworthy Artificial Intelligence) an, die sich genau mit der Entwicklung solcher KI-Systeme beschäftigt.

In diesem Artikel erfährst Du mehr über die Grundlagen vertrauenswürdiger künstlicher Intelligenz, warum sie so wichtig ist und welche Teilbereiche Vertrauenswürdige KI umfasst.

Überblick

Dieser Blogbeitrag ist in die folgenden Abschnitte unterteilt:

  • Was ist Vertrauenswürdige Künstliche Intelligenz?
  • Warum ist Vertrauenswürdige Künstliche Intelligenz so wichtig?
  • Welche Teilbereiche umfasst Vertrauenswürdige Künstliche Intelligenz?

Was ist Vertrauenswürdige Künstliche Intelligenz?

Der Bereich der vertrauenswürdigen KI (engl. Trustworthy AI) befasst sich mit der Entwicklung von KI-Systemen, die im Einklang mit rechtlichen Vorschriften und ethischen Grundsätzen stehen. Darüber hinaus zeichnen sich vertrauenswürdige KI-Systeme durch vier wichtige Eigenschaften aus:

  1. Das KI-System erzielt eine gute Leistung.
  2. Das KI-System weist eine hohe Zuverlässigkeit auf.
  3. Das KI-System kann mit Menschen interagieren.
  4. Der Zweck des KI-Systems ist auf die Bedürfnisse der Gesellschaft ausgerichtet.

Das Themenfeld „Vertrauenswürdige KI“ betrifft daher nicht nur die Entwicklung von KI-Algorithmen, sondern den gesamten Lebenszyklus von KI-Systemen: von der Problemspezifikation über die Datenaggregation und -verarbeitung bis hin zur Evaluation und zum Monitoring von KI-Systemen. In den Entwicklungsprozess eines vertrauenswürdigen KI-Systems sollten Projektverantwortliche daher nicht nur das Entwicklungsteam selbst einbeziehen. Vielmehr sollten auch die Anforderungen und Bedürfnisse verschiedener Stakeholder, die dem KI-System zukünftig vertrauen müssen, bei der Entwicklung des KI-Systems berücksichtigt werden. Dies können sein:

  • Öffentliche oder private Organisationen, die das KI-System im Rahmen ihrer Geschäftsprozesse nutzen werden.
  • Endnutzer, die direkt oder indirekt mit dem KI-System arbeiten werden.
  • Regulierungsbehörden und politische Entscheidungsträger, die das KI-System prüfen und über seine Konformität entscheiden werden.
  • Die breite Öffentlichkeit, die direkt oder indirekt von den Entscheidungen des KI-Systems betroffen sein wird (z. B. Kreditantragsteller, deren Kreditwürdigkeit vom KI-System bewertet wird)

Warum ist Vertrauenswürdige Künstliche Intelligenz so wichtig?

In der Vergangenheit haben Unternehmen und Organisationen bei der Entwicklung von KI-Systemen meist nur die Leistungsfähigkeit der KI-Algorithmen bei der Bewertung der Systeme berücksichtigt. Es ist jedoch wichtig, neben der Leistungsfähigkeit weitere Indikatoren zur Beurteilung der Vertrauenswürdigkeit von KI-Systemen in die Bewertung einzubeziehen. Dadurch kann das Risiko minimiert werden, dass KI-Systeme wirtschaftlichen oder gesellschaftlichen Schaden verursachen, wie z. B. Diskriminierung, soziale Ungleichheit oder sogar den Verlust von Menschenleben.

Darüber hinaus können gesetzliche oder regulatorische Anforderungen die Vertrauenswürdigkeit von KI-Systemen erfordern. So hat die Europäische Union am 21. April 2021 mit dem Artificial Intelligence Act einen ersten Gesetzesvorschlag zur stärkeren Regulierung von KI-Systemen veröffentlicht. Die Vertrauenswürdigkeit von KI-Systemen ist auch notwendig, damit diese von der Gesellschaft akzeptiert und von Privatpersonen und Unternehmen genutzt werden.

“A decision aid, no matter how sophisticated or ‘intelligent’ it may be, may be rejected by a decision maker who does not trust it, and so its potential benefits to system performance will be lost.”

– Bonnie M. Muir, Psychologe an der Universität von Toronto

Welche Teilbereiche umfasst Vertrauenswürdige Künstliche Intelligenz?

Das Themenfeld „Vertrauenswürdige KI“ lässt sich in 7 Teilbereiche untergliedern: Generalisierbarkeit, Angriffssicherheit, Fairness, Erklärbarkeit, Transparenz, Datenschutz und Rechenschaftspflicht (siehe Abbildung 1). Diese 7 Teilbereiche werden im Folgenden näher erläutert.

Vertrauenswürdige Künstliche Intelligenz umfasst 7 verschiedene Teilbereiche
Abbildung 1: Die verschiedenen Teilbereiche der Vertrauenswürdigen Künstlichen Intelligenz. (Alle Emojis wurden von OpenMoji entworfen – dem Open-Source-Emoji- und Icon-Projekt. Lizenz: CC BY-SA 4.0)

Generalisierbarkeit

Ein KI-System weist eine gute Generalisierbarkeit auf, wenn es mit einer Vielzahl unterschiedlicher Eingabedaten und in einer Vielzahl unterschiedlicher Situationen korrekt funktioniert, auch wenn diese nicht in den Trainingsdaten enthalten waren. In der Praxis leiden KI-Systeme jedoch häufig darunter, dass sich ihre Leistung im Laufe der Zeit aufgrund von Änderungen der zugrunde liegenden Datenverteilung erheblich verschlechtert. Die Verteilung der Eingabedaten im Produktivbetrieb des KI-Systems stimmt dann nicht mehr mit der Datenverteilung der Trainingsdaten überein, auf die der KI-Algorithmus ursprünglich angepasst wurde.

Insbesondere bei Anwendungen in kritischen Infrastrukturen kann der Leistungsabfall eines KI-Systems aufgrund mangelnder Generalisierbarkeit zu verschiedenen Sicherheitsrisiken führen. Beispielsweise müssen KI-Systeme in autonomen Fahrzeugen in der Lage sein, das Fahrzeug unter verschiedenen Wetterbedingungen (wie Sonne, Schnee und Regen) sicher zu steuern. Wenn ein KI-System in einer Situation nicht zuverlässig funktioniert, kann es im schlimmsten Fall Menschenleben gefährden.

Eine höhere Robustheit von KI-Systemen gegenüber Veränderungen in der Datenverteilung kann durch regelmäßiges Nach- oder Neutraining des KI-Algorithmus erreicht werden.

Angriffssicherheit

Ähnlich wie Softwaresysteme müssen auch KI-Systeme auf Schwachstellen überprüft werden, die von Angreifern ausgenutzt werden können. Andernfalls besteht die Gefahr, dass sich Hacker Zugang zu einem KI-System verschaffen und wichtige Daten entwenden oder verändern. Dies kann dazu führen, dass das KI-System falsche Entscheidungen trifft oder sogar ausfällt. Insbesondere KI-Systeme in sicherheitskritischen Bereichen müssen daher eine hohe Resilienz und Robustheit gegenüber Angriffen aufweisen.

Gängige Cyber-Security-Ansätze reichen hierfür jedoch nicht aus. So sind KI-Algorithmen (insbesondere Deep-Learning-Algorithmen) in der Regel sehr anfällig für sogenannte Adversarial Attacks. Adversarial Attacks sind gezielte Angriffe auf KI-Systeme, die entweder die Trainingsdaten oder die Eingabedaten im Produktivbetrieb so manipulieren, dass die Leistung des KI-Systems verschlechtert wird. Darüber hinaus können Angriffe auf KI-Systeme auch darauf abzielen, vertrauliche Informationen in den Trainingsdaten oder Informationen über den zugrundeliegenden KI-Algorithmus zu stehlen.

Daher ist es wichtig, verschiedene Maßnahmen zu ergreifen, um Angriffe auf KI-Systeme frühzeitig zu erkennen und die Resilienz von KI-Systemen zu erhöhen.

Fairness

Ein weiterer wichtiger Aspekt vertrauenswürdiger KI ist Fairness. Es muss verhindert werden, dass KI-Systeme bestimmte Gruppen oder Individuen durch systematisch ungerechte Entscheidungen benachteiligen und dadurch negative soziale Auswirkungen haben. Beispielsweise sollte ein KI-System für Einstellungsentscheidungen bei der Sichtung von Bewerbungen nicht systematisch männliche Bewerber bevorzugen und damit weibliche Bewerberinnen diskriminieren.

In der Praxis kommt es jedoch häufig vor, dass die Datensätze, mit denen KI-Systeme trainiert werden, Verzerrungen enthalten, die sich negativ auf die Fairness von KI-Systemen auswirken. Solche Verzerrungen können zu einer unbeabsichtigten Diskriminierung bestimmter Personengruppen führen und die Ausgrenzung von Minderheiten und benachteiligten Gruppen verstärken.

Aus diesem Grund sollten Datensätze bereits in der Erhebungsphase auf diskriminierende Verzerrungen überprüft und gegebenenfalls bereinigt werden. Darüber hinaus kann die Rekrutierung von Mitarbeitern mit unterschiedlichen sozialen, kulturellen und disziplinären Hintergründen die Meinungsvielfalt in einem KI-Entwicklungsteam erhöhen und damit die Erkennung diskriminierender Verzerrungen positiv beeinflussen.

Erklärbarkeit

Komplexe KI-Algorithmen wie tiefe neuronale Netze sind oft Black-Box-Modelle. Das bedeutet, dass es für Menschen nicht möglich ist, den Entscheidungsprozess des KI-Algorithmus nachzuvollziehen. Außerdem ist es für Menschen sehr schwierig, einem KI-System zu vertrauen, wenn sie die Gründe für dessen Entscheidungen nicht verstehen. Eine Lösung bieten Methoden der Erklärbaren Künstlichen Intelligenz (engl. Explainable AI), die KI-Systeme für Menschen verständlicher machen, indem sie geeignete Erklärungen für das Verhalten von KI-Systemen generieren.

Dabei ist es besonders wichtig, dass die Erklärungen an das Wissen und die Bedürfnisse der adressierten Stakeholder angepasst sind. So benötigt ein Laie andere Erklärungen als ein Mitarbeiter einer Regulierungsbehörde. Im Beispiel eines KI-basierten Kreditsystems benötigt ein Kreditantragsteller einfache Erklärungen, warum sein Kreditantrag abgelehnt wurde. Eine Regulierungsbehörde hingegen ist weniger an Erklärungen für einzelne Entscheidungen des KI-Systems interessiert. Vielmehr benötigt die Regulierungsbehörde globale und detaillierte Erklärungen über den gesamten Entscheidungsprozess des KI-Systems, um dessen Regelkonformität überprüfen zu können.

Transparenz

Um KI-Systeme transparent zu machen, ist die Offenlegung einer Vielzahl von Informationen über den gesamten Lebenszyklus des KI-Systems erforderlich. Insbesondere müssen Informationen über den Zweck des Modells, die Datenherkunft und die einzelnen Entwicklungsschritte erfasst und veröffentlicht werden. Dazu gehört auch die Dokumentation der verwendeten Trainingsdatensätze einschließlich der Datenerhebung und -kennzeichnung sowie die Dokumentation der verwendeten KI-Algorithmen. Darüber hinaus sollten verschiedene Kennzahlen veröffentlicht werden, die die Vertrauenswürdigkeit des KI-Systems quantifizieren (u.a. seine Angriffssicherheit, Fairness und Erklärbarkeit). Dabei sollte auch über mögliche Unsicherheiten dieser Kennzahlen informiert werden.

Diese Informationen sollten in Form von Berichten und Factsheets offen kommuniziert werden. Die Darstellung und der Detaillierungsgrad der Informationen orientieren sich an der Zielgruppe. Beispielsweise sind Unternehmen in erster Linie an Informationen interessiert, die belegen, dass ihre KI-Systeme eine ausreichende Genauigkeit und Robustheit gegenüber Angriffen aufweisen. Dies hilft Unternehmen, die Risiken von KI-Systemen zu kontrollieren. Regulierungsbehörden hingegen benötigen Informationen, um zu überprüfen, ob ein KI-System alle Richtlinien und Vorschriften einhält.

Schutz von Daten und Privatsphäre

Ein weiterer wichtiger Aspekt der Vertrauenswürdigkeit künstlicher Intelligenz ist die Wahrung des Datenschutzes und der Privatsphäre während des gesamten Lebenszyklus eines KI-Systems. So dürfen KI-Systeme keine Daten unbefugt verwenden, die direkt oder indirekt eine Person oder einen Haushalt identifizieren könnten. Darüber hinaus muss sichergestellt werden, dass weder die Trainingsdaten noch die generierten Informationen eines KI-Systems Rückschlüsse auf bestimmte Personen oder Haushalte zulassen. Dies betrifft insbesondere personenbezogene Daten wie Name, Alter, Geschlecht, sexuelle Orientierung, ethnische Herkunft, religiöse Überzeugung und politische Meinung.

Staatliche Regelungen wie die Datenschutz-Grundverordnung (DSGVO) der Europäischen Union verpflichten Unternehmen, Maßnahmen zum Datenschutz und zum Schutz der Privatsphäre zu ergreifen. Um Datenschutzverletzungen oder Eingriffe in die Privatsphäre zu verhindern, können bei der Datenerhebung, -verwaltung und -verarbeitung eines KI-Systems verschiedene Schutztechniken eingesetzt werden. Dazu gehören Methoden wie Datenanonymisierung und föderales Lernen.

Rechenschaftspflicht

Um die Regulierung und Prüfung von KI-Systemen zu ermöglichen, müssen Mechanismen geschaffen werden, die die Rechenschaftspflicht für KI-Systeme und die von ihnen getroffenen Entscheidungen sicherstellen. Interne und externe Prüfer müssen in der Lage sein zu beurteilen, ob die einem KI-System zugrunde liegenden Algorithmen, Daten und Designprozesse allen geltenden Vorschriften und Gesetzen entsprechen. Insbesondere KI-Systeme in kritischen Infrastrukturen und KI-Systeme, deren Entscheidungen die Grundrechte bestimmter Personengruppen verletzen können, sollten jederzeit unabhängig überprüft werden können.

Die Rechenschaftspflicht hängt auch eng mit der Transparenz eines KI-Systems zusammen, da ein transparentes KI-System die Überprüfung erheblich erleichtert.

Weiterführende Literatur

In diesem Abschnitt findest Du weiterführende Literatur, die Dir helfen wird, tiefer in die Thematik der vertrauenswürdigen künstlichen Intelligenz einzusteigen.

Bücher

Wissenschaftliche Publikationen

Artikel

Zusammenfassung

In diesem Beitrag hast Du die verschiedenen Teilbereiche der vertrauenswürdigen künstlichen Intelligenz kennengelernt und mehr darüber erfahren, warum sie so wichtig sind.

Konkret hast Du gelernt:

  • Vertrauenswürdige künstliche Intelligenz beschäftigt sich mit der Entwicklung von KI-Systemen, die sich an den Bedürfnissen der Gesellschaft orientieren und dabei Gesetze und ethische Grundsätze einhalten.
  • Vertrauenswürdige Künstliche Intelligenz ist wichtig, um das Risiko zu minimieren, dass KI-Systeme wirtschaftlichen oder sozialen Schaden anrichten.
  • Vertrauenswürdige Künstliche Intelligenz umfasst 7 wichtige Teilbereiche: Generalisierbarkeit, Angriffssicherheit, Fairness, Erklärbarkeit, Transparenz, Datenschutz und Rechenschaftspflicht.

Hast Du noch Fragen?

Schreibe Deine Fragen gerne unten in die Kommentare und ich werde mein Bestes tun, sie zu beantworten.

P.S.: Natürlich freue ich mich auch über konstruktives Feedback zu diesem Blogpost 😊

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert