AI Bias

Wenn KI unfair wird

Algorithmen entscheiden über Kredite, Bewerbungen, Empfehlungen, Preise, Sichtbarkeit. Sie tun das schnell, aber nicht neutral. AI Bias entsteht, weil Daten, aus denen KI-Modelle lernen, gesellschaftliche Ungleichheiten, Vorurteile und historische Muster widerspiegeln.

AI Bias ist kein Bug. AI Bias breitet sich aus, wenn keiner hinsieht.

Wo AI Bias entsteht

In den Daten

Historische Daten enthalten historische Ungerechtigkeiten. Wer damit trainiert, reproduziert sie.

In den Zielen

Optimiert ihr auf Klicks, auf Profit oder auf Geschwindigkeit? Jedes Ziel hat blinde Flecken.

In der Anwendung

Ein Algorithmus, der für einen Kontext gebaut wurde, wird in einem anderen eingesetzt, und diskriminiert plötzlich.

In der Unsichtbarkeit

Es gibt keine Kontrolle, keine Rückfragen, Benachteiligungen bei KI-Ergebnissen bleiben unentdeckt.

Meine Leistungen

Schwachstellencheck

Analyse von Abweichungen und Entscheidungsmustern, die sich auf Ergebnisse in KI-Systemen auswirken.

Sensibilisierung für Bias & Blind Spots

Für Teams, die verstehen wollen: Was ist Bias? Wo entsteht er bei uns? Was können wir tun? Wo sind unsere Blind Spots?

Aufzeigen, wo Algorithmen funktionieren und wo nicht

Vertrauen in Technologie entsteht dort, wo Datenkompetenz, Verantwortung und Nutzerfokus zusammenspielen.

Fairness-Management

Prozesse, Know-how und Rollen, die systematisch sicherstellen, dass verantwortungsvolle Entscheidungen erfolgen.

Wo Fairness relevant wird

Recruiting-Algorithmen, die bestimmte Namen oder Lebensläufe benachteiligen

Scoring-Modelle, die bestimmte Gruppen oder Postleitzahlen schlechter bewerten

Empfehlungssysteme, die immer dieselben Gruppen bevorzugen

Chatbots, die auf bestimmte Sprachen oder Akzente schlechter reagieren

Preisalgorithmen, die je nach Gerät oder Standort unterschiedlich anzeigen

Recruiting-Algorithmen, die bestimmte Namen oder Lebensläufe benachteiligen

Scoring-Modelle, die bestimmte Gruppen oder Postleitzahlen schlechter bewerten

Empfehlungssysteme, die immer dieselben Gruppen bevorzugen

Chatbots, die auf bestimmte Sprachen oder Akzente schlechter reagieren

Preisalgorithmen, die je nach Gerät oder Standort unterschiedlich anzeigen

Ungeprüfte Fairness bedeutet in der Regel: Das Modell diskriminiert, ohne dass ihr es merkt.

Bias Calculator zum Selbsttesten

Der Bias Calculator prüft, ob ein System zwei Gruppen fair behandelt oder Verzerrungen zeigt. Dafür werden Confusion-Matrix-Werte (TP, FP, TN, FN) aus der Modellüberprüfung eingegeben. Auf dieser Basis berechnet das Tool Fairness-Kennzahlen und zeigt mögliche Unterschiede oder Bias-Effekte zwischen den Gruppen an.

Erklärung zu Confusion-Matrix-Werten:

  • TP (True Positives): richtig erkannte positive Fälle

  • FP (False Positives): fälschlich als positiv eingestufte Fälle

  • TN (True Negatives): richtig erkannte negative Fälle

  • FN (False Negatives): übersehene positive Fälle (fälschlich negativ eingestuft)

Tipp: Am besten funktioniert der Rechner am Desktop oder auf mobilen Endgeräten im Querformat.

Bias Calculator – Teste Fairness-Metriken

Gib die Confusion Matrix-Werte für zwei Gruppen ein und sieh sofort, ob das System faire Entscheidungen trifft.

Gruppe 1 (z.B. Männer, Gruppe A)

Gruppe 2 (z.B. Frauen, Gruppe B)

Berechnete Metriken

Metrik Gruppe 1 Gruppe 2 Ratio

Fairness-Tests

Test Ratio (G2/G1) Schwellenwert Status Bedeutung

Zusammenfassung

Hinweis: Die Wahl der richtigen Metriken und Schwellenwerte hängt vom Use Case ab. Quantitative Tests sollten immer mit qualitativen Methoden kombiniert werden, wie z. B. User Interviews oder Adversarial Testing. Dabei werden Modelle gezielt mit schwierigen oder manipulierten Eingaben konfrontiert, um Schwachstellen und Fehlverhalten aufzudecken.

Interaktiver Bias Calculator
(bitte im Querformat ansehen)

Teste Fairness-Metriken mit Confusion Matrix-Werten für zwei Gruppen.

Gruppe 1

Gruppe 2

Metriken

Metrik G1 G2 Ratio

Fairness-Tests

Test Ratio Min Status Info

Zusammenfassung

Hinweis: Die Wahl der richtigen Metriken und Schwellenwerte hängt vom Use Case ab. Quantitative Tests sollten immer mit qualitativen Methoden kombiniert werden, wie z. B. User Interviews oder Adversarial Testing. Dabei werden Modelle gezielt mit schwierigen oder manipulierten Eingaben konfrontiert, um Schwachstellen und Fehlverhalten aufzudecken.

Was zeigt ein Bias Calculator?

Ein Bias Calculator zeigt, ob ein System unterschiedliche Gruppen fair behandelt. Er macht sichtbar, wie verlässlich positive Entscheidungen für alle Gruppen sind (Predictive Parity), ob gleiche Chancen bestehen (Equal Opportunity) und ob positive Ergebnisse ausgewogen verteilt werden (Demographic Parity). Diese Metriken unterstützen die Entwicklung fairer und diskriminierungsfreier Systeme.

Der Blick Richtung Zukunft

Ich arbeite an bestehenden Systemen und denke weiter.

– Fairness in AR/VR: Wer wird wie repräsentiert?

– Ethik in Autonomous Systems: Wer haftet, wenn die Maschine entscheidet?

AI Governance: Wie regulieren wir, was wir nicht ganz verstehen?

Fairness in AR/VR: Wer wird wie repräsentiert?

Ethik in Autonomous Systems: Wer haftet, wenn die Maschine entscheidet?

AI Governance: Wie regulieren wir, was wir nicht ganz verstehen?

Zukunft ist kein Zufallsprodukt. Sie entsteht aktiv.

Welche Zukunft bauen eure Algorithmen für wen?

30 Minuten Austausch, ganz ohne Slides.