Verzerrte Daten führen zu verzerrten Entscheidungen. Das mag trivial klingen, aber die Auswirkungen auf KI-Systeme sind es nicht. Daten sind das Herzstück von KI. Und wenn die Daten schon ein bisschen schief sind, wird das Ergebnis nicht gerade. Kurz: Garbage in, Garbage out. 🗑️
Am Institut für Interaktive Systeme (ISy) der Technischen Hochschule Lübeck nutzen und entwickeln wir KI-basierte Anwendungen und wollen das auch in Zukunft immer mehr tun – vom generierten Beschreibungstext bis hin zu Empfehlungssystemen. Wie sich Verzerrungen, sog. Biases, auf unsere Projekte auswirken, war das Thema eines Workshops, den ich im Rahmen unserer KI-Themenreihe gestaltet habe.
Slides zum Nach- und besser Machen als OER
Bias in KI-Systemen. 2025. :
Einstieg mit Bildern
Ich wollte das Thema greifbar machen und habe deshalb mit einem Bildbeispiel gestartet: Schwarzer Arzt/Weißer Patient. Danke an Nele Hirsch für die Inspiration aus ihrem Blog! 🙏
Danach ging’s ans Eingemachte: Was bedeutet Bias konkret für unsere Arbeit? Wir haben diskutiert, wie Verzerrungen in unseren Daten entstehen können und welche Konsequenzen sie vielleicht haben. Dabei haben wir uns sowohl als Nutzer*innen von KI-Tools (z. B. ChatGPT) als auch als Entwickler*innen (z. B. Empfehlungssysteme für unsere Lernplattformen) betrachtet.
Methoden gegen Bias: Diversity Personas und Prompting
Im Workshop haben wir zwei Methoden ausprobiert, die ich durch einen Kurs auf dem KI-Campus kennengelernt habe:
- Diversity Personas: Eine Methode, die dabei hilft, verschiedene Perspektiven bei der Entwicklung von KI-Systemen einzubringen.
- De-Biasing durch Prompting: Eine Technik, um KI-Tools dazu zu bringen, einen Teil der Verzerrungen selbst zu beseitigen, als „Fighting Fire with Fire“.
Beide Methoden haben uns geholfen, Bias besser zu verstehen und darüber nachzudenken, wie wir ihn abmildern können. Die Ergebnisse waren fast nie 100%ig zufriedenstellend, aber zeigten gut auf, in welche Richtung es gehen kann und vielleicht auch sollte. Ich gehe davon aus, dass die KI-Tools vor allem beim De-Biasing besser werden, ich werde es also immer mal wieder ausprobieren.
Einige Erkenntnisse aus der Diskussion
Ich habe den Workshop selbst geleitet und es gibt kein Protokoll dazu, aber aus dem Gedächtnis habe ich vor allem folgende Erkenntnisse mitgenommen:
- In unseren Projekten geht es häufig um Digitalisierung an den Hochschulen und wir erreichen Hochschulangehörige auch besser als andere Zielgruppen. Im Ergebnis sind die Daten, die wir haben (bspw. Nutzende unserer Plattformen, Evaluationen etc.) mit einer starken Überbetonung von Akademiker:innen belastet. Das ist nicht schlimm, wenn wir Hochschulprojekte betrachten, aber bspw. der Digital Learning Campus soll ja alle Bürger*innen ansprechen, dann werden unsere bisherigen Daten nicht ausreichen.
- Wir arbeiten viel mit digital affinen Menschen. Menschen, die weniger technikaffin sind, können in unseren Daten und unserer Wahrnehmung schnell durchs Raster fallen.
- Bei Umfragen und Evaluationen tritt oft der Survivorship Bias auf: Wir bekommen Feedback nur von denen, die es bis zur Umfrage geschafft haben – aber nicht von denen, die schon vorher ausgestiegen sind.
- Abmildern von Bias bleibt schwierig: Wie schafft man es, diversere Ergebnisse zu erzielen, ohne dabei neue Stereotype zu erzeugen oder unrealistische Szenarien zu erhalten? „Der Mensch im Rollstuhl“ als Klischee für alle Menschen mit körperlichen und kognitiven Einstellungen ist so ein Beispiel, das man auch im Beitragsbild oben sehen kann: Wenn es dann auf einmal 6 Menschen im Rollstuhl gibt, ist das Bild ebenfalls schräg.
Verbesserungspotenzial für den Workshop selbst
Bisher sehe ich keine Wiederholungen für diesen konkreten Workshop, dennoch möchte ich festhalten, was ich bei einem nächsten Mal anders machen würde:
- Ich würde mir mehr Zeit verschaffen. Wir haben uns für die Workshop-Reihe jeweils eine Stunde reserviert. Leider konnten wir nur etwas zeitverzögert starten (merke: bei Hybrid-Formaten den Raum vorher reservieren und nicht nur vorher da sein, sonst hat ihn ggf. jemand anders reserviert), das brachte mich etwas in Zeitnot. Aber auch so hätte ich vielleicht ein kurzes Video mit den Grundlagen vorab versenden können, damit wir schneller in den Austausch starten können. Das hätte aber zur Folge gehabt, dass sich die Kolleg*innen vorbereiten müssen, was ich gern vermeide, da es zusätzlichen Workload erzeugt.
- Ich glaube, ich bin zu lange zu allgemein geblieben. Ich wollte anschauliche Beispiele nennen, damit alle das Grundproblem besser erfassen. Ich hätte mich aber durchaus trauen können, schneller die Anwendung auf eigene Projekte anzuregen und zu diskutieren.
- Manche Punkte hätte ich besser und expliziter erklären sollen, vor allem, warum ich sie in Verbindung mit KI-Systemen für wichtig halte. „In meinem Kopf war das klar“ ist halt nicht immer genug.
Fazit
Ich habe sowohl am Anfang als auch am Ende des Workshops gesagt:
Das Gebiet ist riesig und es gibt keine Lösung für das Problem.
Alles in allem war der Workshop ein guter Einstieg in ein Thema und es wird wichtig bleiben, dass wir achtsam bzgl. solcher Verzerrungen sind. Wir wollen fairere und inklusivere Systeme bauen, die für möglichst viele Menschen zugänglich und nützlich sind. Hierfür müssen wir zuerst unsere eigenen Biases erkennen – und das geht nur, wenn wir bewusst hinschauen und uns darüber austauschen.
Schreibe einen Kommentar