2025
|
 | Lorenz, Anja; Möller, Anna Lena: Nicht nur eine Frage der Technik: KI, Gender & Bias. Workshop im Rahmen des ProfMe-Mentorings 2025. @workshop{Lorenz2025k,
title = {Nicht nur eine Frage der Technik: KI, Gender & Bias},
author = {Anja Lorenz and Anna Lena Möller},
url = {https://doi.org/10.5281/zenodo.17939864
https://kurzlinks.de/profme-bias},
doi = {10.5281/zenodo.17939864},
year = {2025},
date = {2025-12-10},
urldate = {2025-12-10},
series = {Workshop im Rahmen des ProfMe-Mentorings},
abstract = {Künstliche Intelligenz ist schlau – aber nicht fair. Algorithmen übernehmen Vorurteile aus den Daten, die ihnen zugrunde liegen. Wir beschäftigen uns damit, warum KI das praktischste neue Werkzeug in unserem Arbeitsalltag ist, warum das zum Problem werden kann und wie wir es besser machen können.},
howpublished = {Workshop im Rahmen des ProfMe-Mentorings},
keywords = {AI, artificial intelligence, Bias, ChatGPT, Digital Learning Campus (DLC), feminism, TH Lübeck},
pubstate = {published},
tppubtype = {workshop}
}
Künstliche Intelligenz ist schlau – aber nicht fair. Algorithmen übernehmen Vorurteile aus den Daten, die ihnen zugrunde liegen. Wir beschäftigen uns damit, warum KI das praktischste neue Werkzeug in unserem Arbeitsalltag ist, warum das zum Problem werden kann und wie wir es besser machen können. |
 | Lorenz, Anja: Bias in KI-Systemen. 2025. @workshop{Lorenz2025,
title = {Bias in KI-Systemen},
author = {Anja Lorenz},
url = {https://doi.org/10.5281/zenodo.14669796
https://kurzlinks.de/isy-bias-workshop
https://secret-cow-level.de/wordpress/2025/01/garbage-in-garbage-out-bias-in-ki-systemen/},
year = {2025},
date = {2025-01-15},
urldate = {2025-01-15},
abstract = {Verzerrte Daten führen zu verzerrten Entscheidungen, oder kurz: Garbage in, Garbage out. Am Institut für Interaktive Systeme nutzen und entwickeln wir auch selbst Anwendungen, die auf KI-Technologien basieren. Daher sollten wir uns bewusst sein, dass diese immer Verzerrungen (Biases) unterliegen.
Im Workshop steigen wir allgemein in das Thema ein und reflektieren, welche Konsequenzen das für unsere Arbeit hat. Wir lernen die Methoden "Diversity Personas" und "De-Biasing durch Prompting" kennen und schauen, inwieweit sie uns beim Erkennen und Abmildern von Biases helfen können.},
howpublished = {Teil einer internen Workshop-Reihe am Institut für Interaktive Systeme der TH Lübeck},
keywords = {AI, Bias, Digital Learning Campus (DLC), KI, TH Lübeck},
pubstate = {published},
tppubtype = {workshop}
}
Verzerrte Daten führen zu verzerrten Entscheidungen, oder kurz: Garbage in, Garbage out. Am Institut für Interaktive Systeme nutzen und entwickeln wir auch selbst Anwendungen, die auf KI-Technologien basieren. Daher sollten wir uns bewusst sein, dass diese immer Verzerrungen (Biases) unterliegen.
Im Workshop steigen wir allgemein in das Thema ein und reflektieren, welche Konsequenzen das für unsere Arbeit hat. Wir lernen die Methoden "Diversity Personas" und "De-Biasing durch Prompting" kennen und schauen, inwieweit sie uns beim Erkennen und Abmildern von Biases helfen können. |
1 Pingback