ISBN-13: 9786209483332 / Niemiecki / Miękka / 2026 / 68 str.
Anhand einer systematischen Literaturrecherche wird in diesem Papier untersucht, wie einige KI-Algorithmen voreingenommen sind, eine Situation, die ein großes ethisches und soziales Risiko darstellt, da automatisierte Systeme aktiv an einer Vielzahl von Entscheidungen beteiligt sind. Es wird auch erörtert, wie der Mangel an Vielfalt in KI-Entwicklungsteams und Trainingsdatensätzen die Wahrscheinlichkeit von Voreingenommenheit erhöht. Darüber hinaus werden die ethischen und sozialen Auswirkungen dieser Voreingenommenheit in verschiedenen Kontexten beleuchtet, z. B. am Arbeitsplatz, wo automatisierte Rekrutierungstools weibliche Bewerber diskriminieren, oder in der Medizin, wo Diagnosen für Frauen aufgrund fehlender repräsentativer Daten weniger genau sind. Aus regulatorischer Sicht wird die Unzulänglichkeit verbindlicher rechtlicher Rahmenbedingungen eingeräumt. Zwar gibt es Bemühungen wie das von der Europäischen Union vorgeschlagene KI-Gesetz oder die ethischen Empfehlungen der UNESCO, doch fehlt es vielen dieser Vorschriften an wirksamen Durchsetzungsmechanismen. Im Gegensatz dazu haben Länder wie Kanada obligatorische Instrumente zur Bewertung der Auswirkungen von Algorithmen eingeführt, die ein effektiveres Modell darstellen.