Blog Digitalisierung Warum KI Vergangenes vorhersagt und Diskriminierung fortschreibt 06.10.2025 Katharina Mosene Künstliche Intelligenz gilt als Technologie der Zukunft. Allerdings basiert sie häufig auf bestehenden Ausschlussmustern und Diskriminierungslogiken – mit weitreichenden Folgen für Gerechtigkeit, Teilhabe und Chancengleichheit. Bild: Urheber: KI generiert Was hat künstliche Intelligenz mit Diskriminierung zu tun? Ob beim Sortieren von Bewerbungen, bei der Vergabe von Sozialleistungen, in der medizinischen Diagnostik oder in der Strafverfolgung; KI-gestützte Systeme strukturieren immer mehr gesellschaftliche Bereiche und versprechen Neutralität, Effizienz und bessere Entscheidungen. Doch diese sogenannten automatisierten Entscheidungssysteme (englisch: automated decision-making systems; kurz: ADM-Systeme) sind keineswegs objektiv. Aktuelle Studien und Praxisbeispiele zeigen: ADM-Systeme reproduzieren häufig genau jene Ausschlüsse und Ungleichheiten, die sie zu beheben vorgeben. Sie schreiben derzeit vor allem strukturelle Diskriminierungen fort, insbesondere für FLINTA*, BIPoC, queere Personen und Menschen mit Behinderungen. Diese „Vergangenheitsorientierung“ der Systeme als soziotechnische Akteure gilt es kritisch zu hinterfragen. Definition: Was sind algorithmische Entscheidungssysteme? Algorithmische Entscheidungssysteme (ADM-Systeme) sind digitale Systeme, die auf Basis vorgegebener Rechenvorschriften – sogenannten Algorithmen – automatisch Entscheidungen treffen oder Empfehlungen geben. Sie analysieren Daten, folgen festgelegten Entscheidungslogiken und kommen so zu einem Ergebnis, oft ohne direkte menschliche Beteiligung. In vielen Fällen kommen dabei auch Methoden der künstlichen Intelligenz (KI) zum Einsatz, etwa wenn das System aus bestehenden Daten Muster erkennt und seine Entscheidungsregeln auf neue Fälle anpasst. Fachlich spricht man hier von maschinellem Lernen, bei dem ein Algorithmus mithilfe großer Datenmengen mathematische Modelle erstellt, um ähnliche Aufgaben in Zukunft besser zu lösen. Der Algorithmus ist dabei das technische Grundgerüst – eine klare Schritt-für-Schritt-Anleitung zur Datenverarbeitung. Die KI erweitert dies um die Fähigkeit, statistisch aus Beispieldaten "zu generalisieren", also Regeln selbstständig zu verbessern. Das ADM-System ist schließlich die Anwendung dieser Technologien im konkreten Entscheidungsprozess – z. B. bei der Kreditvergabe, der automatisierten Bewerberauswahl oder in der medizinischen Diagnostik. Der Einsatz solcher Systeme wirft wichtige Fragen auf, etwa zur Nachvollziehbarkeit, Fairness und Verantwortung der getroffenen Entscheidungen. Darum reproduzieren ADM-Systeme Diskriminierung KI-basierte Entscheidungssysteme analysieren Daten und treffen (teil-)automatisierte Entscheidungen oder Empfehlungen – etwa darüber, wer für eine Stelle geeignet ist, wie hoch ein Kredit ausfallen sollte oder ob eine Person staatliche Unterstützung erhält. In der Theorie sollen solche Systeme Diskriminierung minimieren, weil sie "frei von menschlichen Vorurteilen" arbeiten. In der Praxis aber führen sie oft zu neuen Ausschlüssen. Warum? Algorithmische Entscheidungen basieren auf historischen Daten und diese Daten sind alles andere als neutral. Sie stammen aus einer Welt, in der marginalisierte Gruppen wie BIPoC, weiblich gelesene Personen/Frauen*, FLINTA/LGBTIQA+ oder Menschen mit Behinderungen häufig benachteiligt wurden. Wer also in der Vergangenheit schlechter behandelt wurde, wird in der Logik der Maschine auch künftig als weniger geeignet bewertet. Sie spiegeln gesellschaftliche Machtverhältnisse wider und statt gerechte Zukunftsperspektiven zu eröffnen, zementieren viele ADM-Systeme die Vergangenheit und mit ihr rassistische, sexistische und klassistische Ausschlussmuster. Entscheidungssysteme in Unternehmen – Automatisierte Entscheidungen, reale Ausschlüsse Wer heute in oder durch Unternehmen auf Basis von alten Mustern bewertet wird, hat morgen schlechtere Chancen – unter anderem bei der Kreditvergabe zeigen sich solche Verzerrungen. Wenn frühere Daten zeigen, dass weiße cis-männliche Personen häufiger Kredite erhalten und zurückzahlen konnten, verfestigt sich diese Logik im System. Wer von struktureller Benachteiligung betroffen war, etwa durch schlechtere Bezahlung oder Diskriminierung im Arbeitsmarkt, wird auch in Zukunft als höheres Risiko gewertet. Die Maschine "lernt" den Ausschluss bestimmter Personengruppe. Dies verstärkt wirtschaftliche Ungleichheiten und fördert ein Machtgefälle zugunsten ohnehin bereits privilegierter Gruppen (Vgl. Rudl 2021). Die nachfolgenden Beispiele zeigen, dass die Daten, mit denen KI-Systeme trainiert werden, maßgebend für die Diskriminierung in automatisierten Entscheidungsprozesse sind. Beispiel: Arbeitsmarktchancenmodell In Österreich sollte das sogenannte Arbeitsmarktchancenmodell (AMS) Menschen in drei Kategorien einteilen, je nachdem, wie hoch ihre „Integrationschance“ auf dem Arbeitsmarkt ist. Die Klassifikation bestimmte dann mit, welche Fördermaßnahmen eine Person erhält. Analysen machten schnell deutlich, dass das System Menschen mit nicht-deutscher Erstsprache, älteren Bewerber:innen oder Frauen mit Betreuungspflichten systematisch als weniger integrierbar einstufte – und damit diskriminierte. Beispiel: Allegheny Family Screening Tool Das Allegheny Family Screening Tool in Pennsylvania ist ein ADM-System zur Einschätzung des Kindeswohlrisikos. Eltern, die auf staatliche Hilfe angewiesen sind, hinterlassen dabei weit mehr Daten, etwa zu Gesundheit, Wohnen oder Suchtverhalten. Wohlhabendere Eltern, die private Dienste nutzen, tauchen dagegen kaum in den Datenbanken auf. Das Ergebnis: Arme Familien gelten häufiger als Risikofälle. Nicht, weil sie objektiv gefährdeter wären, sondern weil sie sichtbarer sind. Der Algorithmus verwechselt Elternschaft in Armut somit mit schlechter Elternschaft. An diesem Beispiel ist erkennbar, wie Diskriminierung durch die Überrrepräsentation in den Daten entsteht. Beispiel: Bewerbungsroboter von Amazon Der Bewerbungsroboter von Amazon sollte Bewerbungen automatisiert sortieren. Er lernte aus historischen Daten, dass männliche Bewerber im Tech-Bereich häufiger erfolgreich waren und bewertete weibliche Vornamen und sogar Begriffe wie Women’s College negativ. So wurden bestehende Ungleichheiten auf dem Arbeitsmarkt verstärkt und marginalisierte Gruppen weiter benachteiligt (Pena/Varon 2021, Criado-Perez 2019; D’Ignazio/Klein 2020; Eubanks 2018; Buolamwini/Gebru 2018). Der KI-gestütze Bewerbungsroboter von Amazon ist ein besonders darastisches Beispiel für die Diskriminierung durch eine Unterrepräsentation in den Daten. Bestimmte Gruppen – in diesem Fall Frauen – kommen in Trainingsdaten kaum vor, etwa weil sie früher wenig Zugang zu bestimmten Berufen hatten, und werden dadurch systematisch schlechter bewertet. Beispiel: Verzerrungen bei Kreditvergaben Auch bei der Kreditvergabe zeigen sich solche Verzerrungen. Wenn frühere Daten zeigen, dass weiße cis-männliche Personen häufiger Kredite erhalten und zurückzahlen konnten, verfestigt sich diese Logik im System. Wer von struktureller Benachteiligung betroffen war, etwa durch schlechtere Bezahlung oder Diskriminierung im Arbeitsmarkt, wird auch in Zukunft als höheres Risiko gewertet. Die Maschine lernt damit Ausschluss nach dem Prinzip Diskriminierung durch Training. Dies verstärkt wirtschaftliche Ungleichheiten und fördert ein Machtgefälle zugunsten ohnehin bereits privilegierter Gruppen (Vgl. Rudl 2021). Dazu kommt die Intransparenz des Einsatzes der Systeme: Die Folgen der Diskriminierung bleiben meistens unbemerkt, wenn nicht sichtbar ist, wie automatisierte Entscheidungen zustande kommen. Betroffene können sich aus diesem Grund oft nicht dagegen wehren. „Während Pilotprojekte zu KI-Systemen gegen Armut überall getestet werden, warum gibt es kein Pilot-KI-System, das Korruption bei jungen, reichen, weißen Politikern vorhersagt? Warum wird das Steuergeheimnis der Reichen so konsequent geschützt, während sämtliche Daten der Armen [...] von Regierungen und Unternehmen problemlos zur Datenverarbeitung ‚einvernehmlich‘ genutzt werden können?“ [Übers. d. Verf.] (Varon/Peña 2021:18) Predictive Policing – KI in sensiblen Bereichen Noch problematischer wird es, wenn ADM-Systeme im Bereich von Sicherheit und Grundrechten eingesetzt werden. Im Predictive Policing (deutsch: vorausschauende Polizeiarbeit) werden vergangene Delikte von KI-Systemen genutzt, um zukünftige Gefahren zu berechnen. Doch gerade hier sind rassistische Verzerrungen besonders gefährlich. Das Problem: Diese Systeme tun nur so, als würden sie die Zukunft prognostizieren. In Wahrheit projizieren sie die Vergangenheit in die Zukunft – oft mit fatalen Folgen für Menschen, die ohnehin schon benachteiligt sind. Die Daten, die den KI-Systemen zugrunde liegen, sind nicht neutral. Sie spiegeln die Machtverhältnisse jener wieder, die sie erheben, kategorisieren und auswerten. Feministische Datenpraktiken setzen hier an. Sie fordern: partizipative Datenerhebung kontextbezogene Kategorien unabhängige Audits Einbezug marginalisierter Gruppen „Wie konnte es so weit kommen, dass die Datenwissenschaften fast ausschließlich im Dienst von Profit (für wenige), Überwachung (marginalisierter Gruppen) und Effizienz stehen? [...] Der Umgang mit Daten ist teuer und ressourcenintensiv, weshalb nur bereits mächtige Institutionen -Konzerne, Regierungen und Eliteuniversitäten- überhaupt die Mittel haben, im großen Maßstab mit ihnen zu arbeiten. Dies führt dazu, dass die Datenwissenschaften vor allem den Zielen eben dieser Institutionen dienen. Man kann diese Ziele als die drei S zusammenfassen: Science (dtsch.: Wissenschaft, vertreten durch Universitäten), Surveillance (dtsch.: Überwachung durch Regierungen) und Selling (dtsch.: Verkauf bzw. Profiterwirtschaftung durch Unternehmen). [...] Wenn also Wissenschaft, Überwachung und Verkauf die Hauptziele sind, denen Daten und die Datenindustrie dienen, weil nur hier die nötigen Ressourcen verortet sind, Daten zum eigenen Zweck einzusetzen; welche anderen Ziele und Zwecke bleiben dann unterversorgt und unterrepräsentiert?“ [Übers. d. Verf.] (D’Ignazio/Klein 2020: 41-42) Algorithmischer Teufelskreis beim Predictive Policing Studien zeigen: In überwachungsintensiven Stadtteilen, meist von marginalisierten Gruppen bewohnt, häufen sich polizeiliche Maßnahmen, weil Predictive Policing hier eine hohe Kriminalität voraussagt. Die daraus folgende erhöhte Polizeipräsenz führt zu mehr erfassten Straftaten. Diese Daten wiederum fließen zurück ins System und verstärken die Überwachung genau dieser Gruppen. Die Voraussage bestätigt sich. Ein algorithmischer Teufelskreis entsteht. Handlungsmöglichkeiten und Widerstand gegen algorithmische Ungleichheit Die Europäische Union hat mit dem AI Act (KI-Verordnung) 2024 nach langen Verhandlungen einen bedeutsamen Schritt in Richtung KI-Regulierung unternommen. Dort werden zwar Verzerrungen als Problem benannt, aber keine verbindlichen Anforderungen für Diversität, Gendergerechtigkeit oder Antidiskriminierung formuliert (Vgl. Vieth-Ditlmann/Sombetzki 2024; Mosene/Rachinger 2025). Artikel 10 des AI Acts verlangt darüber hinaus zwar „hinreichend repräsentative“ Daten, bleibt aber vage, was dies konkret bedeutet. Auch aus intersektionaler feministischer Perspektive greift diese Regulierung zu kurz. Zwar betont sie Transparenz, Erklärbarkeit und technische Zertifizierbarkeit, doch zentrale Fragen der Machtverteilung, Repräsentation und strukturellen Ungleichheit bleiben unberührt. Das kann darüber hinaus getan werden: Feministische Datenwissenschaftler:innen wie Catherine D’Ignazio und Lauren Klein fordern stattdessen eine radikale Umverteilung von Datenmacht, die systemische Diskriminierung sichtbar macht, marginalisierte Perspektiven ins Zentrum rückt und epistemische Gerechtigkeit anstrebt. Ein Equality-by-Design-Ansatz muss demnach mehr sein als ein Zertifizierungsrahmen, er muss tiefgreifend politisch sein, Machtverhältnisse offenlegen und aktiv herausfordern. „Es gilt den Bezugs- und Analyserahmen zu verschieben, weg von Konzepten, die Macht absichern, wie Fairness und Rechenschaftspflicht, hin zu solchen, die Macht herausfordern, wie Gerechtigkeit und gleichberechtigte Teilhabe. Nur dies kann dazu beitragen, dass Datenwissenschaftler:innen, Designer:innen und Forscher:innen Unterdrückung und Ungleichheit zukünftig als grundlegende Annahme bei der Entwicklung rechnergestützter Produkte und Systeme verstehen und diese zu überwinden suchen.” [Übers. d. Verf.] (D’Ignazio/Klein 2020: 72) Das Allgemeine Gleichbehandlungsgesetz (AGG) muss zukünftig ebenso algorithmische Diskriminierung abdecken, mit Verbandsklagerecht und Schutz vor sogenannten Proxy-Variablen. Es braucht zudem verbindliche Kriterien für faire Trainingsdaten. Diese müssen vorab auf Verzerrungen analysiert werden, denn historische Ungleichheiten dürfen nicht unreflektiert übernommen werden. Es braucht Transparenzpflichten und eine diskriminierungssensible Prüfung von KI-Anwendungen. Nutzer:innen müssen wissen, wo ADM-Systeme eingesetzt werden und wie sie funktionieren. Außerdem müssen Entscheidungen anfechtbar sein, auch wenn sie algorithmisch getroffen wurden. Auch Unternehmen und Entwickler:innen tragen Verantwortung: durch diversere Teams, Audits, partizipative Datenerhebung und klare Mechanismen zum Eingreifen. Und Nutzer:innen? Sie können ADM nicht allein stoppen, aber durch Aufklärung, Sensibilisierung und politische Forderungen zum Wandel beitragen. Zivilgesellschaftliche Organisationen wie AlgorithmWatch leisten hier wichtige Arbeit. Die Gerechtigkeit der Zukunft beginnt mit der kritischen Reflexion ihrer technischen Gegenwart. KI anders denken: Für eine gerechte digitale Zukunft Künstliche Intelligenz ist eben keine neutrale Technologie. Sie ist ein soziotechnisches System, das auf gesellschaftlichen Normen, Werten und Machtverhältnissen basiert. Wie sie entscheidet, hängt maßgeblich davon ab, wie sie trainiert, reguliert und genutzt wird. Wenn wir wollen, dass KI nicht die Ungleichheiten der Vergangenheit wiederholt, sondern eine gerechtere Zukunft mitgestaltet, müssen wir jetzt handeln. Das bedeutet für die Praxis ganz konkret: Machtverhältnisse sichtbar machen Datenpraktiken hinterfragen Narrative verändern Künstliche Intelligenz ist ein Spiegel unserer Gesellschaft – aber auch ein Werkzeug, sie zu verändern. Über diese Artikelreihe Teil 1 beleuchtet die Diskriminierung KI-basierter automatisierter Entscheidungssysteme (ADM). Teil 2 widmet sich der Frage, wie generative KI diskriminierende Narrative verstärkt und was man dagegen tun kann. Teil 3 (erscheint am 20.11.2025) rückt die regulatorische Perspektive in den Fokus. Gemeinsam bilden die drei Teile ein Plädoyer für mehr Gerechtigkeit, mehr Reflexion und eine KI-Entwicklung, die Vielfalt und Menschenwürde ins Zentrum stellt. Quellen und weiterführende Informationen Boulamwini, Joy/Gebru, Timnit (2018): Gender Shades. Online: https://www.media.mit.edu/projects/gender-shades/overview/ [20.03.2024] Criado Perez, Caroline (2019): Invisible Women: Data Bias in a World Designed for Men. New York, NY: Abrams Press. D’Ignazio, Catherin/Klein, Lauren F. (2020): Data Feminism. MIT Press. Eubanks, Virginia (2018): Automating Inequality – How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press. Mosene, Katharina; Rachinger, Felicitas (2025): KI zwischen technologischem Fortschritt und gesellschaftlicher Verantwortung, in: blog interdisziplinäre geschlechterforschung, 22.04.2025, www.gender-blog.de/beitrag/ki-fortschritt-und-verantwortung/, DOI: https://doi.org/10.17185/gender/20250422 [22.05.2025] Rudl, Thomas (2021): Wenn Algorithmen den Hauskredit verweigern. netzpoitik.org https://netzpolitik.org/2021/datenrassismus-wenn-algorithmen-den-hauskredit-verweigern/ [22.05.2025] Varon, Joana/Peña, Paz (2021): Artificial intelligence and consent: a feminist anti-colonial critique. In: Internet Policy Review. 10 (4). https://doi.org/10.14763/2021.4.1602 Vieth-Ditlmann, Kilian/ Sombetzki, Pia (2024): EU-Parlament stimmt über KI-Verordnung ab. Mitgliedstaaten müssen nachbessern. https://algorithmwatch.org/de/ki-verordnung-eu-parlament-stimmt-ab/ [28.05.2025] Kontakt Autorin Katharina Mosene KI-Expertin Projektverantwortliche Katrin Matuschek 0228 883-7113 Katrin.Matuschek(at)fes.de Verwandte Artikel Bild: Urheber: FES Montag, 05.05.2025 FES goes Learntec – Wie KI und immersive Lernwelten digitales Lernen transformieren Erfahre in Expert:innen-Interviews der Learnetc 2024, welche Trends der digitalen Bildung auch in Zukunft relevant sind und wohin sich digitales Lernen entwickelt. Bild: Urheber: FES Montag, 30.10.2023 FES goes Learntec – Lernen mit KI in der Zukunft Was sind die aktuellen Trends in der digitalen Bildung und wie lernen wir in Zukunft? Das haben wir für euch auf der Learntec herausgefunden. Bild: Urheber: picture alliance / imageBROKER | David Talukdar Montag, 06.03.2023 Chatbots und Co. – Was ist das eigentlich? KI-gesteuerte Anwendungen wie Chatbots nehmen in der heutigen Zeit immer mehr zu. Hier erfährst du, was Chatbots genau sind und wofür sie bereits heute eingesetzt werden. Verwandte Veranstaltungen Donnerstag, 20.11.2025 | Online KI gerecht gestalten – Diskriminierung durch generative KI verstehen und verhindern Ob Chatbot, Textgeneratoren oder Bilderstellung: Generative Künstliche Intelligenz (KI) ist auf dem Vormarsch und mit ihr ein neues Kapitel automatisierter Stereotypisierung. In dieser digitalen Info-Veranstaltung wird erklärt, wie und warum generative KI diskriminiert und was man dagegen tun… Weitere Infos & Anmeldung