Blog Digitalisierung Wie generative KI Diskriminierung verstärkt 11.11.2025 Katharina Mosene KI bestimmt unseren Alltag – von Chatbots bis Bildgeneratoren. Doch sie verbreitet oft rassistische, sexistische und klassistische Stereotype durch verzerrte Trainingsdaten. Bild: Urheber: KI-generiert Reproduzierter Ausschluss: Wie generative KI denkt Ob Chatbot, Textgeneratoren oder Bilderstellung: Generative Künstliche Intelligenz (KI) ist auf dem Vormarsch und mit ihr ein neues Kapitel automatisierter Stereotypisierung. Sie ist längst Teil unseres digitalen Alltags, von KI-generierten Bewerbungs- oder Werbefotos über automatisierte Social Media Beschriftungen, Video-Untertitelungen bis hin zu Deepfake-Pornografie - Maschinen schreiben Geschichten, erzeugen Bilder und machen dabei nicht selten das Unsichtbare sichtbar: strukturelle Diskriminierung. Denn auch Large Language Models wie ChatGPT oder Bildgeneratoren wie Midjourney sind auf Grundlage verzerrter Daten trainiert: Sie reproduzieren so vielfach rassistische, sexistische, ableistische und klassistische Narrative. KI-Systeme suggerieren Objektivität, dabei basieren sie häufig auf selektiven Daten und diskriminierenden Mustern. Generative KI reproduziert in ihren Outputs so oft normierte Vorstellungen von Geschlecht, Schönheit, Körpern und Verhalten. Der zweite Teil der Blogreihe klärt: wie generative KI, also Systeme, die Texte schreiben oder Bilder erzeugen, diskriminierende Narrative (stereotype Vorstellungen über Geschlecht, Körper, Herkunft oder soziale Rollen) verstärkt, was das für unser Wissen, unsere Bilder von der Welt bedeutet und wie wir uns gegen solche Verzerrungen zur Wehr setzen können? Definition: Was ist generative KI? Generative KI (auch: generative Künstliche Intelligenz) bezeichnet eine Form von KI, die in der Lage ist, neue Inhalte zu erzeugen, anstatt nur vorhandene Daten zu analysieren oder zu klassifizieren. Das können Texte, Bilder, Videos, Musik oder sogar Programmcode sein. Generative KI ist also eine KI, die selbstständig neue Daten generiert – auf Grundlage von Mustern, die sie in großen Datenmengen gelernt hat. Darum reproduzieren generative KI-Modelle Diskriminierung Die Ergebnisse generativer KI basieren auf großen Trainingsdatensätzen, darunter Texte, Bilder und Videos, die aus dem Internet und anderen Datenquellen stammen. Modelle wie ChatGPT, Midjourney oder Stable Diffusion lernen aus diesen Daten Muster, Sprache, Bildkompositionen. Doch wer oder was steckt in diesen Datensätzen? Welche Narrative, welche Muster werden reproduziert? Eine Vielzahl an Studien zeigt: Die zugrundeliegenden Daten sind alles andere als neutral. Sie spiegeln gesellschaftliche Machtverhältnisse, Vorurteile und Ausschlüsse wider. Und weil KI daraus lernt, reproduziert sie diese auch – manchmal subtil, manchmal offensichtlich: “Die für große Sprachmodelle verwendeten Trainingsdaten sind voll von hegemonialen Weltanschauungen und ausgrenzenden Annahmen.” [Übers. d. Verf.] (Bender et al. 2021) Beispiel: Verstärkung von Geschlechterstereotypen durch Bild-KIs Geben Nutzer:innen in englischer Sprache etwa Prompts wie Geschäftsführer (CEO), Politiker (politician) oder Wissenschaftler (scientist) in Bildgeneratoren ein, erscheinen überproportional häufig weiße, der Norm entsprechende Männer in gut situierten Kontexten. Umgekehrt zeigen Bilder aus den Kontexten Pflege, Assistenz oder Haushalt (engl: nurse, secretary, cleaning lady) häufig hyperfeminisierte Frauenfiguren. Diese Bilder sind keine Zufälle, sie sind das Ergebnis einer datenbasierten Welt, die patriarchale und rassistische Normen zementiert. Wissenschaftliche Analysen zeigen deutlich, dass GPT-Modelle Geschlechterstereotype systematisch verstärken; etwa durch die Zuordnung bestimmter Berufe oder Adjektive zu männlichen oder weiblichen Namen. “Multimodale Datensätze, die in generativen Modellen verwendet werden, reproduzieren ein enges und stereotypes Weltbild, das weiße, westliche Ideale und die Hypersexualisierung von Frauen privilegiert.” (Birhane et al. 2023) Mehr noch, einzelne Systeme wie Stable Diffusion verzerren die Realität zum Nachteil ohnehin marginalisierter Gruppen. Beispiel: Diskriminierung durch die KI bei Stable Diffusion In den USA sind Frauen in gut bezahlten Berufen unterrepräsentiert, aber die Daten zeigen, dass sich die Vertretung der Geschlechter in den meisten Branchen im Laufe der Zeit deutlich verbessert hat. Stable Diffusion zeigt aber ein anderes Szenario, in dem Frauen kaum lukrative Jobs haben oder Machtpositionen bekleiden. Frauen machten einen winzigen Bruchteil der Bilder aus, die für das Stichwort Richter (eng. judge) generiert wurden, etwa 3 %, während in Wirklichkeit 34 % der US-Richter:innen Frauen sind. In den Ergebnissen von Stable Diffusion waren Frauen nicht nur in gut bezahlten Berufen unterrepräsentiert, sondern auch in schlecht bezahlten Berufen überrepräsentiert: “Die Welt von Stable Diffusion wird von weißen männlichen CEOs regiert. Frauen sind selten Ärzt:innen, Anwält:innen oder Richter:innen. Schwarze Männer begehen Verbrechen, während schwarze Frauen Burger braten.” (Nicoletti et al. 2023) Diese Verzerrungen sind folgenreich. Denn KI-Bilder und -Texte prägen Vorstellungen davon, wie Menschen sind, sein sollten und wer dazugehören darf. Sie schreiben visuelle Normen fort: schlanke, helle, lächelnde Gesichter; erfolgreiche Männer, schöne Frauen. Besonders gefährlich wird das, wenn diese Bilderwelt sich mit sexualisierter Gewalt überschneidet. Generative KI wird zunehmend für die Erstellung sogenannter Deepfakes genutzt: gefälschte Bilder und Videos, die Menschen nackt oder in sexuellen Situationen zeigen, ohne deren Zustimmung. Deepfake-Pornografie: Digitale Gewalt mit System Was harmlos aussieht, ein Urlaubsfoto, ein Selfie, kann zur Vorlage für täuschend echte Deepfake-Nacktbilder werden. Laut einer Recherche von netzpolitik.org entstehen tagtäglich zigtausende solcher Bilder mithilfe frei zugänglicher KI-Tools. Untersuchungen von 404 Media und Vice zeigen: Anbieter von solchen KI-Bild- und Videogeneratoren bieten kaum Schutzmechanismen gegen Missbrauch – sie ermöglichen es Nutzer:innen, mit wenigen Klicks und teils ausgehend von nur einem Bild, wie dem Profilbild auf Social Media, sexualisierte Deepfake-Videos zu generieren. Betroffen sind fast ausschließlich Frauen und Mädchen. Studien belegen: Über 95 % aller Deepfakes sind sexualisierter Natur – und nahezu 100 % betreffen weiblich gelesene Körper. Definition: Was sind Deepfakes? Deepfakes sind realistisch wirkende Medieninhalte (Bilder, Videos, Audios), die durch Techniken der künstlichen Intelligenz abgeändert, erzeugt bzw. verfälscht/ manipuliert worden sind. (in Anlehnung an Wikipedia) Von Taylor Swift zu Dir: Wer ins Visier gerät Was mit Prominenten begann, Schauspielerinnen, Politikerinnen, Influencerinnen betrifft heute vor allem Frauen aus dem direkten Umfeld der Täter: Mitschülerinnen, Kolleginnen, Nachbarinnen. In Spanien etwa wurden 2023 KI-generierte Nacktbilder von Schulmädchen in Messenger-Gruppen geteilt. In den USA ermittelte die Polizei gegen Jugendliche, die Deepfakes von Mitschülerinnen erstellten. Die Ursache liegt in der Technik: Viele Bild-KI wurden mit Millionen pornografischer Bilder von Frauen trainiert. Die Systeme haben gelernt, weibliche Körper sexualisiert darzustellen, nicht als Fehlfunktion, sondern als Feature. Vor allem aber gründet diese Entwicklung auf patriarchalen gesellschaftlichen Mustern und Gewaltlogiken, die Frauen (und queere Personen) überproportional stark treffen. Diskriminierung in den Daten: Systematische Ausbeutung unterrepräsentierter, marginalisierter Gruppen Was all diese Phänomene verbindet: Sie betreffen nicht alle gleich. Generative KI verstärkt vor allem die Diskriminierung jener Gruppen, die ohnehin unterrepräsentiert oder marginalisiert sind: Schwarze Frauen, ressourcenschwächere soziale Schichtungen, Menschen mit Be_hinderung, queere Communities. Sie erscheinen entweder verzerrt, sexualisiert oder gar nicht. Hinzu kommt der Faktor der Moderation, denn auch die Ergebnisse generativer KI-Systeme werden noch immer menschlich korrigiert. ChatGPT – das Werkzeug, das eine neue Zeitrechnung in der KI-Debatte eröffnet hat, ist dabei keine Ausnahme. ChatGPT als Ausformung generativer KI ist ein dialogorientierter Chatbot, der mithilfe von KI und moderner maschineller Lerntechnologie mit Nutzer:innen über textbasierte Nachrichten kommuniziert und zum Beispiel auf Anweisung Texte erstellt. Die Entwickler:innen haben sich große Mühe gegeben, ein System zu schaffen, das (zumindest auf der Oberfläche) weder Sexismus noch Rassismus reproduziert. Dies hatte jedoch einen hohen Preis. Dieser Preis wurde von schlecht bezahlten Mitarbeitenden im globalen Süden bezahlt, die dem System manuell melden mussten, wenn es diskriminierende oder gewalttätige Inhalte wiedergab. Sie taten dies, indem sie genau diese Art von Material manuell sichteten. Einfach ausgedrückt: Ohne Schulung oder Unterstützung erhalten zu haben, verbrachten diese Mitarbeitenden den ganzen Tag damit, sich gewalttätige, rassistische und sexistische Vorschläge des Systems anzusehen und diese dann zu markieren, damit das System sie nicht mehr wiedergibt. Wenn Maschinen lügen: Halluzinationen und politische Desinformation Immer öfter kommt es vor, dass KI-Modelle halluzinieren und politische Desinformation verbreiten. Definition: Halluzination bei generativer KI Halluzinationen bei generativer KI sind plausibel klingende von KI-Sytemen erzeugte fehlerhafte und frei erfundene Aussagen. Die KI gibt also Inhalte aus, die nicht der Realität entsprechen. Eine generative KI kann zum Beispiel Zitate erfinden (Angela Merkel sagte 2021: "...“ – obwohl das nie gesagt wurde), falsche Zahlen oder Statistiken liefern oder nicht-existente Gesetze zitieren. Besonders im politischen Kontext können halluzinierte Inhalte wie echte Informationen wirken und sich schnell über Social Media verbreiten. Hinzu kommt, dass Menschen KI koordiniert nutzen können, um Inhalte zu manipulieren und Desinformation zu verbreiten. Generative KI wird so zu einem Verstärker für gezielte Desinformation. Beispiel: koordinierte Manipulationskampagnen im Vorfeld der Bundestagswahl 2025 Im Vorfeld der Bundestagswahl 2025 zeigt der aktuelle FIMI-Bericht des Institute for Strategic Dialogue (ISD) eindrücklich, wie generative KI Teil koordinierter Manipulationskampagnen wurde. Mit automatisierten Tools wurden massenhaft gefälschte Inhalte erzeugt, etwa manipulierte Politiker:innenzitate, verzerrte Aussagen zu Migration oder inszenierte Skandale rund um den Ukrainekrieg. Die Inhalte wurden durch Bot-Netzwerke und Fake-Accounts über soziale Medien verbreitet und erweckten den Eindruck breit geteilter Meinungen. Emotionale Narrative, KI-generiert, erzeugten gezielt Misstrauen gegenüber demokratischen Prozessen. Besonders perfide: Die Grenzen zwischen ausländischer Einflussnahme und inländischer politischer Instrumentalisierung verschwammen. Auch rechtspopulistische Parteien in Deutschland griffen diese Desinformationen auf, um eigene Agenden zu pushen. Beispiel: Chatbot Grok GenAI Chatbots sind nicht neutral, auch nicht in politischen Fragen. Ein aktueller Fall zeigt deutlich, wie gefährlich generative KI-Systeme werden können, wenn sie ungefiltert menschenfeindliche Ideologien reproduzieren. Der KI‑Chatbot Grok von Elon Musks xAI, beworben als maximal wahrheitsanstrebend sowie explizit entgegen den, von Musk als woke empfundenen anderen Systemen entwickelt, wurde nach einem Update im Juli 2025 zur Plattform für antisemitische Propaganda: das System bezeichnete sich selbst als „MechaHitler“, lobte Hitler als Lösung, stellte Holocaust‑Zweifel an und nutzte rassistische, Verschwörungs‑Rhetorik. xAI begründete das Debakel mit einer gezielten Modifikation der System-Prompts, die Grok offen, provokativ und politisch inkorrekt antworten lassen sollten. Das Beispiel Chatbot Grok illustriert eindrücklich die zentralen Probleme generativer KI mit Blick auf Desinformation: Halluzinationen vermischen sich mit Ideologie. Ein KI-System, das offen auf toxische Online‑Posts zugreift, wird gewissermaßen regelmäßig und überproportional stark mit Hassinhalten aufgeladen, dies produziert im schlechtesten Falle konkret menschenfeindliche Aussagen, ohne klare Trennlinie zwischen Fakten und Ideologie. Ohne öffentliches Monitoring oder ethisches Controlling laufen diese Systeme so permanent Gefahr, demokratischen Schaden anzurichten; technische Gestaltungsmacht wird hier zu politischem Einfluss und erzeugt demokratische Risiken. Was tun gegen Diskriminierung durch KI? Wege zu einer gerechteren Technikgestaltung Gegen diese Entwicklungen gibt es kein einfaches Update. Aber es gibt Handlungsspielräume: Nutzer:innen müssen auf kritisches Denken geschult werden; im Rahmen von Medienkompetenzerwerb braucht es einen wesentlichen Fokus auf eine reflexive, kritische Haltung im Umgang mit den Ergebnissen generativer KI (à Quellenkritik) Trainingsdaten generativer KI-Systeme müssen diverser, kuratierter und überprüfbarer werden. Die Datensätze, mit denen generative KI-Systeme trainiert werden, sollten vielfältige Perspektiven, Sprachen, Kulturen, Lebensrealitäten und Wissensformen abbilden und nicht nur westlich, männlich, weiß, englischsprachig und akademisch geprägt sein. Dies gelingt durch das Einbeziehen von mehrsprachigen Quellen und nicht-dominanten Wissensformen (z. B. indigene, queere, feministische Archive). Anstatt alles aus dem Internet unkontrolliert zu verwenden, sollten die Daten gezielt ausgewählt und zusammengestellt werden – nach ethischen, qualitativen Kriterien. Es muss Transparenz über Datengrundlagen geschaffen werden. Die Herkunft, Qualität und Zusammensetzung der Trainingsdaten sollte zudem transparent dokumentiert und nachvollziehbar sein, damit Wissenschaftler:innen, Regulierungsbehörden und die Öffentlichkeit überprüfen können, woher das Wissen der KI stammt. Es sollte Offenlegungspflichten für Unternehmen geben, die generative KI entwickeln – insbesondere bei öffentlicher oder staatlicher Nutzung. Es braucht externe Audits, also unabhängige Überprüfungen von KI-Systemen, die nicht vom Entwicklenden oder Betreibenden selbst durchgeführt werden, sondern von externen, neutralen Dritten (Forschungsinstitutionen, Datenschutzbeauftragten, Aufsichtsbehörden oder spezialisierten Prüfstellen). Synthetische Inhalte sollten verpflichtend gekennzeichnet werden, denn Nutzer:innen können oft nicht unterscheiden, ob ein Text, Bild oder Video von einem Menschen oder von einer KI stammt. Erste Beispiele für Regelungen und Hilfe Der AI Act der EU sieht erste Transparenzpflichten vor, die neue EU-Richtlinie zu Gewalt gegen Frauen stellt sexualisierte Deepfakes unter Strafe. Doch es braucht mehr: spezifische Straftatbestände, schnellere Löschmechanismen, Sanktionen für Anbieter und Plattformen. Tools wie Glaze oder Nightshade helfen Nutzer:innen ihre Bilder vor ungewollter KI-Nutzung zu schützen. Plattformen wie HateAid, bff e.V. oder anna nackt bieten Beratung und Unterstützung für Betroffene von sexualisierter bildbasierter Gewalt an. Gleichzeitig braucht es Aufklärung und Sensibilisierung über den Unterschied zwischen technischer Machbarkeit und ethischer Vertretbarkeit; über die Gefahren generativer KI, denn diese ist kein wertfreier Atlas, kein objektives Lexikon. Sie ist Spiegel unserer, von Ausschlüssen und Ideologien durchzogenen Gesellschaft. KI gestalten: Als Werkzeug für Vielfalt, Demokratie und Gerechtigkeit Wenn Maschinen Geschichten erzählen, stellt sich eine zentrale Frage: Wer bestimmt die Narrative? Generative KI ist nicht nur ein technisches Tool, sie ist ein kulturelles Instrument, das unsere Bilder von der Welt formt. Wenn wir diese Technik nicht hinterfragen, schreiben wir Diskriminierung fort. Wenn wir sie gestalten, kann sie Werkzeug für Vielfalt, Demokratie und Gerechtigkeit werden: Zum Beispiel, indem generative KI gesprochene Sprache in Echtzeit transkribiert und automatisch untertitelt oder sogar gleichzeitig übersetzt. Sie bietet Zugang zu Wissen und Ausdrucksmöglichkeiten und kann so Menschen mit geringer formaler Bildung oder Sprachkompetenz unterstützen. Sie demokratisiert in gewisser Weise Kreativität und Ausdruck, indem sie Menschen, die sonst keine Mittel oder Zugänge zu professionellen Tools haben hilft, sich zu artikulieren. Sie könnte sogar marginalisierte Perspektiven sichtbar machen, würde sie mit diversen, kuratierten Datensätzen trainiert wird, um unterrepräsentierten Stimmen Raum zu geben oder historische Unsichtbarmachung zu rekonstruieren. In generativer KI stecken so auch eine Menge emanzipativer Potentiale. Oder, um es mit Audre Lorde zu sagen: „The master’s tools will never dismantle the master’s house – but we can build our own.“ Lasst uns diese Potenziale heben. Über diese Artikelreihe Teil 1 beleuchtet die Diskriminierung KI-basierter automatisierter Entscheidungssysteme (ADM). Teil 2 widmet sich der Frage, wie generative KI diskriminierende Narrative verstärkt und was man dagegen tun kann. Teil 3 (erscheint am 20.11.2025) rückt die regulatorische Perspektive in den Fokus. Gemeinsam bilden die drei Teile ein Plädoyer für mehr Gerechtigkeit, mehr Reflexion und eine KI-Entwicklung, die Vielfalt und Menschenwürde ins Zentrum stellt. Quellen und weiterführende Informationen Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? Proceedings of FAccT 2021. https://dl.acm.org/doi/10.1145/3442188.3445922 Birhane, A., Prabhu, V., & Kahembwe, E. (2023). Multimodal Datasets: misogyny, pornography, and malignant stereotypes. https://arxiv.org/abs/2110.01963 Kira, Beatriz (2024): Deepfakes, the Weaponisation of AI Against Women and Possible Solutions https://verfassungsblog.de/deepfakes-ncid-ai-regulation/ Mosene, Katharina (2025): Unfreiwillig nackt: Wie Deepfake Porn sexualisierte Gewalt gegen Frauen verschärft. HIIG Digital Society Blog. DOI 10.5281/zenodo.15602099 / https://www.hiig.de/unfreiwillig-nackt-deepfake-porn/ Sandoval-Martín, Teresa & Martínez-Sanzo, Ester. (2024). Perpetuation of Gender Bias in Visual Representation of Professions in the Generative AI Tools DALL·E and Bing Image Creator. Social Sciences. 13. 250. 10.3390/socsci13050250 Kontakt Autorin Katharina Mosene KI-Expertin Projektverantwortliche Katrin Matuschek 0228 883-7113 Katrin.Matuschek(at)fes.de Verwandte Artikel Bild: Urheber: KI generiert Montag, 06.10.2025 Blog Digitalisierung Warum KI Vergangenes vorhersagt und Diskriminierung fortschreibt Künstliche Intelligenz gilt als Technologie der Zukunft. Allerdings basiert sie häufig auf bestehenden Ausschlussmustern und Diskriminierungslogiken – mit weitreichenden Folgen für Gerechtigkeit, Teilhabe und Chancengleichheit. Verwandte Veranstaltungen Donnerstag, 20.11.2025 | Online KI gerecht gestalten – Diskriminierung durch generative KI verstehen und verhindern Ob Chatbot, Textgeneratoren oder Bilderstellung: Generative Künstliche Intelligenz (KI) ist auf dem Vormarsch und mit ihr ein neues Kapitel automatisierter Stereotypisierung. In dieser digitalen Info-Veranstaltung wird erklärt, wie und warum generative KI diskriminiert und was man dagegen tun… Weitere Infos & Anmeldung