Diese Webseite verwendet Cookies
Diese Cookies sind notwendig
Daten zur Verbesserung der Webseite durch Tracking (Matomo).
Das sind Cookies die von externen Seiten und Diensten kommen z.B. von Youtube oder Vimeo.
Geben Sie hier Ihren Nutzernamen oder Ihre E-Mail-Adresse sowie Ihr Passwort ein, um sich auf der Website anzumelden.
Zur Verlagsseite
Kurzgefasst und eingeordnet von Viktoria Peter. Viktoria Peter hat Translation, Kulturwissenschaften und Interkulturelle Europa-Studien in Leipzig, Regensburg und Madrid studiert. Sie arbeitet als Übersetzerin und politische Bildnerin.
Künstliche Intelligenz (abgekürzt: „KI“) darf nicht verharmlost werden. KI ist weder nur ein weiterer Schritt in der Digitalisierung des Alltags noch lediglich eine besonders effiziente Software in einer körperlosen Cloud. KI hat starke negative Auswirkungen auf die physische und soziale Welt. Ressourcen wie Gestein, Lithium-Sole und Erdöl müssen in großem Maße abgebaut werden, und die Modelle, auf deren Basis KI Entscheidungen trifft, beruhen auf einer Klassifizierung von Daten, die keineswegs einer objektiven Logik folgt, sondern problematische Hierarchien festigt und bestehende Ungleichheiten verschärft. Angesichts dieser Verzerrungen kann KI nicht als neutrale Technologie gesehen werden. Die mit ihrer Nutzung verbundenen Probleme lassen sich nicht durch weitere technische Innovationen lösen. Die Gefahren für Privatsphäre, Menschenrechte, Natur und Arbeitswelt sind dabei weit größer als die oft gefürchtete Entwicklung einer künstlichen Superintelligenz.
KI zerstört die Umwelt und fördert soziale Ungerechtigkeit. Diese Ausbeutungsverhältnisse dürfen nicht hingenommen werden. Progressive Akteur_innen müssen eine Regulierung der KI-Technologie vorantreiben, die den Energie- und Ressourcenverbrauch sowie den Datenhunger von KI begrenzt. Angesichts der Dominanz US-amerikanischer Tech-Unternehmen muss die Europäische Union für europäische Werte einstehen und dem Einsatz von KI Grenzen setzen. Der AI Act der EU ist ein erster wichtiger Schritt in diese Richtung, doch er muss durch eine wertegeleitete Umsetzung in nationales Recht und eine internationale Weiterentwicklung ergänzt werden, die Bürgerrechte und soziale Gerechtigkeit schützt und die Länder des Globalen Südens einbezieht.
Kate Crawford ist Professorin an der University of Southern California in Los Angeles und Forschungsleiterin bei Microsoft Research in New York. Sie war die erste Gastprofessorin für KI und Justiz an der École Normale Supérieure in Paris.
Der Begriff der künstlichen Intelligenz beruht auf einem falschen Verständnis von Intelligenz. Intelligenz lässt sich nicht von der materiellen Welt trennen. Sie existiert nicht losgelöst von, sondern entsteht aus dem Zusammenspiel gesellschaftlicher, kultureller, historischer und politischer Kräfteverhältnisse. Die Vorstellung, Intelligenz sei unabhängig von diesen Zusammenhängen reproduzierbar bzw. künstlich nachbaubar, ist falsch. KI-Systeme werden zwar auf der Basis von rechercheintensivem Datenmaterial anhand von vorgegebenen Regeln und Belohnungssystemen trainiert, um so den Anschein von Intelligenz zu erwecken. Sie nehmen aber nichts wahr, treffen keine rationalen Entscheidungen und handeln nicht autonom. Entgegen ihrer Bezeichnung ist KI also nicht wirklich intelligent.
Der Philosoph Hubert Dreyfus beschrieb bereits 1972 in „Was Computer nicht können“ einen der zentralen Unterschiede zwischen menschlicher und maschineller Intelligenz: Menschliches Denken und Verstehen beruht auf unbewussten und intuitiven Prozessen. Computer hingegen benötigen für ihr Funktionieren das explizite Ausformulieren und Formalisieren von allen beteiligten Prozessen und Daten. Was nicht in diese Muster passt, können Menschen erfassen, Computer jedoch nur abstrahieren, verkürzen oder ausblenden.
KI basiert auf bestehenden politischen und sozialen Strukturen. Ihre Entwicklung erfordert Kapital und folgt den herrschenden Interessen. KI ist ein Werkzeug der Machtausübung und politisch: Sie kartiert die Welt neu und greift in sie ein. Daher muss gefragt werden: Was wird optimiert? Wessen Interessen stehen im Vordergrund? Wer trägt die Risiken? Und wer entscheidet darüber?
Die Geschichte des Bergbaus ist eine Geschichte des strategischen Vergessens, das die Erzählung vom technischen Fortschritt begleitet. Um den Bergbau als profitabel darstellen zu können, wurden und werden Umweltschäden, Krankheiten und der Tod von Bergleuten sowie die Vertreibung, Zwangsenteignung und der Heimatverlust von Gemeinden ausgeblendet. Schon 1555 stellte der Vater der Mineralogie, Georgius Agricola, fest, es sei „vor aller Augen klar, daß bei dem Schürfen mehr Schaden entsteht, als in den Erzen, die durch den Bergbau gewonnen werden, Nutzen liegt“.
Künstliche Intelligenz folgt heute einem ähnlichen Muster. „Handle schnell und mache Sachen kaputt“ ist ein geflügeltes Wort bei Facebook und den anderen Firmen im Silicon Valley. Der Verbrauch von seltenen Erden, Mineralien, Öl und Kohle im Technologie-Sektor ist enorm. Er befördert bewaffnete Konflikte, verursacht weltweit Umweltschäden, führt zur Vertreibung und zum Tod Tausender und erhält Strukturen moderner Sklaverei im Bergbau aufrecht, etwa im Kongo. Die Cloud, auf der die gesamte KI-Branche basiert, ist nicht körperlos, sondern besteht aus Gestein, Lithium-Sole und Erdöl. KI ist auf bereits gelegte und finanzierte Unterseekabel und Übertragungsfrequenzen angewiesen, ihre Datenzentren werden mit knappem Wasser gekühlt und mit Strom aus meist nicht erneuerbaren Quellen betrieben. Die Kosten des steigenden Ressourcen- und Energieverbrauchs und des Beitrags zum Klimawandel durch ihren CO2-Ausstoß tragen jedoch nicht die Tech-Unternehmen, sondern die Folgegenerationen.
In der Debatte über die Folgen von Digitalisierung und KI für die Arbeitswelt dominiert oft die Angst, Roboter könnten Menschen ersetzen. Doch für die meisten Arbeitnehmer_innen wirkt sich KI in anderer Weise aus: Sie werden nicht durch Roboter ersetzt, sondern mehr und mehr wie Roboter behandelt. Arbeitgeber_innen überwachen ihre Leistungen, ihre Geschwindigkeit und ihre Aufenthaltsorte oder unterziehen sie algorithmischen Leistungsprüfungen. Im Geiste von Effizienzdenken, Automatisierung und Überwachung werden die Beschäftigten entmenschlicht. Der Verschleiß ihrer Körper wird dabei ebenfalls in Kauf genommen. Als Beispiel nennt Crawford ein Amazon-Logistikcenter, in dem viele Arbeiter_innen Bandagen und Stützverbände tragen und in dem in regelmäßigen Abständen Verkaufsautomaten mit Schmerzmitteln bereitstehen. In der Automatisierung des Arbeitsalltags ist daher keine Weiterentwicklung von Arbeit zu sehen, sondern eine Wiederkehr von Ausbeutungspraktiken, wie sie aus der Industriearbeit um 1900 bekannt sind. Die mechanische Stoppuhr, mit der Henry Ford die Produktivität seiner Arbeiter_innen kontrollierte, ist heute eine elektronische Stechuhr oder ein Algorithmus, der Schichten so zuteilt, dass der Unternehmensgewinn steigt.
KI-Systeme funktionieren nur dank menschlicher Arbeit. Diese wird im Hintergrund und somit oft unsichtbar verrichtet und deshalb auch als „Geisterarbeit“ bezeichnet. Ohne Menschen, die stundenlang Trainingsdaten labeln oder verdächtige oder schädliche Inhalte prüfen und moderieren, lassen sich KI-Systeme weder aufbauen noch pflegen. Solche repetitiven, digitalen Mikroaufgaben werden weltweit ausgeführt und meist nur mit wenigen Cents entlohnt. In extremen Fällen, etwa beim KI-Assistenten „Amy“ der Firma xAI, täuschte man mit menschlicher Arbeit sogar künstliche Intelligenz vor – ein Phänomen, das als „Fauxtomation“ bezeichnet werden kann.
Damit KI-Modelle rational und autonom erscheinende Entscheidungen treffen können, müssen sie mit riesigen Datensätzen trainiert werden. Diese Datensätze gelten zunehmend als neutrale Infrastruktur, nicht als potenziell verzerrtes oder privates Material, für dessen Nutzung Einverständniserklärungen nötig wären. Das untergräbt Datenschutzprinzipien und fördert den Überwachungskapitalismus. In diesem Zusammenhang stellen sich ethische, methodologische und erkenntnistheoretische Fragen. Welche konkreten Probleme sich hieraus ergeben, verdeutlicht Crawford an „NIST Special Data Base 32 – Multiple Encounter Dataset“, einem der größten Datensätze zum Training von Gesichtserkennung, der auf Polizeifotos von Menschen kurz nach ihrer Verhaftung basiert. Die Bilder zeigen Menschen in einer emotionalen Ausnahmesituation. Jedes Bild erzählt eine persönliche Geschichte und repräsentiert strukturelle Ungleichheit bzw. systemische Ungerechtigkeit im Polizei- und Gefängnissystem. Anwendung sollen die mit diesen Daten trainierten KI-Gesichtserkennungssysteme allerdings im Alltag finden. Das Problem hierbei ist, dass KI-Systeme, die mit solchen Daten trainiert werden, bestehende Vorurteile übernehmen und verstärken. Dazu zählen rassistische Zuschreibungen und die Reduktion auf ein binäres Geschlechtermodell. Das kann zu fragwürdigen Bewertungen führen, etwa bei der Einschätzung der Kreditwürdigkeit von Personen.
Auch die Emotionserkennung entwickelt sich zu einem lukrativen Geschäft und beeinflusst zunehmend Personalwesen, Bildung und Polizeiarbeit. Bewerber_innen sollen anhand ihrer Gesichtszüge auf Ehrlichkeit oder Leidenschaft geprüft und Verdächtige durch vermeintliche Mikroexpressionen überführt werden können. Die Emotionserkennung beruht allerdings auf der zweifelhaften Annahme, dass es universelle Gefühlszustände gibt, die sich aus der Mimik ablesen lassen.
Die Klassifizierung von Daten wird immer unvollständig und widersprüchlich bleiben und bedeutsame Zusammenhänge zugunsten einer besseren Berechenbarkeit der Welt aufbrechen. Technische Schablonen zwingen die unendliche Vielfalt menschlicher Subjektivität in starre Hierarchien und verschärfen bestehende Ungleichheiten. An Universitäten fehlen oft ethische Prüfprozesse für KI-Forschung, was die Sensibilität für Daten und ihre Klassifizierung mindert. Zudem führt die massenhafte Sammlung frei verfügbarer Internetdaten zu einer problematischen Kommerzialisierung: Ein Gemeingut wird privatisiert, der Profit landet bei wenigen Unternehmen, während ein gesellschaftlicher Nutzen oft ausbleibt.
Die Entwicklung von KI-Systemen wurde ursprünglich von Staatsorganen wie Geheimdiensten, dem Militär und der Polizei finanziert und entsprechend nach ihren Vorstellungen gestaltet. Heute werden KI-Systeme vermehrt von profitorientierten Unternehmen angeboten und kommen in Klassenzimmern, Büros und Verwaltungen zum Einsatz. Der Einsatz solcher Systeme, etwa in der Verwaltung von Sozialwohnungen gegen Mieter_innen oder zur Bewertung von Geflüchteten im Namen der Terrorabwehr, zeigt, wie leicht KI missbraucht werden kann. Systeme, die einst für den globalen Anti-Terror-Kampf entwickelt wurden, richten sich nun gegen Zivilist_innen. Dies führt zu einer beispiellosen Datenextraktion und Überwachung durch privatwirtschaftliche Akteure ohne demokratische Legitimation.
KI-Systeme klassifizieren die Welt und beeinflussen die Wirklichkeit zugunsten der Staaten, Institutionen und Unternehmen, die sie geschaffen haben. Sie verkörpern Macht sowie ökonomische und politische Interessen, zielen auf Profitsteigerung und vereinfachen Kontrolle. Das Schüren der Angst vor einer übermenschlichen KI, die die Weltherrschaft anstrebt, dient der Verschleierung dieser Interessen und verhindert eine informierte, kritische öffentliche Debatte oder gar die Ablehnung der Technologie. Sowohl das Schreckgespenst der KI-Weltherrschaft als auch die gegensätzliche Vorstellung von KI als Allheilmittel für alle Krisen der Menschheit von Krebs bis Klima blenden aus, dass die Trainingsdatensätze auf epistemischer Gewalt basieren und viele Menschen weltweit bereits jetzt durch KI-Datensysteme diskriminiert und ausgebeutet werden.
Künstliche Intelligenz ist eine extraktive Industrie: Sie beutet Energie- und Rohstoffvorkommen des Planeten aus, nutzt billige Arbeitskräfte und sammelt massenhaft Daten. Sie dient als Machtinstrument und muss auch so begriffen werden. Ethikprinzipien und Absichtserklärungen dürfen nicht bei freiwilligen Selbstverpflichtungen der Unternehmen enden. Sie müssen in durchsetzbare und kontrollierbare Regulierungen münden, die nicht nur die Ziele und Zwecke beleuchten, die mit dem Einsatz von KI verfolgt werden, sondern auch die Methoden und Daten, auf denen die Entscheidungen von KI basieren. Datenschutz, Arbeitnehmer_innenrechte, Klimagerechtigkeit, Antirassismus und Gleichberechtigung müssen gemeinsam eingefordert werden, damit KI anders gedacht wird und nicht länger den Interessen der Mächtigen dient.
Die Lektüre von Crawfords Buch lohnt sich für alle, die die Hintergründe des Trendthemas „KI“ verstehen wollen. Die Autorin beleuchtet die philosophischen, historischen, technischen und praktischen Grundlagen von KI-Systemen und der wissenschaftlichen Disziplin, die ihre Entwicklung vorantreibt. Überzeugend zeigt sie, dass KI-Modelle aufgrund der Verzerrungen in ihren Ergebnissen keine neutrale Technologie sind und dass ihre problematischen Auswirkungen auf Soziales und die Umwelt nicht allein durch technische Innovationen lösbar sind. Crawfords Forderung nach politischer Regulierung, demokratischer Kontrolle und der Einbindung der von Vorurteilen, Diskriminierung und Ausbeutung Betroffenen kann man sich nur anschließen. Das englische Original erschien bereits 2021 – die Übersetzung ins Deutsche folgte 2024 und traf genau den richtigen Moment, um diese Perspektive in die Debatte um KI-Regulierung einzubringen.
Verlag: C.H.BeckErschienen: 21.08.2024Seiten: 366ISBN: 978-3-406-82333-6