KI: Immer größer, statt grüner?

Konferenzbericht

KI: Immer größer, statt grüner? Das war die Frage, der wir im Rahmen unserer eintägigen Konferenz am 29.01.2024 mit Blick auf aktuelle Entwicklungen rund um komplexe KI-Modelle und deren Nachhaltigkeit nachgegangen sind.

Die Teilnehmenden der Konferenz sitzen in einem Stuhlkreis in einem Raum mit großen Fenstern.

In Keynotes, Streitgesprächen, interaktiven Sessions und Impulsen haben über 150 Teilnehmende sowie Speaker*innen aus Politik, Wirtschaft, Wissenschaft und Zivilgesellschaft miteinander diskutiert und an konkreten Lösungsansätzen gearbeitet. Moderiert wurde die Veranstaltung von Yolanda Rother, The Impact Company, und Vérane Meyer, Heinrich-Böll-Stiftung.

Fortschritt, aber nicht um jeden Preis

Stiftungsvorstand Jan-Philipp Albrecht wies gleich zu Beginn auf die vielfältigen Herausforderungen mit Blick auf die Nachhaltigkeit von KI-Systemen hin. Die Innovationszyklen werden kürzer, die Innovationssprünge größer und die Systeme betreffen immer mehr Lebens- und Arbeitsbereiche. Deshalb sei es dringend geboten, dass wir uns als Gesellschaft nicht nur Gedanken über die ökologischen, sondern auch die ökonomischen, sozialen und kulturellen Auswirkungen dieser Systeme machen. KI könne einen wichtigen Beitrag zum Klimaschutz leisten, so Albrecht. Gleichzeitig müsse man den enormen Energieverbrauch komplexer KI-Modelle im Blick behalten. Gleiches gelte für die Marktmacht großer KI-Anbieter. Eine Marktkonzentration bei einigen wenigen Akteuren sei zu vermeiden. Nicht zuletzt müsse man sich auch fragen, welche Standards wir für die menschliche Arbeit ansetzen wollen, die für das Training großer Modelle nötig ist und die oft unter schlechten Bedingungen in Ländern mit niedrigen Löhnen stattfindet.    

Staatssekretär Christian Kühn vom Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) ergänzte in seiner Keynote zur politischen Relevanz komplexer KI-Modelle, dass nicht jeder Fortschritt zugleich auch ein umweltpolitischer Fortschritt sei. Es sei daher immer wichtig zu hinterfragen, wie sich die digitale Transformation und die Transformation hin zu einer nachhaltigen Wirtschaftsweise gegenseitig befruchten können.

Dazu gab Kühn drei Impulse:

  1. Ressourcenverbrauch kritisch beobachten: Basismodelle benötigen immer mehr Hardware und verbrauchen immer mehr Ressourcen, wie Strom und Wasser - nicht nur für das Training und die Entwicklung, sondern auch bei der Nutzung der Modelle. Die entstehenden Reboundeffekte müssen verhindert werden, damit wir unsere Nachhaltigkeitsziele erreichen.
  2. Komplexe KI-Systeme umweltpolitisch einordnen: Hier geht es laut Kühn vor allem darum, die Umweltbilanz über den gesamten Lebenszyklus der KI-Modelle zu betrachten. Die Modelle müssen transparenter und Daten zur Nachhaltigkeit strukturierter gesammelt werden. Ein Ziel dabei müsse sein, dass Verbraucher*innen erfahren können, ob ein KI-System nachhaltig ist.
  3. Nachhaltigkeit und Ressourcenverbrauch in den Mittelpunkt der Regulierung stellen: Hier schlägt Kühn vor, etwa mit verbindlichen Transparenzvorgaben, die auf europäischer Ebene Standards setzen, zu arbeiten. Die KI-Verordnung der EU sei hier ein Schritt in die richtige Richtung. Hier sei laut Kühn wichtig zu klären, wie die Zivilgesellschaft eingebunden werden kann, um KI-Technologien so zu gestalten und zu nutzen, dass wir den nachfolgenden Generationen einen lebenswerten Planeten übergeben.

Aufpassen, dass die Kosten nicht den Nutzen übersteigen

Im anschließenden Bühnengespräch mit Yolanda Rother betonten Kühn und Albrecht die Ambivalenz von KI-Systemen im Zusammenhang mit Nachhaltigkeit. Kühn hob mögliche Potenziale in sehr konkreten Anwendungsbereichen, wie z. B. der Steuerung von Kläranlagen hervor. Gleichzeitig warnte er davor, dass Verbräuche deutlich steigen können, wenn KI-Basismodelle immer häufiger in Bereichen genutzt werden, in denen ihr Einsatz nicht unbedingt nötig ist. Albrecht hob die Potentiale von KI in der Energieversorgung und im öffentlichen Verkehr hervor, betonte aber auch, dass ein hoher Energieverbrauch von Basismodellen deren Gesamtnutzen am Ende auch aufheben kann.

Die nötigen Daten, um die Nachhaltigkeit großer KI-Modelle beurteilen zu können, müssen laut Kühn durch mehr Transparenz seitens großer Technologiekonzerne und verstärkter Forschung aufgefangen werden. Regulierung, so Kühn, sei vor allem wichtig um Transparenz herzustellen und um es Verbraucher*innen zu ermöglichen mündige Entscheidungen zu treffen, wenn sie KI-Systeme nutzen. Albrecht hob hervor, dass KI-Systeme auch jetzt schon nicht völlig unreguliert sind, aber dass besonders leistungsfähige KI-Systeme neue Regulierungsansätze notwendig machen. Zudem brauche es Watchdogs, wie etwa Verbraucher*innenschutzorganisationen oder Gerichte, um Regulierungen tatsächlich effektiv durchzusetzen.

Auch bei KI gilt die Frage: In welcher Welt wollen wir leben?

Prof. Dr. Natali Helberger wagte in ihrer Keynote „Was haben Basismodelle mit Nachhaltigkeit und dem AI-Act zu tun?“ einen Rundumblick auf die verschiedenen Nachhaltigkeitsdimensionen von KI-Systemen. Bei allen Überlegungen müsse, so Helberger, immer die Frage im Zentrum stehen: In welcher Welt wollen wir leben?  
Menschen würden durch den Einsatz von KI-Systemen unter anderem den Verlust von Arbeitsplätzen, aber auch von Kreativität und Menschlichkeit fürchten. Gleichzeitig blickten sie mit Sorge auf den Einfluss von KI, auf die Macht von Institutionen, wie die Justiz oder die Medien. Künstlich generierte Inhalte könnten künftig zunehmend mit journalistischen oder anderen rein menschlich produzierten Inhalten um die Aufmerksamkeit der Nutzer*innen konkurrieren, so Helberger. Große Anteile der Inhalte im Web könnten bald synthetisch, also mithilfe von KI-Systemen hergestellt, sein. Man müsse daher aufpassen, dass Menschen nicht ihr Vertrauen in die Medien und deren Inhalte verlieren. Nicht zu vergessen, so Helberger, ist außerdem, dass wir selbst mit unseren Inhalten, die wir im Netz teilen, zum Training großer KI-Modelle beitragen. Fragen möglicher Urheberrechtsverletzungen seien bisweilen noch nicht geklärt.

Mit Blick auf die KI-Verordnung betonte Helberger, dass es nicht einfach sei die komplexen Lieferketten, die  für das Training von KI-Modellen erforderlich sind, angemessen zu regulieren. Das Spannende am AI-Act sei daher, dass er auch für nichteuropäische Unternehmen gelten soll, die ihre Systeme in der EU anbieten wollen. Was die KI-Verordnung laut Helberger allerdings versäumt, ist den ökologischen Fußabdruck von KI-Systemen transparent zu machen. Der Ansatz habe sich hier im Laufe der Verhandlungen von einer Verpflichtung zu einem „nice-to-have“ entwickelt.

KI für mehr Nachhaltigkeit oder nachhaltige KI?

Am Ende war man sich zumindest dem Grunde nach einig: Nachhaltigkeit durch KI ist möglich – setzt aber nachhaltige KI-Systeme voraus. Im von Yolanda Rother moderierten Streitgespräch zwischen David Koch, Fraunhofer IPA, und Friederike Rohde, Institut für ökologische Wirtschaftsforschung, wurden jedoch auch die ungeklärten Fragen deutlich: Genügen die Aussicht auf Effizienzsteigerungen in unterschiedlichen Wirtschaftsbereichen und beim Einsatz von KI-Systemen an sich, um mit Blick auf „Nachhaltige KI“ optimistisch zu sein? Oder bestärkt diese Diskussion nur Wachstumsparadigmen, die einer nachhaltigen Transformation eher im Weg stehen? Letztlich blieb die Diskussion eng mit der Nachhaltigkeit von digitaler Infrastruktur insgesamt verknüpft, und endete in der noch unbeantworteten Frage: Wie schaffen wir es, dass potenziell nützliche KI-Systeme tatsächlich dort zum Einsatz kommen, wo sie einen besonders großen Einfluss auf das Erreichen der Nachhaltigkeitsziele entfalten können?    

Den ökologischen Fußabdruck von Basismodellen messen

Im Fokus des Vortrags von Prof. Dr. Lynn Kaack, Hertie School, stand die detaillierte Darstellung und Berechnung des Ressourcen- und Emissionsverbrauchs von Basismodellen, insbesondere im Kontext von Deep Learning. Die enorme Komplexität dieser Modelle, mit Milliarden von Parametern bei großen Modellen wie etwa ChatGPT, erfordere massive Datenmengen und Rechenleistung, was zu einem erheblichen Stromverbrauch führt. Die Herausforderung bestehe vor allem darin, die Effekte insgesamt zu quantifizieren, was u. a. aufgrund fehlender Daten schwierig ist. OpenAI veröffentliche etwa keine Angaben zur Anzahl weltweiter Anfragen an ChatGPT. Trotz einiger Ansätze zur Verbrauchsberechnung fehle bisher ein Rahmen zur umfassenden Quantifizierung dieser Effekte. Der ökologische Fußabdruck von Basismodellen sei deshalb bisher wenig systematisch erforscht und während es vielversprechende Anwendungen und Prototypen gebe, stecke die Breitenanwendung noch in den Anfängen. Kaack betonte, dass KI kein Allheilmittel sei und oft nur kleine analytische Komponenten verbessere. Wichtige Fragen zur Nutzen- und Kostenseite sowie institutionellen Auswirkungen müssten noch erprobt und diskutiert werden. In ihrem Ausblick unterstrich sie den Trend hin zu immer größeren Transformer-Modellen und betonte, dass ein funktionierender CO2-Preis sowie zu hohe Kosten die Entwicklung komplexer Modelle möglicherweise künftig einschränken könnten.

Welche Kriterien brauchen wir für nachhaltige KI?

Friederike Rohde, Institut für ökologische Wirtschaftsforschung, und Dr. Anne Mollen, AlgorithmWatch und Universität Münster, näherten sich dem Thema Nachhaltigkeit mit den Teilnehmenden ihres interaktiven Forums mit Fragen zu drei konkreten Aspekten: Policy, Kriterien und Selbstbestimmung.

Um ein breites Nachhaltigkeitsverständnis in KI-Organisationen zu implementieren, wurde die Bedeutung zweier Ansätze betont: Wichtig sei zum einen ein Top-Down-Ansatz durch Regulierung, der beispielsweise die Integration nachhaltiger KI-Kriterien in Normungs- und Vergabeprozesse für öffentliche Stellen umfasst. Zum anderen wurde auch die Bedeutung eines Bottom-Up-Ansatzes mit Fokus auf Wissensaufbau und -vermittlung betont. Die Diskussion zur Verantwortlichkeit von Anbietern großer Sprachmodelle für ihre Nachhaltigkeitswirkungen hob die Rolle von Standards und Standardisierung hervor. Effektive zivilgesellschaftliche Beteiligung in diesen Prozessen wurde als entscheidend erachtet. Die Gruppenarbeit zu Selbstbestimmung und Machtverhältnissen bei der Nutzung großer Sprachmodelle brachte die Idee gemeinwohlorientierter KI zur Sprache, wobei staatliche Organisationen sicherstellen müssten, am Gemeinwohl und nicht am Gewinn orientiert zu sein. Die Diskussion betonte auch die Notwendigkeit der Dezentralisierung von KI als Mittel, um Macht zu begrenzen, wobei konkrete Ansätze hierfür noch fehlten.

Die sozialen Kosten mitdenken

Unter dem Titel „Die im Dunkeln sieht man nicht“ hob Julia Kloiber, SuperrrLab, in ihrem Vortrag die Rolle menschlicher Arbeit bei der KI-Entwicklung hervor. Diese sei nicht nur teuer, sondern funktioniere nicht ohne Menschen. Kloiber betonte die prekären Bedingungen, unter denen sogenannte Clickworker*innen KI-Systeme trainieren bzw. optimieren. Diese für die Entwicklung von komplexen KI-Modellen notwendige Arbeit finde meist in Ländern des globalen Südens wie z. B. Kenia statt und werde mit niedrigen Gehältern, etwa $1,80 pro Stunde entlohnt. Zusätzlich erleben die Arbeiter*innen massive psychische und physische Belastungen, so Kloiber. Sie müssten stunden- und tagelang unter enormem Zeitdruck und unter der Überwachung der Arbeitgeber gewalttätige Inhalte sichten. Das sei nachhaltig traumatisierend. Dabei würden die Arbeiter*innen häufig mithilfe irreführender Stellenbeschreibungen in solche Arbeitsverhältnisse gelockt. Zu Beginn wüssten sie meist nicht, was sie erwartet. Kloiber stellt heraus, dass der Widerstand unter den Arbeiter*innen langsam wächst und dass es erste Gründungen von Betriebsräten gibt. Bislang seien das jedoch keine übergreifenden Bewegungen. Aufgrund des enormen Machtgefälles zwischen den Technikunternehmen und den Arbeiter*innen bzw. der Zivilgesellschaft seien breitere Widerstände auch schwierig umsetzbar. Zum Schluss stellte Kloiber in Aussicht, dass sich das SuperrrLab als nächstes die Lieferkettengesetzgebung genauer ansieht. Sie würden prüfen, ob sich hier ein Ansatz finden lässt, um die Arbeitsbedingungen zu verbessern. Anders als etwa im Bereich der Textilindustrie, gebe es für die Lieferketten im Zusammenhang mit KI wenig Bewusstsein.

Diskriminierungen begegnen

Im interaktiven Forum zu KI und Diskriminierug verdeutlichten Merlin Münch und Jaana Müller-Brehm, iRights.Lab, dass soziale und kulturelle Kriterien zu einem umfassenden Nachhaltigkeitsverständnis gehören. Sie hoben hervor, dass Diskriminierungen, die im Zusammenhang mit Foundation Models stehen, besondere Auswirkungen haben, weil viele verschiedene KI-Anwendungen auf demselben Basismodell aufbauen können. Wenn es also im Zusammenhang mit einem Basismodell zu Diskriminierungen käme, entfalte das eine besonders große Tragweite. Zugleich sei es schwieriger, bestehende Begegnungsansätze mit KI-vermittelten Diskriminierungen auf Foundation Models zu übertragen. Um gemeinsam mit den Teilnehmer*innen über neue Begegnungsideen zu diskutieren, brachten Münch und Müller-Brehm verschiedene Fallbeispiele mit. Zwei Technikjournalistinnen testeten KI-Bildgeneratoren mit hunderten Fotos von sich, um Avatare bzw. digitale Porträts zu erzeugen. Die Ergebnisse waren stark sexualisiert und teilweise pornografisch. Die Fotos, aus denen sie abgeleitet wurden, waren das allerdings nicht. Eine Studie von Forscher*innen des Indian Institute of Science ergab, dass zwei weit verbreitete Bildgeneratoren in ihren Ergebnissen am häufigsten US-amerikanische Szenen darstellten. Nutzer*innen aus anderen Teilen der Welt fühlten sie dadurch nicht repräsentiert.

Der österreichische Arbeitsmarktservice setzt einen bekannten Chatbot ein, passt ihn scheinbar für seine Zwecke an, prüft ihn aber nicht ausreichend. Im Ergebnis führt das z. B. zur Empfehlung, dass Frauen Gender Studies studieren und Männer in die IT gehen sollen.

Die Gruppen entwickelten folgende Lösungsansätze:

  • Die Kontextabhängigkeit von KI-Systemen anerkennen und den Gedanken hinter sich lassen, dass es Allzweck-KI-Modelle geben kann, die einen universellen Geltungsanspruch haben.
  • Die Datenqualität der Trainingsdaten stärker prüfen, sofern das möglich ist.
  • Umfangreichere Prüfungen in den tatsächlichen Einsatzszenarien durchführen und die Anwendungen dementsprechend anpassen.
  • Vielfältigere Datengrundlagen schaffen und die Entwickler*innenteams diverser aufstellen – auch in einem globalen Zusammenhang.

Hohe Hürden für den Markteintritt

Pegah Maham, Stiftung Neue Verantwortung, ging in ihrem Vortrag darauf ein, wie komplexe KI-Modelle den Markt verändern. Dabei hob sie drei zentrale Fragen hervor:

Warum ist der Markteintritt schwierig?

Für das Training von Foundation Models seien enorme Datenmengen und sehr viel Rechenkapazität notwendig. Zugleich erfordere die Umsetzung spezifische Kompetenzen und Qualifikationen. Diese Voraussetzungen, so Maham, ist nicht allen KI-Unternehmen gleichermaßen gegeben. Vielmehr sei der Markteintritt deshalb nur für einen sehr geringen Teil der Marktteilnehmer möglich.

Welche Anwendungsbereiche gibt es für Foundation Models?

Maham hob hervor, dass im Zusammenhang mit der Anwendung hauptsächlich zwei Perspektiven zu finden seien: Die eine konzentriere sich auf die Möglichkeiten, die mit komplexen KI-Systemen einhergehen, wie etwa einzelne Arbeitsschritte in Unternehmen zu automatisieren. Die zweite Perspektive sei von einem eher grundsätzlichen KI-Hype geprägt. Aus Akteurssicht stünden sich zwei zentrale Player gegenüber: die Open Source Community und die großen Techunternehmen. Insgesamt sei eine Marktzentralisierung zu erkennen, die genau beobachtet werden müsse.

Was ist bei Modell-Veröffentlichungen zu beachten?

Große Techkonzerne konzentrierten sich beim Release ihrer Modelle auf verschiedene Ansätze: Open AI ermögliche mittlerweile beispielsweise Zugriff auf ihre Modelle über eine Protokollschnittstelle (API). Das ermögliche ein individuelles Feintuning des Modells. Zugleich werde die Kontrolle nicht komplett aus der Hand gegeben. Denn bestimmte Formen der Anpassung könnten im Zweifel kontrolliert bzw. gestoppt werden. Im Gegensatz dazu stelle das Unternehmen Meta das Modell an sich zur Verfügung. Laut Maham bedeutet das zwar mehr Freiheiten für Entwickler*innen, jedoch auch, dass weniger Kontrolle über Anpassungen möglich ist. Zugleich bestünde in beiden Fällen keine umfassende Transparenz – beispielsweise darüber, auf welcher Datengrundlage die Modelle trainiert wurden.
Laut Maham sei es ein Problem, wenn sich der Markt künftig weiterhin auf Modelle konzentriert, die immer mehr Rechenleistung und finanzielle Ressourcen in Anspruch nehmen. Hier sei dann ein Ansatz auf politischer Ebene notwendig, beispielsweise mit Initiativfinanzierungen oder Rechenzentren, die zur Verfügung gestellt werden.

Fragen für eine nachhaltige digitale Infrastruktur

Gemeinsam mit den Teilnehmer*innen des dritten interaktiven Forums diskutierten Katrin Fritsch und Michelle Thorne, Green Web Foundation, darüber, wie eine offene digitale Infrastruktur für mehr Nachhaltigkeit aussehen könnte. Eine solche Infrastruktur sei Voraussetzung für nachhaltige KI. Nachhaltigkeit betreffe hier sowohl die soziale Ebene als auch physische Faktoren. Zur sozialen Ebene zählten beispielsweise ein Recht auf Kommunikation und Konnektivität. Unter physischen Faktoren seien etwa Datenzentren, Kabel oder die Hardware einzelner Personen zu verstehen. Teilnehmer*innen sollten in einer Gruppenarbeitsphase grundsätzliche Fragen entwickeln, die zu stellen und zu beantworten sind, um zu einer nachhaltigeren digitalen Infrastruktur zu kommen. Dazu zählten unter anderem folgende Fragen: Kann es gerechte KI in einer ungerechten Welt geben? Kann es nachhaltige KI in einer nicht nachhaltigen Welt geben? Ist es möglich, die etablierten Machtstrukturen in der digitalen Welt zu durchbrechen und praktisch zu verändern? Wer hat Verantwortung dafür, dass wir alle nachhaltig leben können? Wie kann ich sicherstellen, dass beim Aufbau digitaler Infrastrukturen Ungleichheit abgebaut statt aufgebaut wird? Wie können wir die digitale Infrastruktur partizipativ entwickeln und daran möglichst viele Leute beteiligen? Wie können wir verschiedene Handlungsbereiche messen? Wer hat die meisten Daten? Wer profitiert? Wem gehören digitale Infrastrukturen generell?

Regulierung als ein Baustein für nachhaltigere KI-Modelle

Nach einer Zusammenführung der vorangegangen Programmpunkte diskutierten Dr. Sergey Lagodinsky, Mitglied des Europäischen Parlaments, Mina Saidze, KI- und Datenexpertin, Armand Zorn, Mitglied des Deutschen Bundestages, Prof. Dr. Lynn Kaack, Hertie School, und Katrin Fritsch, Green Web Foundation, wie komplexe KI-Modelle künftig nachhaltiger gestaltet werden können. Für Tech-Unternehmen spiele Nachhaltigkeit bislang nur eine untergeordnete Rolle. Ein Umdenken sei nötig, und könne durch regulatorische Impulse eingeleitet werden. Hier setze die KI-Verordnung der EU einen wichtigen Grundstein, sofern dieser tatsächlich umgesetzt wird. Dass Regulierung im öffentlichen Diskurs oftmals als Gegenstück zu Innovation verstanden wird, sei missverständlich undfalsch. Stattdessen müsse Digitalregulierung ganzheitlich neu gedacht werden, um auch KI-Systeme demokratischer, diverser und insgesamt nachhaltiger zu gestalten. Dabei sei nicht nur die Regulierung an sich bedeutsam, sondern auch die notwendige Aufsicht und Durchsetzung geltenden Rechts.