Einführung in den Einsatz von generativen KI-Systemen / LLMs
Das Lernmodul bietet einen ersten Einblick in das Thema KI und LLMs. Es wird den Fragen "Was ist Künstliche Intelligenz?" und "Was ist Prompting?" nachgegangen und die Themen "Datenschutz und Urheberrecht" sowie "Verantwortungsvolle Nutzung" werden betrachtet.
4. Verantwortungsvolle Nutzung
4.2. Schattenseiten des Einsatzes von KI
Die Entwicklung und der Einsatz von KI-Systemen eröffnen große Chancen und Potenziale, stellen uns aber auch vor Herausforderungen, die sorgfältiges Denken und Handeln erfordern. Für die Erkennung und Bewertung von KI-Ergebnissen sind Grundlagen wie der Umgang mit Fehlinformationen, gründliche Recherche sowie die Überprüfung von Aktualität und Konsistenz notwendig (Dreyer et al., 2023). Bei der Integration von KI in der Hochschullehre erfordern Aspekte wie Bias, die Arbeitsbedingungen der Menschen hinter den Modellen, der Ressourcenverbrauch sowie mangelnde Transparenz eine ganzheitliche Betrachtung. Letztere werden nun kurz dargestellt. Klicken Sie auf die Pfeile für mehr Informationen.
Bias
Durch das Training von KI-Modellen mit einseitigen und unvollständigen Datensätzen entsteht ein weitreichender Bias (engl. Vorurteil, Voreingenommenheit). Die Vielfalt von verschiedenen Kulturen, Geschlechtern und sozialen Gruppen sind somit in den riesigen Daten-Sätzen nicht angemessen abgebildet. Die Überrepräsentation bestimmter Quellen führt dazu, dass KI-Modelle in ihrem Output bestimmte Gruppen und Perspektiven bevorzugen und die Vielfalt und Komplexität der Gesellschaft nicht angemessen repräsentiert wird.
Diese Datengrundlagen spiegeln oft westliche und patriarchale Perspektiven wider, was zu einer Marginalisierung bestimmter Gesellschaftsgruppen und bestimmten Perspektiven führt.
Beispiele zeigen, dass die Modelle existierende Vorurteile und Stereotype nicht nur reproduzieren, sondern diese sogar aktiv verstärken und menschliches Verhalten nachhaltig beeinflussen können.
Dieser Bias zeigt sich aktuell in verschiedenen Bereichen - von Fällen geschlechtsspezifischer Gewalt, im Output von generativen KI-Modellen über stereotype Darstellungen von Ärzt*innen und anderen Berufsgruppen bis hin zu rassistischen Ratschlägen und das Erzeugen menschenverachtender Inhalte (Ahmad & Staiger, 2024).
Coded Bias - Wie wird KI rassistisch? (Klicken Sie auf den Link, um das Video zu starten.)
Video 7: Coded Bias - Wie wird KI rassistisch? Shalini Kantayya, 2021.
Video 8: KI und Bias | Vorurteile in der KI. Absolute Software, 2024.
KI-Halluzinationen
KI-Halluzinationen beziehen sich auf von KI-Modellen generierte Inhalte, die realistisch erscheinen, aber von den tatsächlichen Informationen abweichen. Dies bedeutet, dass die generierten Inhalte entweder nicht mit den ursprünglichen Eingabedaten übereinstimmen (faithfulness) oder faktisch nicht korrekt sind (factualness). Dies kann zu unbeabsichtigten Fehlinformationen führen. Solche Halluzinationen entstehen dadurch, dass KI-Modelle Texte basierend auf Wahrscheinlichkeiten generieren – sie berechnen also statistisch plausible Fortsetzungen eines Textes, was jedoch zu inhaltlichen Fehlern führen kann (Siebert 2024, Wellner 2025).
Weitere Gründe für KI-Halluzinationen:
- Fehlerhafte oder unvollständige Traininsgdaten: Wenn die Daten, mit denen das Modell trainiert wird, unvollständig oder fehlerhaft sind, kann das Modell falsche Muster lernen und Halluzinationen erzeugen. Dies kann passieren, wenn die Daten nicht aktuell sind oder bestimmte Themen nicht ausreichend abdecken - etwa wenn es medizinische Informationen verwendet, die nicht den neuesten wissenschaftlichen Standards entsprechen.
- Probleme bei der Informationsverarbeitung: Die Art und Weise, wie KI-Modelle Informationen verarbeiten, kann zu Fehlern führen. Beispielsweise können sie sich zu sehr auf bestimmte Teile des Kontexts konzentrieren und den Gesamtzusammenhang aus den Augen verlieren.
Um mögliche Nachteile durch KI-Halluzinationen zu minimieren, sollten Nutzerinnen folgende Empfehlungen beachten:- Bleiben Sie kritisch und hinterfragen Sie Informationen
- Nutzen Sie generative KI als Unterstützung, nicht als alleinige Informationsquelle
- Geben Sie klare und präzise Anweisungen, wenn Sie generative KI-Tools verwenden (siehe Kapitel 2 „Was ist Prompting?“)
KI-Halluzinationen können durch sorgfältigere Aufbereitung der Trainingsdaten, verbesserte Modellarchitekturen und den Einsatz von Techniken wie der Verknüpfung mit externen Wissensdatenbanken reduziert werden. Es ist wichtig, dass Nutzer*innen und Entwickler*innen kritisch bleiben und die Grenzen von KI-Systemen verstehen (ebd.).
Video 9: Warum KI DICH anlügt: KI-Halluzinationen einfach erklärt. cloudstrive, 2024.
Moral & Empathie: Die Menschen hinter den Modellen
Entgegen der Annahme einer vollständigen Automatisierung benötigen KI-Modelle - insbesondere für ihr Training - in der Realität präzise Unterstützung durch menschliche Arbeitskräfte. Technologieunternehmen greifen häufig auf günstigere Arbeitskräfte in Ländern mit geringem bzw. keinem Arbeitnehmer*innenschutz zurück, um Daten zu labeln und KI-Ergebnisse zu verifizieren.
Am Beispiel von OpenAI wird dies deutlich: Das Unternehmen beschäftigte Arbeiter*innen in Kenia, die weniger als 2 US-Dollar pro Stunde verdienten. Ihre Aufgabe war es, besonders gefährliche Inhalte wie z.B. Darstellungen sexualisierter Gewalt herauszufiltern. Die Arbeiter*innen sahen sich dabei traumatisierenden Inhalten ausgeliefert und beschrieben ihre Arbeitsbedingungen als "Folter".
Die globale Arbeitsteilung in der KI-Branche spiegelt bestehende wirtschaftliche Ungleichheiten wider: Während Unternehmen in wohlhabenden Regionen des Globalen Nordens, wie den USA und Deutschland die hoch qualifizierte und gut bezahlte KI-Entwicklung vorantreiben, wird die arbeitsintensive, ethisch herausfordernde und deutlich schlechter bezahlte Datenannotation und -bereinigung an Arbeitskräfte in Ländern wie Indien, Uganda oder Kenia ausgelagert. Diese Praxis verstärkt die wirtschaftliche Ungleichheit, da die Menschen, die diese grundlegende Arbeit verrichten, meist im Globalen Süden, kaum vom technologischen Fortschritt profitieren, den sie mit ermöglichen. Die Frage nach fairen Arbeitsbedingungen im KI-Training bleibt offen. Es zeigen sich erste Gegenbewegungen wie die Gründung einer Gewerkschaft in Kenia (Ahmad & Staiger, 2024).
Ökologische Schattenseiten
Die Entwicklung und der Einsatz von KI-Modellen werden oft nur aus technologischer Sicht betrachtet, wobei der massive Ressourcenverbrauch vernachlässigt wird. Tatsächlich haben der enorme Wasserverbrauch, die benötigten Rohstoffe und der hohe Energiebedarf für die Herstellung und den Betrieb der benötigten Hardware erhebliche Auswirkungen auf die Umwelt (Ahmad & Staiger, 2024):
- Der Betrieb von ChatGPT im März 2024 verbrauchte rund 700.000 Liter Frischwasser und so viel Energie wie 180.000 US-Haushalte (z.B. zur Kühlung der Rechenzentren).
Die Generierung eines KI-Bildes verbraucht so viel Energie wie eine volle Handyladung.
-
Für die Kühlung der Google-Rechenzentren in den USA wurde 2021 rund 12,7 Milliarden Liter Frischwasser benötigt.
-
Bei jeder ChatGPT-Anfrage wird zehnmal soviel Energie verbraucht wie bei einer Google-Suche (Weiß, 2024).
-
Für die Herstellung der benötigten Hardware werden seltene Rohstoffe und Metalle benötigt. Der Abbau und die Verarbeitung dieser Materialien verursachen zusätzliche Umweltbelastungen und ökologische Schäden.
- Das Training eines Sprachmodells verursacht etwa so viele Emissionen wie fünf Autos über ihren gesamten Lebenszyklus.
Konkrete Daten zum Ressourcenverbrauch von KI-Modellen fehlen jedoch, da Unternehmen häufig nicht transparent über ihren Energie- und Wasserverbrauch sowie ihre Emissionen berichten. Ähnlich wie bei den Trainingsdaten (siehe unten) ist mehr Transparenz erforderlich, um wirksame Maßnahmen zur Verringerung der Umweltauswirkungen zu entwickeln. Mögliche Lösungsansätze sind sparsamere Modelle, effizientere Rechenzentren und mögliche gesetzliche Vorgaben zur Offenlegung des Ressourcenverbrauchs und zur umweltfreundlicheren Entwicklung und Nutzung von KI-Systemen (Ahmad & Staiger, 2024).
Video 10: Energiebedarf und KI: Der Stromverbrauch hinter ChatGPT & Co. Technic Journal, 2024.
Transparenz
Die mangelnde Transparenz bei KI-Trainingsdaten stellt ein ernsthaftes Problem dar. Viele KI-Unternehmen dokumentieren die Zusammensetzung ihrer Datensätze nicht ausreichend, was zu erheblichen Risiken und ethischen Bedenken führt. Diese Intransparenz hat mehrere negative Konsequenzen:
-
Verzerrungen (Bias) in den Daten zu adressieren,
-
Schädliche Inhalte können nur schwer oder gar nicht aus den Trainingsdatensätzen entfernt werden
-
Die Identifizierung urheberrechtlich geschützter Inhalte wird erschwert.
-
Die Nachvollziehbarkeit und Überprüfbarkeit von KI-Entscheidungen wird stark eingeschränkt (Ahmad & Staiger, 2024).
-
Wirksame Maßnahmen zur Verringerung der Umweltauswirkungen können kaum effizient entwickelt werden
Es ist wichtig, die bestehenden Herausforderungen zu erkennen und aktiv an Lösungen zu arbeiten, um die Integration so effektiv wie möglich zu gestalten. Die Zusammenarbeit zwischen Studierenden und Lehrenden erfordert gegenseitiges Verständnis, Kommunikation und Flexibilität, um den Anforderungen gerecht zu werden und die Vorteile der Technologie voll auszuschöpfen (Gregor, 2023).