kAIne Entwertung - Generative KI und Anwendungsabhängigkeit

Oct 2, 2025 min read

Anika Limburg und Joscha Falck haben zur Blogparade #kAIneEntwertung aufgerufen. Die Prämisse, darüber nachzudenken, welche Entwertungen von menschlichen Leistungen durch generative KI vor allem im Bildungswesen stattfinden. Während die Grundprämisse „Entwertung“ recht negativ konnotiert ist, liefert der initiale Text ein doch recht positives Bild von dem was generative KI zu leisten im Stande ist: „Wir erleben, dass verschiedenste Anwendungen für Bild, Ton, Text und Video vielseitig und in immer mehr Bereichen eingesetzt werden. Dort steigern sie Tempo, Produktivität und Qualität, unterstützen beim Lernen und übernehmen Aufgaben, die bislang Menschen erledigt haben. Weil nur Menschen sie erledigen konnten – oft nach langer Ausbildung, auf der Grundlage von Talent, Übung und jahrelang aufgebauter Expertise. Im Kern wird menschliche Leistung damit an vielen Stellen entwertet, zumindest in der gesellschaftlichen Zuschreibung und unter der Perspektive institutioneller Bewertungssysteme.“.

KI als Halluzinationssysteme

Es sind diese Grundannahmen zur Leistungsfähigkeit der technischen Systeme, die bereits die erste Entwertung menschlicher Tätigkeiten darstellen. Die kritische Betrachtung von generativer KI hingegen zeigt, den Systemen sind Fehler in ihren Outputs inhärent. Auch die neustens Versionen schaffen es nicht fehlerfrei zu arbeiten, Wissenschaftler_innen der Columbia University finden bei KI getriebenen Suchen in über 60% der Outputs Fehler und das Vectara Halluzination-Projekt dokumentiert, dass die Fehlerquote der direkte Nutzung innerhalb der Modelle zunimmt. Selbst openAI gesteht mittlerweile ein, dass es nicht vermeidbar sein wird, dass auch zukünftige Modelle halluzinieren werden. Das ist bemerkenswert, weil in einem Blogpost im Februar 2023 openAI selbst impliziert hat, dass erstens eine superintelligente künstliche Intelligenz kurz bevorsteht und diese die Version GPT 4 ablösen wird. Auf dem Weg dahin, so das Unternehmen sei es angebracht, zunehmend vorsichtiger bei der Verbreitung, Implementierung und Nutzung von generativen KI Systemen zu werden.

KI-Alltag und Abhängigkeiten

Die gelebte Praxis in den letzten zweieinhalb Jahren ist jedoch eine andere. KI-Agenten werden in jede noch so kleine digitale Ritze eingefügt, weil Anbieter sich nicht von der Erwartung befreien können irgendetwas mit KI machen zu müssen. Nicht nur durchziehen KI-Systeme mit zunehmend höheren Fehlerraten Arbeits-, Dienst- und Freizeitprogramme vieler Menschen. Es ist nun auch möglich direkt im Chat von openAI Einkäufe zu tätigen. Die Intrusion von KI in jeden Bereich des Alltags geschieht ohne,dass auch nur ein Bruchteil der Nutzer_innen bewusst KI Systeme für sich wählten noch bewusst versteht, was die Funktionsweise, noch die ökonomische Logik dieser Systeme ist. KI-Agenten kommen mit den Diensten die man die letzten Jahre genutzt hat, welche Hardware man sich gekauft hat. Sich KI-Agenten zu entziehen ist nahezu unmöglich. Immer mehr Menschen kommen gar nicht drumherum KI zu nutzen. Anwendungsabhängigkeiten werden bewusst aufgebaut, vormalige digitale Möglichkeiten ohne KI eingegrenzt.

Es ist diese Praxis, die uns im Bildungswesen vor Herausforderungen stellt, denn wenn eine vermeintliche Heilsbringertechnologie auf ein System in multiplen Krisen trifft, ist die Schwelle für den unkritischen Einsatz niedrig. Unter dem Schlagwort schnell ins Handeln zu kommen und Anwendungskompetenzen für eine Zukunftstechnologie aufzubauen werden jedoch de facto Anwendungsabhängigkeiten aufgebaut. Es ist wie mit Autofahrenden, die sich vom Kauf eines SUVs bessere Einsicht in den Straßenverkehr erhoffen, um dann an der Kreuzung festzustellen, dass ihr Gefährt so groß ist, dass sie weiter denn je von der Einsicht in die Abbiegung entfernt sind. Oder wie bei der Nutzung von Übersetzungssoftware. Stück für Stück gibt man das eigene Denken auf, eine Aussagen in einer anderen Sprache zu übersetzen. Auf KI gemünzt gab es schon früh wissenschaftliche Erkenntnisse. Dell‘Aqua (2023) und Lee et al. (2025) haben deutlich beschrieben wie die Nutzung von KI zwar dazu führt, dass Menschen mit KI gute Leistungen erbringen, aber sich zwei Phänomene einstellen. Erstens verlieren auch Fachkräfte die Fähigkeit ohne generative KI ihre Arbeitsleistung auf hohem Niveau zu erbringen (Dell’Aqua). Zweitens degeneriert die Fähigkeit des kritischen Denkens (Lee). Zu überzeugend erscheint der Output generativer KI-Systeme, zu stark der gesellschaftliche Diskurs zur Überlegenheit dieser Systeme. Lee beschreibt darüber hinaus, wie sich Rollenbilder durch die Nutzung generativer künstlicher Intelligenz wandelt. So wird kritisches Denken in seinen zahlreichen Facetten in der Praxis zum Kuratieren von Outputinformationen, Problemlösen reduziert sich darauf in welcher Art KI implementiert werden muss und Aufgabenlösen zu Aufgabenverwaltung innerhalb eines KI-Agenten. Auch für Lehrkräfte ist dieser Shift relevant, weil er beim Fundament ihrer professionellen Praxis ansetzt. Noch im Januar 2025 betonte Olaf Köller, wie wenig Fortbildungen es für die Nutzung von KI brauche. Dabei zeigen Shojaee et al. (2025), dass generative KI nicht die Fähigkeit besitzt Probleme zu lösen, die nicht Teil des Datenkorpus sind. Hier beginnt die Unschärfe des mit der Technologie Möglichen. Generative KI Systeme denken nicht, sie sind Wahrscheinlichkeitsrechner, die nicht wissen wozu und worüber sie Wahrscheinlichkeiten berechnen. Jeden Tag in in jeder Interaktion mit Schüler_innen bearbeiten Lehrkräfte jedoch Probleme und Aufgaben, die so in einer KI noch nie abgebildet sind. Getragen wird die Einführung generativer KI-Systeme lediglich von der Fantasie vieler Top-Entscheider_innen. Dabei zeigt sich vor allem zunächst, dass Top-Executives anscheinend gar nicht wissen, was die alltägliche Arbeit ihrer Mitarbeitenden ausmacht und was die Komplexitäten von Problemen sind, die Mitarbeitenden jeden Tag lösen. Es wundert also nicht, dass Unternehmen, die generative KI rasant in ihre Wertschöpfungsprozesse eingebunden haben nun mit den Konsequenzen umgehen müssen. Umgehen heißt hier die KI-Einsatz zu reduzieren.

Auf der gesellschaftlichen Ebene bindet generative Künstliche Intelligenz jedoch Menschen an die eigenen Systeme, weil sie Abhängigkeitsmechanismen aufbauen. Die kürzlich erfolgte Anpassungen von ChatGPT stets Nachfragen zu stellen, neue Angebote zu unterbreiten, die über die eigentliche Anfrage hinaus wirken, zielt darauf Nutzende so lange und oft wie möglich im System zu halten. Die Anklageschrift (Triggerwarning: Suizid) im Fall Adam Raine beschreibt diese Mechanismen im Fall von openAI. Die emotional schwer zu lesende Anklageschrift zeigt, wie Abhängigkeiten aufgebaut werden und wie sie dazu führen menschliche Interaktionen zu ersetzen. Deutlich wird, wie chatGPT Ansätze von Social Media Plattformen kopiert.

Zweck von KI in der Bildung bestimmen

Was können wir also für Schlüsse ziehen? Peter Hense hat neulich ganz basal festgestellt, am Anfang von allem steht die Frage und ehrliche Diskussion ob KI überhaupt gewinnbringend ist. Diese Frage muss jede Organisation klären. Das ist eine Diskussion, die nicht nur das Top-Management (Minister_innen) entscheiden sollte. Es ist ein Dialog im Austausch mit Lehrkräften und Schulleitungen, mit denjenigen, die das Bildungssystem tagtäglich am Laufen halten. Ist mehr Effizienz mit Hilfe von KI die Lösung der multiplen Problemlagen im Bildungswesen? Ich habe meine Zweifel. Fachkräftemangel, Gesundheit, sachliche Ausstattung, Arbeitszeitüberschreitungen und ordentliche Arbeitsplätze sind Themen, die mir als allererstes einfallen und die nicht mit KI gelöst werden können. Und dennoch fasst KI im Bildungssystem Fuß. Auch weil KI die oben genannten dringenden Problemlagen verdecken kann. KI-Systeme sind eine beeindruckende Technologien und sie bieten diesen magischen Moment, in dem scheinbar komplexe Aufgaben in Minuten statt in Stunden realisiert werden. Auf ein mal ist das Fachkräfteproblem kein Fachkräfteproblem mehr, sondern ein Effizienzproblem. Auf ein mal muss man nicht mehr darüber nachdenken wie Ausbildung attraktiver, Arbeitsbedingungen förderlicher oder die Gesundheit von Mitarbeitenden verbessert werden müssen, sondern die Einführung einer Technologie löst … alles. Auch das Mantra der Zeitersparnis für Lehrkräfte gerät jedoch ins Wanken wie Selwyn et al. (2025) aufzeigen. Auch bessere Lernergebnisse durch die Nutzung von generativer KI (Wang & Fang 2025) haben sich in einer kritischen Auseinandersetzung als haltlos erwiesen (Bartoš,et al. 2025). Es fehlt also derzeitig noch das genau Zielbild was diese Technologie im System eigentlich leistet.

Es gibt mittlerweile zahlreiche KI-Kompetenzmodelle, die sich im Großen und Ganzen ähneln. Sie rücken die Kernfelder verstehen, anwenden und reflektieren in das Zentrum der Diskussion und sättigen die Kompetenzmodelle mit Beschreibungen an, was das Erreichen verschiedener Niveaustufen innerhalb dieser Kernfelder konkret heißt. Aus meiner Perspektive liegt das größte Problem dieser Modell darin, dass sie als Gemischtwarenladen dazu einladen verschiedene Aspekte von Kompetenzbeschreibungen zu jedem x-beliebigen Zeitpunkt als erreicht zu markieren. Gerade dem/den Bildungssystemen wäre jedoch geholfen hier mit einen strukturierten Plan vorzugeben. Am Beispiel des Dagstuhl-Dreiecks lässt sich dies besonders gut darstellen. Das Modell hat auch für generative Künstliche Intelligenz seine Nützlichkeit nicht verloren. Die Gravitas der Technologie und was sie mit Menschen macht, führt jedoch dazu, dass zunächst eine genaue Ergründung der technologischen Perspektive (Schritt 1) und der gesellschaftlichen-kulturellen Perspektive (Schritt 2) braucht. Erst wenn die ersten beiden Punkte verinnerlicht wurden und die Auswirkungen der Technologie abgeschätzt werden kann, kann bewusst mit dem System umgegangen werden, kann abgeschätzt werden, ob wir uns Halluzinationen im Feld XY leisten können, was die besten und schlimmsten Outcomes der Technologie-Nutzung sind und wer die Verantwortung für diese trägt. Erst dann kann wirklich an der Anwendungskompetenz gearbeitet werden (Schritt 3). Das Dagstuhl-Dreieck gibt diese Reihenfolge an Schritten nicht vor. Für wenig potente technologische Phänomen mag es okay sein zunächst in die Anwendungsperspektive zu gehen. Aber für künstliche Intelligenz im Bildungssystem sollten wir davon ablassen. Am Ende des Tages bleiben Menschen für Menschen verantwortlich, daher sollten Menschen auch die Komplexität der technologischen Systeme verstehen für deren automatisierte Entscheidungen sie Verantwortung tragen werden müssen und sie sollten ihre Interventionsmöglichkeiten kennen. Erst wenn wir den Zweck von KI in der Bildung hinreichend definiert haben, nähern wir uns im übrigens auch der Lösung der vielen rechtlichen Problemelagen an, die generative KI mit sich bringt. Konzepte wie purpose limitation von KI sind wesentlich (Mühlhoff & Ruschemeier 2024). Erst wenn wir diese Aspekte geklärt haben, kann eine Entwertung menschlicher Tätigkeit vermieden werden.