Du kennst das Dokument. Acht Absätze, sprachlich einwandfrei, ohne eine einzige verwertbare Aussage. Du liest es zweimal. Dann schreibst du es neu. Dann fragst du dich, warum dein Kollege das überhaupt geschickt hat.
Das war kein schlechter Tag. Das ist ein Muster. Und es hat einen Namen: AI Slop.
Die meisten Artikel zu AI Slop zeigen dir absurde KI-Bilder aus Facebook oder sprechende Tintenfische auf YouTube. Das ist das auffälligste Ende des Phänomens. Aber das kostspieligste Ende findet sich in deinem E-Mail-Postfach, in deinen Team-Meetings und in Projekten, die länger dauern als geplant, weil jemand KI-Output als fertige Arbeit eingereicht hat.
Was AI Slop bedeutet und warum das Büro das größere Problem ist
AI Slop bezeichnet KI-generierten Inhalt, der oberflächlich kompetent wirkt, aber wenig Substanz hat. Der Begriff kommt aus dem Englischen: "slop" bedeutet so viel wie Fraß oder Nassmüll. Simon Willison, ein bekannter Entwickler, griff den Begriff 2024 auf und machte ihn bekannt. Das australische Macquarie Dictionary wählte "slop" 2025 zum Wort des Jahres.
Im öffentlichen Diskurs denken die meisten Menschen dabei an Spam-Webseiten, Fake-Nachrichten oder die endlose Flut aus KI-generierten Urlaubsfotos auf Instagram. Das ist real und ein echtes Problem.
Aber im Büro hat AI Slop eine andere Qualität. Er kommt nicht von Bots oder Fremden. Er kommt von Kolleginnen und Kollegen, die unter Druck stehen, produktiv zu wirken. Er sieht fertig aus. Er klingt professionell. Und er kostet dich trotzdem Stunden.

Die Zahlen, die kein KI-Anbieter dir zeigt
ActivTrak hat 443 Millionen Stunden digitale Arbeit von über 163.000 Beschäftigten ausgewertet. Es ist die größte Verhaltensstudie zu KI und Produktivität, die es gibt. Das Ergebnis ist unbequem.
Bei Mitarbeitenden, die aktiv KI-Tools nutzen, stieg die Zeit für E-Mails um 104 Prozent. Für Chat und Nachrichten um 145 Prozent. Für Business-Tools wie Salesforce oder Slack um 94 Prozent. Die tägliche Fokuszeit sank um 23 Minuten. Es gab keine einzige Kategorie, in der KI tatsächlich Zeit einsparte.
Eine Harvard-Business-Review-Studie in einem Tech-Unternehmen mit 200 Mitarbeitenden über acht Monate zeigt dasselbe Muster. KI macht die Arbeit nicht weniger. Sie macht sie dichter. Wer mit KI schneller wurde, übernahm mehr Aufgaben und arbeitete abends und am Wochenende. Die Wochenendarbeit stieg um bis zu 58 Prozent.
Dann ist da noch die METR-Studie zu KI-Coding-Tools. Erfahrene Entwickler arbeiteten mit Tools wie Cursor und Claude 19 Prozent langsamer als ohne. Sie schätzten sich selbst 20 Prozent schneller ein. Die Lücke zwischen Wahrnehmung und Realität beträgt 39 Prozentpunkte.
KI fühlt sich schnell an. Oft ist sie es nicht.

Workslop: Wenn KI-Output zum Problem deiner Kollegen wird
BetterUp Labs und das Stanford Social Media Lab haben 1.150 US-Angestellte befragt. 41 Prozent hatten in den vergangenen vier Wochen "Workslop" von Kollegen erhalten. Das ist der Begriff für KI-generierte Inhalte, die fertig aussehen, aber nicht fertig sind. Jemand hat ChatGPT befragt, das Ergebnis kopiert und weitergeleitet.
Der durchschnittliche Aufwand pro Vorfall: eine Stunde und 56 Minuten. Für Verstehen, Korrigieren oder Neuschreiben.
Auf Basis der gemeldeten Gehälter schätzten die Forschenden die Kosten auf rund 186 Dollar pro Person und Monat. Für ein Unternehmen mit 10.000 Mitarbeitenden sind das über 9 Millionen Dollar pro Jahr.
Wie sieht Workslop konkret aus?
E-Mails ohne Aussage. Sprachlich einwandfrei, viele Absätze, kein klarer Punkt. Der Empfänger muss rückfragen oder alles neu strukturieren.
Präsentationen ohne Datenbasis. Sieht nach Analyse aus. Hat viele Bulletpoints. Aber welche Entscheidung soll man damit treffen?
Code ohne Kontext. Funktioniert in der Sandbox. Kennt die Architektur des Projekts nicht. Jemand muss es integrieren, debuggen, manchmal komplett neu schreiben.
Das Tückische: 54 Prozent der Betroffenen nehmen Kolleginnen und Kollegen, die regelmäßig Workslop verschicken, als weniger kompetent wahr. KI soll Eindruck machen. Sie macht den gegenteiligen Eindruck.

Warum wir trotzdem einfach OK klicken
Agentische KI-Systeme, also KI, die selbstständig Aufgaben ausführt, fragen nach Erlaubnis. "Darf ich diese Datei ändern?" "Soll ich das veröffentlichen?" Das klingt nach Kontrolle.
Anthropic hat ausgewertet, wie Nutzende mit Claude Code tatsächlich umgehen. 93 Prozent aller Bestätigungs-Aufforderungen werden blind weggeklickt. Ohne sie zu lesen. Das nennt sich Approval Fatigue, auf Deutsch: Bestätigungsmüdigkeit. Wer permanent gefragt wird, hört irgendwann auf zu antworten.
Dazu kommt ein gut dokumentiertes psychologisches Phänomen. Menschen folgen algorithmischen Empfehlungen rund 26 Prozent häufiger als gleichwertigen menschlichen Hinweisen, selbst wenn der Inhalt identisch ist. Wir vertrauen Maschinen automatisch ein bisschen mehr.
Und dann gibt es noch "AI Brain Fry", so nennen BCG und BetterUp Labs die mentale Überlastung durch zu intensive KI-Nutzung oder -Überwachung. Bei Betroffenen haben Forschende 39 Prozent mehr schwerwiegende Fehler gemessen. Mehr Entscheidungserschöpfung. Mehr Burnout. Mehr Kündigungsabsicht.
KI nimmt Arbeit ab. Sie schafft auch neue kognitive Last. Wenn diese Last zu groß wird, machen Menschen mehr Fehler als ohne KI.
95 Prozent sehen keinen messbaren Unterschied
Der MIT-Media-Lab-Bericht "The GenAI Divide" hat ausgewertet, was aus den geschätzten 30 bis 40 Milliarden Dollar an globalen Enterprise-KI-Ausgaben geworden ist.
95 Prozent der Unternehmen sehen keinen messbaren Geschäftsnutzen aus ihren KI-Pilotprojekten. Nur 5 Prozent schaffen den Schritt in produktive Nutzung mit erkennbarem Effekt auf Umsatz, Kosten oder Effizienz.
In Deutschland sieht Bitkom ähnliches: 46 Prozent der deutschen Unternehmen, die generative KI einsetzen, sagen, es bringe wenig. Gleichzeitig sagen fast ebenso viele, Unternehmen ohne KI hätten keine Zukunft. Man nutzt sie, weil man muss. Nicht, weil sie hilft.
80 Prozent der "smarten" KI-Funktionen in Software-Produkten werden ignoriert. Typische Nutzungsraten nach dem Launch: 5 bis 15 Prozent. Nach drei Monaten sind die meisten Nutzenden abgesprungen.
Das ist kein Zufall. Das ist das Ergebnis von KI-Funktionen, die gebaut werden, um zu beeindrucken, nicht um ein konkretes Problem zu lösen.

Drei Gründe, warum so viel AI Slop entsteht
Hype-Druck ohne klaren Auftrag. "Wir brauchen KI bis Q3." Warum? Für was genau? Diese Fragen werden seltener gestellt als die Deadline kommuniziert wird. Das Ergebnis sind Funktionen, die niemand braucht.
Generische Tools statt maßgeschneiderter Lösungen. ChatGPT für alles klingt praktisch. In der Praxis bedeutet es, dass kein Tool irgendeinen Prozess wirklich kennt. Die Lücke zwischen KI-Output und brauchbarem Ergebnis füllt der Mensch mit Mehrarbeit.
Keine Neugestaltung der Arbeit. Workday hat erhoben, dass 89 Prozent der Unternehmen weniger als die Hälfte ihrer Stellenprofile an KI-Fähigkeiten angepasst haben. Man setzt Tools von 2025 in Strukturen von 2015 ein. KI kommt dazu. Alte Aufgaben bleiben. Der Tag wird länger, nicht kürzer.
Was tatsächlich hilft
BCG-Forschung hat ein konkretes Muster gefunden. Der Übergang von einem auf zwei KI-Tools und von zwei auf drei bringt noch Produktivitätsgewinne. Ab vier parallelen KI-Tools kippen die Gewinne. Mehr Tools bedeuten mehr Fragmentierung, mehr Kontextwechsel, mehr kognitive Last.
Wenige, gut integrierte Tools sind fast immer besser als viele schlecht eingebundene.
Was konkret hilft:
Klare Qualitätsnormen für KI-Output. Was muss ein KI-generierter Text enthalten, bevor er verschickt wird? Was gilt als fertig? Ohne diese Normen entsteht Workslop fast automatisch.
Outcome messen, nicht Output. Nicht "Wie viele Texte hat KI produziert?", sondern "Hat sich die Bearbeitungszeit verkürzt?" Wer Output misst, bekommt mehr Output. Wer Ergebnisse misst, bekommt Mehrwert.
Maßgeschneiderte Lösungen statt Universaltools. Ein KI-Tool, das genau einen Ablauf kennt, genau eine Aufgabe löst und genau eine Kennzahl verbessert, ist zehnmal wertvoller als ein generisches Tool für alles. Die MIT-Daten zeigen: Die 5 Prozent der Unternehmen mit messbarem Nutzen haben genau das getan.

KI mit einer konkreten Aufgabe
Ich arbeite täglich mit KI. Für Artikel wie diesen. Für Code. Für Kundenprojekte. Aber nie für alles auf einmal.
Jedes KI-Tool in meinem Arbeitsablauf hat eine Aufgabe. Eine konkrete, messbare. Nicht "sei mein Assistent". Sondern: "Löse dieses spezifische Problem in diesem spezifischen Schritt."
Das ist der Unterschied zwischen AI Slop und KI, die funktioniert. Nicht das Modell. Nicht das Budget. Die Aufgabe.
Wenn du für dein Unternehmen ein internes Tool oder einen KI-Assistenten brauchst, der in deinen konkreten Prozess passt statt generischen Schrott zu produzieren, schau dir den Vibe Coding Sprint an. Fünf Tage, ein konkretes Problem, eine messbare Lösung.
Was KI im Unternehmenskontext generell leisten kann und wo sie zum Risiko wird, erkläre ich ausführlich im Artikel KI für Unternehmen.




