Guten Tag,
Minderwertige KI-Inhalte fluten das Netz, der grosse Profiteur sind die Social-Media-Plattformen. Alles zu AI Slop in fünf Punkten.

Olivia Ruffiner
Slop bezeichnet die «Verschlammung» der sozialen Medien mit von KI generierten Inhalten.
ShutterstockWerbung
Das Internet verändert sich fundamental. Künstlich generierte Inhalte überschwemmen Social Media, Suchmaschinen, Internetseiten und Nachrichtenportale. Forscher schätzen, dass bereits 51 Prozent des heutigen Internetverkehrs von automatisierten Programmen stammen. Was auf den ersten Blick nach technischem Fortschritt aussieht, wirft bei näherem Hinsehen ökonomische und gesellschaftliche Fragen auf: AI Slop – die digitale Vermüllung durch minderwertige KI-Inhalte – verändert die Qualität unserer Informationsräume und schafft gleichzeitig neue Geschäftsmodelle.
Der aus dem Englischen stammende Begriff Slop bezeichnet ursprünglich Viehfutter niedrigster Qualität oder das nachlässige Überfüllen eines Glases. Im digitalen Kontext beschreibt er massenhaft produzierte Inhalte aus generativen KI-Systemen wie Nano Banana von Google, Vibes von Meta oder Sora 2 von Open AI. Diese Inhalte zeichnen sich durch ihre oberflächliche Qualität aus: Auf Linkedin kursieren generisch formulierte Texte, die Bilder wirken künstlich, und die Videos sind emotional übertrieben, bleiben aber ohne substanziellen Informationswert.
Das Spektrum reicht von harmlosen Katzenvideos über religiöse Fantasiefiguren wie den berüchtigten «Shrimp Jesus» von März 2024 bis zu gefälschten Kriegsszenen und politischer Desinformation. Entscheidend ist: AI Slop entsteht ohne Qualitätskontrolle und ohne menschliche Überarbeitung und wird massenhaft ins Netz gespült.
Das Phänomen wird vor allem von drei Akteursgruppen vorangetrieben. Erstens von Enthusiasten, die gerne mit den neuen Modellen spielen und diese ausprobieren. Zweitens von politischen Akteuren, die künstliche Intelligenz für ihre Kommunikation einsetzen. Es ist kein Geheimnis, dass die Trump-Administration gerne KI-generierte Inhalte in die Welt setzt, wie das Video von «Trump Gaza» und Bilder von Kamala Harris in kommunistischer Uniform mit Hammer und Sichel.
An dieser Stelle findest du einen ergänzenden externen Inhalt. Falls du damit einverstanden bist, dass Cookies von externen Anbietern gesetzt und dadurch personenbezogene Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen.
Die dritte Gruppe schliesslich ist vor allem von finanziellen Anreizen getrieben: professionelle Scammer und Botfarmen, die rund um die Uhr arbeiten. Eine Studie von AI Forensics zeigte, dass 80 Prozent der untersuchten AI-Slop-Videos auf Tiktok und 15 Prozent auf Instagram von Accounts stammen, die ausschliesslich solche Inhalte posten. Das Geschäftsmodell: Aufmerksamkeit generieren, Accounts ausbauen und diese dann für Betrug, Spendenaktionen oder Investmentangebote nutzen.
Die Profiteure sind vor allem die Plattformen selbst. Meta, Tiktok, Youtube und X etablierten in den letzten Jahren direkte Monetarisierungsmodelle, die virale Inhalte belohnen – unabhängig von deren Qualität. Meta-CEO Mark Zuckerberg kündigte bereits an, dass KI-generierte Videos und Bilder der «nächste logische Sprung» für Facebook und Instagram seien. Tatsächlich zeigt Meta in seinem Transparenzbericht, dass 35,7 Prozent der Nutzerinnen und Nutzer zuerst Inhalte von Profilen präsentiert bekommen, denen sie gar nicht folgen. So begünstigt der Algorithmus unter anderem auch AI Slop.
Werbung
Parallel dazu entsteht, wie es die Forscherin Renée DiResta beschreibt, ein ähnlicher Effekt wie in den Zeiten des grossen Goldrausches Ende des 19. Jahrhunderts. Nicht die Goldsucher profitierten, sondern jene, die die Schaufeln verkauften. Selbst ernannte KI-Experten verkaufen für mehrere Hundert Dollar ihr Know-how, wie man Slop generiert und damit in sozialen Medien mittels der Monetarisierungsmodelle Einnahmen erzielt. Die Strategie lautet: Quantität statt Qualität.
Während AI Slop seit Anfang 2024 ein Begriff ist, taucht in den letzten Monaten vermehrt die Bezeichnung «Workslop» auf; der englische Begriff AI (Artificial Intelligence) für KI wird also mit dem englischen Wort für Arbeit ersetzt. Aufwind erhielt das Phänomen durch einen Artikel im amerikanischen Magazin «Harvard Business Review», in dem ein Forscherteam vor der KI-Produktivitätslüge warnte. Zwar verdoppelte sich im letzten Jahr die Anzahl der Unternehmen beinahe, die KI einsetzten, und auch die Nutzung durch Mitarbeitende nahm stark zu. Jedoch zeigte eine Studie des MIT Media Lab, dass 95 Prozent der Unternehmen bisher keine Produktivitätssteigerung beobachteten.
Firme sollten KI als Mittel zum Zweck und nicht als Selbstzweck einsetzen. Unternehmen vergessen im Hype, das Thema strategisch anzugehen.
Werbung
Ausgehend davon stiess das Forscherteam auf das erwähnte «Workslop». Damit sind Berichte, E-Mails und weitere Arbeitserzeugnisse gemeint, die formal stimmen, aber faktisch nicht immer korrekt, inhaltlich substanzlos und ergo klar KI-Erzeugnisse ohne menschliche Überarbeitung sind. Die Folge: Eine weitere Instanz muss die Arbeit in der Regel überarbeiten.
Die Vermüllung des Internets und Arbeitsraums kann weitreichende Konsequenzen haben. Erstens: KI-Modelle werden aufgrund menschgemachter Bücher, Bilder und Beiträge trainiert. Slop-Generatoren bedienen sich an diesen Datenbanken. Bis heute gibt es keine einheitliche, geregelte Vergütung für Urheberinnen, Autoren, Künstlerinnen und Musiker. Zweitens: Je mehr AI Slop ins Netz gespült wird, desto mehr trainieren die Modelle mit solchen Inhalten. Publiziert man fehlerhafte Informationen, die mit KI erstellt wurden, nutzen Modelle bei künftigen Anfragen diese als Quelle. Das Ergebnis: Es wird schwerer, zuverlässige Informationsquellen zu finden. Die Forschung zeigt, dass Menschen in einem solchen Umfeld eher dazu neigen, auch seriöse Inhalte anzuzweifeln. Ganz nach dem Prinzip von Äsops Hirtenjunge und dem Wolf. Drittens: Die ökologischen Auswirkungen sind erheblich. KI-Anfragen brauchen nicht nur Energie, sondern auch Unmengen an Wasser, um die Rechenzentren zu kühlen. Bei Anfragen im Sekundentakt potenziert sich das.
Werbung
Künstliche Intelligenz markiert einen Wendepunkt in der Geschichte des Internets. Was als demokratisierende Technologie begann, entwickelt sich auch zu einer Bedrohung für die Informationsqualität im digitalen Raum. Die Lösung erfordert ein Umdenken auf mehreren Ebenen. Regulatorische Massnahmen wie verpflichtende Kennzeichnungen sind ein erster Schritt, greifen aber möglicherweise zu kurz. Plattformen müssten ihre Anreizstrukturen überdenken und Qualität über virale Reichweite stellen.
Gleichzeitig wäre es zu einfach, generative KI pauschal zu verteufeln. Die Technologie bietet durchaus Potenzial für Effizienzgewinne und kreative Anwendungen. Wichtig ist aber: KI ist ein Werkzeug und kein Entscheidungsträger. Entscheidungsträger bleibt der Mensch, der «human in the loop». Wer eine KI-Quelle nicht verifizieren kann, sollte sie mit Vorsicht behandeln. Denn alles, was publiziert wird, kann wieder in die Maschine zurückgefüttert werden.
Werbung