Allgemein | Technologie & Verantwortung

Schon von Workslop gehört? Wenn uns AI das Denken abnimmt

Flugzeugcockpit bei Sonnenaufgang ohne Pilot als Metapher für fehlende menschliche Steuerung im Umgang mit AI

19. April 2026

verfasst von: Rut

Rut Morawetz verbindet strategische Markenführung mit Fragen digitaler Verantwortung. Ihr Fokus liegt darauf, technologische Entwicklung menschlich, klar und führungsstark zu denken.

Warum AI nicht automatisch zu besserer Arbeit führt, sondern oft nur mehr Output erzeugt – und dabei Qualität, Denken und Verantwortung unter Druck geraten.

Auf einen Gedanken

Ich scrolle durch LinkedIn. Wieder ein Post. Gut formuliert, strukturiert, mit den richtigen Buzzwords. Und irgendwie… leer. Kein echtes Argument, kein persönlicher Standpunkt, keine Reibung. Nur glatte Oberfläche. Ich lese ihn zu Ende und weiß danach nicht mehr als vorher. Aber er sieht aus wie Inhalt.

Das ist Workslop.

Schon von dem Begriff gehört? Er taucht gerade immer öfter auf. Und er beschreibt ein Problem ziemlich präzise. Workslop meint Inhalte, die aussehen wie Arbeit, aber keine sind. Texte, Posts, Präsentationen, die formal funktionieren, aber inhaltlich nicht tragen. Sie erfüllen oberflächlich ihren Zweck — und verschieben gleichzeitig die eigentliche Arbeit auf andere. Auf die, die lesen, prüfen, hinterfragen und neu denken müssen, was ihnen jemand geschickt hat.

Ich bin vor Kurzem über eine Podcast-Folge der Harvard Business Review gestolpert: „Why AI Is Costing You More Productivity Than You Think“ mit Kate Niederhoffer und Jeff Hancock und kann sie wirklich empfehlen. Nicht weil sie AI verteufelt, sondern weil sie einen Punkt auf den Tisch legt, der mich seither nicht loslässt. Niederhoffer und Hancock haben in ihrer Forschung etwas Bemerkenswertes herausgefunden: 53 Prozent der Befragten gaben zu, selbst schon Workslop verschickt zu haben. Das ist kein Randphänomen. Das ist Alltag. Und die Kosten sind höher als man denkt. Nicht nur in Geld, sondern in Vertrauen. Wer Workslop empfängt, beurteilt den Absender als weniger kompetent, weniger kreativ, weniger vertrauenswürdig. Auf LinkedIn würde ich sagen: Man spürt es. Man folgt dieser Person irgendwann nicht mehr. Man hört auf „zuzuhören“.

Ich mache mir keine Illusionen. Ich habe das selbst getan.

LinkedIn ist dafür ein fast schon erschreckend ehrliches Beispiel, weil es sich direkt vor unseren Augen abspielt. Schnell einen Post generieren, damit man sichtbar bleibt. Damit der Algorithmus happy ist. Damit man sich nicht die Mühe machen muss, wirklich nachzudenken, was man eigentlich sagen will. Ich kenne diesen Impuls. Ich habe ihm nachgegeben. Und ich tue es immer seltener, weil mir genau dieses Workslop-Gefühl auffällt. Bei anderen, aber zunehmend auch bei mir selbst. Und ich mag nicht, was es mit mir macht.

Es fühlt sich an, als würden wir aufhören, unser Gedankengut zu benutzen.

Das ist kein rein individuelles Problem. Es ist ein gruppendynamisches. Wenn viele es tun, entsteht Druck, es ebenfalls zu tun. Wenn KI-generierte Inhalte Reichweite erzielen, wirkt das wie ein Signal: Es reicht offenbar. Und so bauen wir uns gemeinsam eine Blase aus Quantität. Mehr Output, mehr Sichtbarkeit, mehr Geschwindigkeit. Aber nicht automatisch mehr Substanz.

Hancock und Niederhoffer haben in ihrer Forschung etwas Bemerkenswertes herausgefunden: 53 Prozent der Befragten gaben zu, selbst schon Workslop verschickt zu haben. Kein Randphänomen. Alltag. Und die Kosten sind höher als man denkt. Nicht nur in Geld, sondern in Vertrauen. Wer Workslop empfängt, beurteilt den Absender als weniger kompetent, weniger kreativ, weniger vertrauenswürdig. Auf LinkedIn spürt man das. Man hört irgendwann auf zuzuhören.

Denn AI verstärkt Verhalten. Sie verstärkt Tempo, wenn Tempo das Ziel ist. Sie verstärkt Mittelmaß, wenn Mittelmaß akzeptiert wird. Und sie verstärkt Austauschbarkeit, wenn niemand mehr auf eigene Gedanken besteht.

Shit in, shit out gilt mehr denn je.

Aber hier liegt der eigentliche Denkfehler, den ich in vielen Organisationen beobachte.

AI wird eingeführt, oft mit der impliziten Erwartung, dass jetzt einfach „mehr“ geliefert werden kann. Mehr Inhalte, mehr Präsentationen, mehr Reports, mehr Kampagnen in kürzerer Zeit, mit mehr Erfolg. Eine Eierlegendewollmilchsau. Gleichzeitig fehlen klare Leitplanken. Wo macht AI Sinn? Wo nicht? Welche Qualität erwarten wir? Gerade in einem Umfeld wie Österreich, wo viele Unternehmen Teil internationaler Strukturen sind, verstärkt sich dieser Effekt. Der Druck zu liefern ist hoch, die Steuerung erfolgt über Performance. Und was in diesem Sog verloren geht, ist lokale Verantwortung, inhaltliche Tiefe, langfristiger Aufbau von Vertrauen.

Aber Kommunikation ist kein Fließband. Marke ist keine Output-Maschine. Und Führung ist mehr als Effizienzsteigerung.

Niederhoffer und Hancock sprechen vom Pilot-Mindset. Mir gefällt die Analogie. Ein Pilot fliegt nicht blind. Er versteht sein Cockpit, trifft Entscheidungen, übernimmt Verantwortung. Er lässt das Autopilot-System arbeiten, aber er schläft nicht dabei ein. Genau das fehlt mir, wenn ich LinkedIn öffne. Die meisten Posts wirken nicht wie bewusst gesteuerte Flugzeuge. Sie wirken wie Drohnen im Autopilot-Modus. Keiner sitzt wirklich drin.

AI weiß es nicht besser. Sie aggregiert, sie mittelt, sie formt das, was schon da ist, in neue Sätze um. Das kann brillant sein, wenn ein denkender Mensch dahintersteckt, der Richtung vorgibt, auswählt, hinterfragt. Aber wenn wir ihr blind vertrauen, weil sie schnell ist und wir keine Zeit haben nachzudenken, produzieren wir kein Denken. Wir produzieren Rauschen.

Deshalb reicht es nicht, bessere Prompts zu schreiben. Die eigentliche Aufgabe liegt darin, AI bewusst zu führen. Zu definieren, wo sie echten Mehrwert schafft. Teams einzubeziehen und Arbeitsweisen gemeinsam neu zu denken. Qualität wieder in den Mittelpunkt zu stellen. Und das menschliche Know-how nicht zu ersetzen, sondern weiterzuentwickeln.

AI darf uns unterstützen, entlasten, unser Denken schärfen. Und das tut sie, wenn wir ihr die richtigen Fragen stellen. Aber sie darf uns nie ersetzen. Nicht unsere Stimme. Nicht unser Urteilsvermögen. Nicht unser Gedankengut.

Am Ende bleibt eine einfache Wahrheit:AI kann viel. Aber sie weiß nicht, was richtig ist. Das müssen wir weiterhin selbst entscheiden.

Und vielleicht ist genau das die eigentliche Führungsaufgabe in dieser Phase. Nicht die Technologie allein voranzutreiben, sondern sicherzustellen, dass wir als Menschen nicht hinter ihr zurückbleiben.

0 Kommentare

Kommentar Schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.

Weitergedacht...