Technologie & Verantwortung

Der Mensch als letzte Instanz

19. April 2026

verfasst von: Rut

Rut Morawetz verbindet strategische Markenführung mit Fragen digitaler Verantwortung. Ihr Fokus liegt darauf, technologische Entwicklung menschlich, klar und führungsstark zu denken.

Warum das Prinzip menschlicher Letztverantwortung nicht nur für Waffensysteme gilt — sondern für jede Entscheidung, die KI vorbereitet.

Auf einen Gedanken.

Es gibt einen Satz, über den sich in der internationalen KI-Debatte erstaunlich viele einig sind: „Human in the loop.“Kein autonomes Waffensystem ohne menschliche Letztentscheidung. Keine tödliche Konsequenz ohne menschliche Verantwortung. Was mich dabei nicht loslässt: Warum gilt dieses Prinzip im Krieg – aber nicht in der Arztpraxis, im Personalgespräch, in der Kreditentscheidung?

Das Prinzip, das wir nur halb ernst nehmen

Expertinnen und Experten weltweit fordern es für militärische KI-Systeme mit Nachdruck: Der Mensch muss die letzte Entscheidungsinstanz bleiben. KI kann analysieren, priorisieren, empfehlen – aber sie darf nicht das letzte Wort haben, wenn das Ergebnis unumkehrbar ist.

Das klingt vernünftig. Das klingt sogar selbstverständlich. Und genau darin liegt das Problem: Wir wenden diesen Grundsatz nicht konsequent an.

In Unternehmen entscheiden Algorithmen über Bewerbungen. In Banken über Kredite. In Krankenhäusern unterstützen Systeme Diagnosen – und manchmal übernehmen sie diese, ohne dass jemand genau hinschaut. Die Konsequenzen sind selten so dramatisch wie auf einem Schlachtfeld. Aber sie sind real. Und sie sind oft genauso schwer rückgängig zu machen.

Warum „human in the loop“ kein militärischer Begriff ist

Der Begriff stammt aus der Systemtheorie und bezeichnet ganz einfach: Irgendwo im Prozess sitzt ein Mensch, der eingreifen, stoppen, korrigieren kann. Das ist keine Technikfeindlichkeit – das ist Verantwortungsdesign.

Für mich als Humanistin bedeutet das: KI ist dann wertvoll, wenn sie den Menschen befähigt, bessere Entscheidungen zu treffen. Nicht, wenn sie ihn aus dem Entscheidungsprozess herausnimmt.

Der Unterschied klingt subtil. Er ist es nicht. Wer Verantwortung abgibt, gibt Macht ab.

Was das für Führung bedeutet

Führungskräfte, die KI-Systeme einführen, treffen immer auch eine ethische Entscheidung. Die Frage ist nicht nur: Was kann das System? Sondern: Was darf es? Und: Wer trägt die Konsequenzen, wenn es irrt?

Ich beobachte in Organisationen, dass diese Fragen oft nachgelagert gestellt werden – nach der Implementierung, nach dem ersten Problem, nach dem ersten Skandal. Das ist zu spät.

Humainism beginnt vor dem ersten Klick. Es ist eine Haltung, die in der Planungsphase beginnt – bei der Frage, ob und wie ein System eingesetzt werden soll.

Die Konsequenz

Für mich ergibt sich daraus eine klare Positionierung: Ich bin für KI. Für mutige, konsequente, gut gestaltete KI. Aber ich bin dafür, dass sie unter menschlicher Führung steht – immer, nicht nur dort, wo es dramatisch genug klingt, um es einzufordern.

„Human in the loop“ ist kein militärischer Sonderstatus. Es ist ein universelles Prinzip. Und es wird höchste Zeit, dass wir es auch so behandeln.

Weiterführende Lektüre

Für alle, die tiefer einsteigen möchten:
Expertinnen und Experten warnen vor tödlichen Risiken unregulierter KI-Waffen: spiegel.de
EU-AI-Act: Cheat-Sheet: iapp.org
Ethische Leitlinien für KI in Kommunen: kommunal.at

0 Kommentare

Kommentar Schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.

Weitergedacht...