Teil 4 – Warum Gewissen nicht algorithmisierbar ist

Es gibt Situationen, in denen jede Entscheidung falsch ist. Nicht im technischen Sinn, sondern im menschlichen. Situationen, in denen sich keine Option wählen lässt, ohne einen Preis zu zahlen, der sich nicht verrechnen, ausgleichen oder relativieren lässt. Gerade in solchen Momenten zeigt sich eine Grenze, die weder Rechenleistung noch bessere Daten überwinden können. Es ist die Grenze zwischen Entscheiden und Verantworten.

 

Moralische Dilemmata sind deshalb so verstörend, weil sie sich einer Optimierung entziehen. Sie lassen sich nicht lösen, sondern nur durchleben. Jede Wahl schliesst etwas aus, jede Handlung trägt Schuld in sich, jede Entscheidung hinterlässt Spuren. Genau deshalb sind diese Situationen für algorithmische Systeme besonders problematisch – nicht weil sie zu komplex wären, sondern weil sie etwas verlangen, das Maschinen prinzipiell nicht besitzen: ein Gewissen.

 

Ein einfaches Beispiel macht das deutlich. Man stelle sich vor, man fährt allein in einem Auto und gerät in eine Extremsituation. Entweder man steuert gegen eine Wand und riskiert das eigene Leben, oder man fährt weiter und verletzt andere. Für viele ist die Entscheidung hier klar. Das eigene Leben zu riskieren erscheint tragbar, vielleicht sogar geboten. Doch dieselbe Situation verändert sich fundamental, wenn die eigenen Kinder im Auto sitzen. Plötzlich verschiebt sich die moralische Gewichtung. Nicht, weil sich die Fakten geändert hätten, sondern weil Verantwortung konkret geworden ist.

 

Diese Verschiebung ist rational kaum vollständig begründbar – und genau deshalb ist sie menschlich. Gewissen funktioniert nicht wie eine Nutzenfunktion. Es rechnet nicht abstrakt, sondern ist verkörpert. Es ist an Beziehungen gebunden, an Verpflichtungen, an Rollen. Ein Elternteil trägt eine andere Verantwortung als ein Unbeteiligter. Diese Verantwortung lässt sich nicht neutralisieren, ohne den Begriff selbst zu entleeren.

 

Algorithmen können solche Situationen berechnen. Sie können Optionen vergleichen, Wahrscheinlichkeiten gewichten, Schäden minimieren. Doch was sie nicht können, ist mit den Folgen leben. Sie tragen keine Schuld. Sie trauern nicht. Sie müssen ihre Entscheidung niemandem erklären, der mit ihr weiterleben muss. Genau hier liegt der entscheidende Unterschied zwischen Entscheidung und Verantwortbarkeit.

 

Eine Entscheidung ist ein Akt. Verantwortbarkeit ist ein Zustand. Sie beginnt dort, wo die Entscheidung nicht mehr rückgängig gemacht werden kann. Dort, wo jemand die Konsequenzen trägt – emotional, sozial, biografisch. Gewissen ist genau dieser innere Raum, in dem wir uns zu unseren Entscheidungen verhalten, auch nachdem sie gefallen sind. Es ist kein Regelwerk, sondern ein Verhältnis zu sich selbst und zu anderen.

 

Deshalb scheitern Versuche, moralische Dilemmata algorithmisch zu lösen, nicht an mangelnder Intelligenz, sondern an einem Kategorienfehler. Sie behandeln Moral als Optimierungsproblem, obwohl sie ein Verantwortungsproblem ist. Sie suchen nach der „richtigen“ Entscheidung, wo es in Wahrheit nur tragbare und untragbare gibt. Und was tragbar ist, lässt sich nicht universell festlegen, sondern entsteht aus konkreten Bindungen.

 

Das bedeutet nicht, dass Menschen immer besser entscheiden. Auch menschliche Entscheidungen sind fehlerhaft, widersprüchlich, emotional. Doch sie sind eingebettet in ein System von Verantwortlichkeit. Ein Mensch kann sich schuldig fühlen. Er kann zweifeln. Er kann bereuen. Und er kann – zumindest theoretisch – zur Rechenschaft gezogen werden. All das sind keine Nebeneffekte, sondern konstitutive Elemente moralischen Handelns.

 

Gerade im Kontext autonomer Systeme wird dieser Unterschied oft verwischt. Wenn Algorithmen Entscheidungen vorbereiten oder sogar ausführen, entsteht die Versuchung, Verantwortung mitzudelegieren. Die Entscheidung erscheint dann als Ergebnis eines Systems, nicht mehr als Akt eines Menschen. Doch dort, wo wir beginnen, Gewissen aus dem Entscheidungsprozess auszulagern, verlieren Entscheidungen ihren moralischen Kern.

 

Das zeigt sich besonders deutlich in Debatten über autonome Fahrzeuge, militärische Systeme oder algorithmische Urteilsfindung. Die Frage lautet dort oft: Was ist die richtige Entscheidung? Wen soll das System schützen? Wen darf es opfern? Doch diese Fragen setzen bereits voraus, dass es eine berechenbare Antwort gibt. Sie übersehen, dass Moral nicht aus der Entscheidung selbst entsteht, sondern aus der Verantwortung, die jemand für sie übernimmt.

 

Vielleicht ist genau das die Grenze, an der wir innehalten müssen. Nicht jede Entscheidung, die technisch möglich ist, sollte automatisiert werden. Nicht jede Abwägung, die berechenbar erscheint, ist moralisch delegierbar. Dort, wo Gewissen gefragt ist, endet die Zuständigkeit von Algorithmen – nicht weil sie zu schwach sind, sondern weil sie zu fremd bleiben.

 

Das heisst nicht, dass Maschinen keine Rolle spielen dürfen. Sie können informieren, simulieren, auf Risiken hinweisen. Sie können Optionen sichtbar machen und Unsicherheiten quantifizieren. Doch sie dürfen nicht an die Stelle treten, an der Menschen Verantwortung übernehmen müssen. Gewissen lässt sich nicht auslagern, ohne seinen Sinn zu verlieren.

 

Im nächsten Teil wird es deshalb nicht um Moral im engeren Sinn gehen, sondern um einen häufigen Umweg in der Debatte. Um die Fixierung auf Bias, Fairness und Fehlerquoten – und um die Frage, warum das eigentliche Problem oft nicht die Verzerrung ist, sondern die Autorität, die wir Systemen zuschreiben. Denn selbst ein perfekter Algorithmus bleibt problematisch, wenn er unanfechtbar wird.