Teil 3 – Wo wir Verantwortung an Systeme delegieren, ohne Governance mitzudenken

Wenn Algorithmen keine Autorität verdienen und ihre Ergebnisse keine Gewissheiten liefern, stellt sich eine naheliegende, aber oft verdrängte Frage: Was passiert eigentlich, wenn wir dennoch nach ihnen handeln? An diesem Punkt verschiebt sich die Diskussion von Erkenntnis zu Verantwortung. Denn spätestens dort, wo aus einer probabilistischen Einschätzung eine reale Handlung wird, entscheidet nicht mehr die Statistik, sondern das System, in das sie eingebettet ist.

 

In vielen gesellschaftlich sensiblen Bereichen geschieht genau das – meist schleichend, selten bewusst. Algorithmen werden nicht offiziell zu Entscheidungsträgern erklärt. Sie ersetzen keine Richter, keine Ärztinnen, keine Polizisten. Und doch beeinflussen sie Entscheidungen so stark, dass sich Verantwortung zunehmend verlagert. Nicht durch einen formalen Akt, sondern durch implizite Delegation.

 

Diese Delegation beginnt oft harmlos. Ein System soll unterstützen, priorisieren, hinweisen. Es soll helfen, Komplexität zu bewältigen, Zeit zu sparen, Risiken besser einzuschätzen. Doch je häufiger seine Empfehlungen genutzt werden, desto stärker prägen sie den Entscheidungsraum. Was vorgeschlagen wird, erscheint plausibel. Was nicht vorgeschlagen wird, gerät aus dem Blick. So entsteht eine neue Normalität, in der menschliche Entscheidungen zwar formal bestehen bleiben, faktisch aber vorstrukturiert sind.

 

Besonders deutlich wird das in der Justiz. Risikobewertungen versprechen objektivere Urteile, weniger Willkür, mehr Konsistenz. Sie liefern Einschätzungen zur Rückfallwahrscheinlichkeit oder zur Gefährlichkeit von Personen. Diese Zahlen sind nicht verbindlich, sie sollen lediglich informieren. Und doch entfalten sie Wirkung. Wer würde es wagen, eine algorithmische Empfehlung vollständig zu ignorieren, wenn sie später als „warnender Hinweis“ dokumentiert ist? Verantwortung verschiebt sich hier nicht, weil Maschinen entscheiden, sondern weil Menschen sich absichern wollen.

 

Ein ähnliches Muster zeigt sich in der Medizin. Diagnosesysteme erkennen Muster, die dem menschlichen Auge entgehen. Sie liefern Wahrscheinlichkeiten für Krankheiten, Therapien oder Verläufe. Auch hier bleibt die Entscheidung formal beim Menschen. Doch psychologisch entsteht ein Druck zur Konformität. Wer von der Empfehlung abweicht, muss dies begründen. Wer ihr folgt, handelt scheinbar rational. So wird Verantwortung nicht aufgehoben, sondern asymmetrisch verteilt. Abweichung wird erklärungsbedürftig, Zustimmung nicht.

 

In der Polizei und im Bereich der Sicherheit wird diese Dynamik noch deutlicher. Prognosesysteme markieren Orte, Zeitfenster oder Personen als risikobehaftet. Sie versprechen Prävention, Effizienz und gezielten Einsatz von Ressourcen. Doch sie verändern zugleich das Verhalten der Institutionen selbst. Wo ein System Risiko signalisiert, wird häufiger kontrolliert. Wo häufiger kontrolliert wird, entstehen mehr Daten. Und diese Daten bestätigen wiederum das ursprüngliche Modell. Verantwortung verschwindet hier nicht, sie wird zirkulär – und dadurch schwer greifbar.

 

Was all diese Beispiele verbindet, ist nicht der Einsatz von Technologie, sondern das Fehlen einer expliziten Governance. Es gibt Regeln für den Betrieb der Systeme, oft auch rechtliche Rahmenbedingungen für ihre Nutzung. Was jedoch fehlt, ist eine klare Auseinandersetzung mit der Frage, wo Verantwortung liegt, wenn algorithmische Einschätzungen handlungsleitend werden. Wer trägt sie, wenn eine Entscheidung formal menschlich ist, faktisch aber systemisch geprägt? Wer haftet, wenn ein Modell verzerrt ist, aber korrekt angewendet wurde?

 

Implizite Delegation ist deshalb so problematisch, weil sie unsichtbar bleibt. Niemand beschliesst bewusst, Verantwortung abzugeben. Sie verlagert sich im Alltag, im Prozess, in der Routine. Entscheidungen wirken sachlich, neutral, datenbasiert. Und genau dadurch verlieren sie ihren normativen Charakter. Was eigentlich eine Abwägung wäre, erscheint als technische Notwendigkeit. Was diskutiert werden müsste, wird operationalisiert.

 

Hier zeigt sich der eigentliche Governance-Konflikt. Governance bedeutet nicht, Systeme zu verbieten oder Menschen durch Maschinen zu ersetzen. Governance bedeutet, Entscheidungsräume bewusst zu gestalten. Sie macht sichtbar, wo algorithmische Unterstützung endet und menschliche Verantwortung beginnt. Sie zwingt dazu, Annahmen offen zu legen, Zuständigkeiten zu klären und Einspruchsmöglichkeiten zu schaffen. Vor allem aber akzeptiert sie, dass nicht jede Entscheidung optimiert werden kann, ohne normative Fragen zu berühren.

 

Gerade im öffentlichen Sektor ist diese Klarheit entscheidend. Staatliche Institutionen tragen eine besondere Verantwortung, weil ihre Entscheidungen nicht nur individuell, sondern strukturell wirken. Wenn dort Verantwortung schleichend an Systeme delegiert wird, ohne dass Governance-Mechanismen mithalten, entsteht ein Demokratiedefizit. Entscheidungen bleiben nachvollziehbar im Prozess, aber unklar in ihrer Legitimation. Bürgerinnen und Bürger können sich gegen ein Urteil wehren, aber nicht gegen ein Modell, dessen Logik verborgen bleibt.

 

Dabei wäre es ein Missverständnis, Governance als Bremse zu begreifen. Im Gegenteil. Gute Governance ermöglicht den verantwortungsvollen Einsatz von Algorithmen erst. Sie schafft Räume für Unterstützung, ohne Entscheidungsmacht zu verschleiern. Sie erlaubt Nutzung, ohne Autorität zu verleihen. Und sie hält fest, dass Verantwortung dort bleiben muss, wo auch die Folgen getragen werden.

 

Vielleicht lässt sich der Kern dieses Problems so zuspitzen: Algorithmen delegieren keine Verantwortung. Wir tun es. Nicht aus Bosheit, sondern aus Effizienzdenken, aus Unsicherheit und aus dem Wunsch nach Absicherung. Doch genau deshalb müssen wir diese Delegation sichtbar machen, bevor sie zur Selbstverständlichkeit wird.

 

Denn dort, wo Verantwortung nicht mehr klar zugeordnet ist, entsteht eine Lücke, die weder Technik noch Recht schliessen können. Und genau in dieser Lücke entscheidet sich, ob Algorithmen Werkzeuge bleiben – oder zu stillen Instanzen werden.

 

Im nächsten Teil geht es deshalb um eine Grenze, die sich nicht institutionell regeln lässt. Um Situationen, in denen keine Governance-Struktur der Welt die Entscheidung abnehmen kann. Und um die Frage, warum Gewissen nicht algorithmisierbar ist.