Wenn Algorithmen keine Autorität verdienen, liegt das nicht daran, dass sie schlecht rechnen. Im Gegenteil: Ihre Stärke liegt gerade darin, mit Unsicherheit umzugehen. Das eigentliche Problem beginnt dort, wo wir ihre Ergebnisse missverstehen. Wo wir Wahrscheinlichkeiten als Wahrheiten lesen und Prognosen wie Urteile behandeln. Genau an diesem Punkt wird aus nützlicher Berechnung eine trügerische Gewissheit.
Die meisten algorithmischen Systeme, die heute Entscheidungen vorbereiten oder beeinflussen, arbeiten nicht mit Wissen im klassischen Sinn. Sie wissen nicht, wie die Welt ist. Sie schätzen ein, wie wahrscheinlich bestimmte Zustände oder Ereignisse sind. Ihre Aussagen lauten nicht „Das ist so“, sondern „Unter diesen Annahmen ist dies wahrscheinlicher als etwas anderes“. Dieser Unterschied scheint klein, ist aber fundamental. Denn er entscheidet darüber, ob wir Systeme als Hilfsmittel begreifen oder ihnen eine epistemische Autorität zuschreiben, die sie nicht besitzen.
Dieses Denken auf Basis von Wahrscheinlichkeiten lässt sich gut mit dem Begriff der probabilistischen Inferenz beschreiben. Er bezeichnet einen Ansatz, bei dem Annahmen laufend angepasst werden, sobald neue Informationen verfügbar sind. Statt nach Gewissheit zu streben, akzeptiert probabilistische Inferenz Unsicherheit als Normalzustand. Entscheidungen werden nicht trotz Unsicherheit getroffen, sondern gerade wegen ihr. Sie sind immer vorläufig, immer korrigierbar, immer abhängig vom aktuellen Wissensstand.
Ein zentrales Denkmodell dafür ist der Satz von Bayes. In vereinfachter Form beschreibt er nichts anderes als die Kunst, Überzeugungen zu aktualisieren. Man beginnt mit einer Annahme, erhält neue Hinweise und passt diese Annahme entsprechend an. Wichtig ist dabei nicht die mathematische Formel, sondern die Haltung dahinter. Bayes zwingt uns, offen zu bleiben für die Möglichkeit, falsch zu liegen. Er institutionalisiert Zweifel. Und genau das macht ihn so menschlich.
Denn auch menschliche Entscheidungen funktionieren selten auf Basis von Gewissheiten. Ärztinnen stellen Diagnosen unter Unsicherheit. Richter urteilen mit unvollständigen Informationen. Manager treffen strategische Entscheidungen, ohne alle Folgen absehen zu können. Politiker handeln unter Zeitdruck, mit widersprüchlichen Daten und unklaren Konsequenzen. In all diesen Fällen geht es nicht darum, die Wahrheit zu kennen, sondern darum, mit Unsicherheit verantwortungsvoll umzugehen.
Algorithmen unterscheiden sich hierin weniger von Menschen, als oft angenommen wird. Auch sie operieren unter Unsicherheit. Auch sie extrapolieren aus der Vergangenheit. Auch sie sind auf Annahmen angewiesen. Der entscheidende Unterschied liegt nicht in der Logik, sondern in der Wahrnehmung. Während wir menschliche Entscheidungen als fehlbar akzeptieren, erwarten wir von Maschinen Klarheit. Wo ein Mensch zögert, wirkt der Algorithmus entschlossen. Wo ein Mensch Zweifel äussert, liefert das System eine Zahl. Und genau diese Zahl verleitet uns dazu, Unsicherheit zu übersehen.
Besonders problematisch wird das dort, wo Wahrscheinlichkeiten implizit in Handlungen übersetzt werden. Ein Rückfallrisiko von 30 Prozent wird plötzlich zu einem härteren Urteil. Eine statistische Auffälligkeit wird zum Verdachtsmoment. Eine Prognose wird zur Rechtfertigung. In solchen Momenten verliert die probabilistische Aussage ihren vorläufigen Charakter. Sie wird behandelt, als hätte sie eine Wahrheit entdeckt, obwohl sie lediglich eine Einschätzung geliefert hat.
Dieses Missverständnis ist nicht nur ein technisches Detail, sondern hat weitreichende Konsequenzen für Organisationen, Institutionen und politische Systeme. In Unternehmen werden datenbasierte Prognosen als Entscheidungsgrundlage genutzt, ohne dass ihre Unsicherheit explizit thematisiert wird. In der Politik dienen Modelle als Legitimation für Massnahmen, obwohl ihre Annahmen umstritten sind. In Verwaltungen entsteht der Eindruck objektiver Notwendigkeit, wo in Wirklichkeit normative Entscheidungen getroffen werden.
Gerade im Management zeigt sich diese Dynamik besonders deutlich. Kennzahlen, Scores und Forecasts suggerieren Kontrolle. Sie schaffen das Gefühl, komplexe Zusammenhänge beherrschbar zu machen. Doch je stärker sich Organisationen auf solche Modelle verlassen, desto grösser wird die Gefahr, dass sie Verantwortung an Zahlen delegieren. Entscheidungen wirken rational, obwohl sie auf Annahmen beruhen. Strategien erscheinen alternativlos, obwohl sie kontingent sind. Und Fehler lassen sich leichter rechtfertigen, wenn sie statistisch erklärbar sind.
Dabei ist Unsicherheit kein Makel, den es zu beseitigen gilt. Sie ist ein Wesensmerkmal komplexer Systeme. Probabilistische Inferenz ist deshalb kein Zeichen von Schwäche, sondern von Reife. Sie anerkennt die Grenzen von Wissen und macht sie sichtbar. Sie erlaubt Lernen, Korrektur und Anpassung. Problematisch wird es erst, wenn diese Unsicherheit verdeckt wird – sei es aus Effizienzgründen, aus politischem Druck oder aus dem Wunsch nach einfachen Antworten.
Vielleicht liegt genau hier der entscheidende Punkt: Algorithmen sind nicht deshalb gefährlich, weil sie mit Wahrscheinlichkeiten arbeiten, sondern weil wir so tun, als täten sie es nicht. Wir verlangen von ihnen Gewissheit und bestrafen sie, wenn sie diese nicht liefern. Gleichzeitig nutzen wir ihre Ergebnisse, um Unsicherheit zu verdrängen, statt sie auszuhalten. So entsteht eine paradoxe Situation: Systeme, die eigentlich Zweifel institutionalisieren könnten, werden zu Instrumenten scheinbarer Sicherheit.
Diese Spannung wird uns im nächsten Schritt noch intensiver beschäftigen. Denn sobald Wahrscheinlichkeiten als Entscheidungsgrundlage dienen, stellt sich eine weitere Frage, die sich nicht mathematisch beantworten lässt. Wer trägt die Verantwortung, wenn aus einer probabilistischen Einschätzung eine reale Handlung wird? Und wo delegieren wir diese Verantwortung an Systeme, ohne es explizit zu reflektieren?
Darum geht es im nächsten Teil.