Die folgenden Überlegungen bauen wesentlich auf Gedanken aus dem Buch Hello World von Hannah Fry auf. Fry analysiert darin nicht Künstliche Intelligenz als Zukunftsversprechen, sondern als reale, bereits eingesetzte Systeme, die heute Entscheidungen vorbereiten, beeinflussen oder treffen – oft unbemerkt, oft ohne ausreichende Kontrolle. Ihre Stärke liegt dabei nicht in technischen Details, sondern in der präzisen Beschreibung eines gesellschaftlichen Problems: der stillen Autorität, die wir algorithmischen Systemen zuschreiben, sobald sie mit Zahlen, Modellen und Wahrscheinlichkeiten operieren. Die Gedanken dieses Textes verstehen sich als Weiterführung und Zuspitzung dieser Perspektive – nicht als Ersatz, sondern als bewusste Auseinandersetzung mit ihren Konsequenzen.
Wenn im Folgenden von Algorithmen die Rede ist und nicht pauschal von „KI“, dann geschieht das absichtlich. Die meisten Systeme, die heute über Kredite, Risiken, Diagnosen, Strafen oder Prioritäten entscheiden, sind keine denkenden Maschinen im populären Sinn. Es sind statistische Modelle, regelbasierte Verfahren, Optimierungsalgorithmen und lernende Systeme, die auf Daten aus der Vergangenheit zurückgreifen. Sie besitzen kein Verständnis, kein Bewusstsein und kein Gewissen. Und gerade deshalb ist es entscheidend, sie korrekt zu benennen. Denn die Probleme, die Hannah Fry beschreibt – Verzerrungen, Autoritätsillusionen, Verantwortungsverschiebung – entstehen nicht durch eine ferne Superintelligenz, wie sie Max Tegmark in Leben 3.0 beschrieben hat, sondern durch ganz konkrete algorithmische Systeme, die längst Teil unseres Alltags sind.
Wir leben in einer Zeit, in der Maschinen rechnen, klassifizieren, vorhersagen und entscheiden. Und je mehr sie das tun, desto selbstverständlicher scheint es zu werden, ihren Ergebnissen zu vertrauen. Nicht unbedingt, weil wir sie verstehen, sondern weil sie präzise wirken. Zahlen erscheinen objektiv. Modelle neutral. Algorithmen emotionslos. Und genau daraus entsteht eine neue Form von Autorität, die selten offen benannt wird, aber tief in unseren Alltag eingesickert ist.
Der Satz „Der Computer hat gesagt …“ beendet heute Diskussionen, bevor sie überhaupt begonnen haben. Er taucht in Gerichtssälen auf, in Arztgesprächen, in Bewerbungsverfahren, in der Kreditvergabe und längst auch in politischen und administrativen Entscheidungsprozessen. Was früher eine Empfehlung war, wird zur Begründung. Was als Unterstützung gedacht war, wird zur Rechtfertigung. Und was eigentlich hinterfragt werden müsste, erhält den Anschein von Unangreifbarkeit.
Diese Autorität entsteht nicht, weil Algorithmen unfehlbar wären. Im Gegenteil. Sie entsteht, weil wir ihnen Eigenschaften zuschreiben, die sie nicht besitzen. Objektivität. Neutralität. Rationalität. Eigenschaften, die wir aus der Mathematik kennen, übertragen wir unbewusst auf Systeme, die auf Daten basieren – und übersehen dabei, dass Daten immer aus menschlichen Entscheidungen entstehen. Welche Daten gesammelt werden, welche nicht. Wie sie gewichtet werden. Welche Annahmen in ein Modell einfliessen. Welche Fehler toleriert werden und welche nicht. All das sind menschliche Setzungen, keine naturgegebenen Wahrheiten.
Gerade für Nicht-Technikerinnen und Nicht-Techniker ist diese Autoritätsillusion besonders wirksam. Algorithmen sind unsichtbar. Ihre Funktionsweise bleibt abstrakt. Ihre Ergebnisse hingegen sind konkret: ein Score, eine Empfehlung, eine Rangliste, eine Prognose. Wer nicht sieht, wie ein System zu seinem Ergebnis gelangt, neigt dazu, dieses Ergebnis für objektiv zu halten. Und wer sich selbst als weniger kompetent empfindet als eine Maschine, ist schneller bereit, Verantwortung abzugeben.
Doch genau hier liegt der Kern des Problems. Algorithmen sind keine Akteure mit Verständnis, Intuition oder Gewissen. Sie erkennen Muster, keine Bedeutungen. Sie optimieren Zielgrössen, keine Werte. Sie berechnen Wahrscheinlichkeiten, aber sie wissen nicht, was auf dem Spiel steht. Wenn wir ihnen Autorität zuschreiben, verschieben wir Verantwortung – nicht offen, sondern schleichend. Entscheidungen wirken alternativlos, obwohl sie es nicht sind. Fehler erscheinen systemisch, obwohl sie gestaltbar wären. Und Ungerechtigkeiten lassen sich leichter akzeptieren, wenn sie als Ergebnis eines „neutralen Systems“ erscheinen.
Das Paradoxe ist: Je leistungsfähiger Algorithmen werden, desto gefährlicher wird diese Verwechslung. Nicht, weil die Systeme schlechter werden, sondern weil ihr Nutzen uns dazu verleitet, sie über ihre Rolle hinaus ernst zu nehmen. Ein System, das in vielen Fällen richtig liegt, wirkt glaubwürdiger auch dort, wo es irrt. Ein Modell, das effizient ist, wird schneller als gerecht wahrgenommen. Und ein Algorithmus, der konsistent entscheidet, erscheint fairer als ein Mensch – selbst wenn er systematisch verzerrt ist.
Dabei zeigt sich immer wieder: Algorithmen machen keine neuen Fehlerarten. Sie skalieren bestehende. Sie verstärken Muster aus der Vergangenheit. Sie reproduzieren gesellschaftliche Ungleichheiten mit mathematischer Präzision. Und sie tun dies nicht aus Bosheit, sondern aus Logik. Genau deshalb ist blinder Glaube an ihre Ergebnisse so problematisch. Denn Logik ersetzt kein Urteil. Berechnung ersetzt kein Gewissen. Und Konsistenz ersetzt keine Verantwortung.
Was wir oft übersehen: Autorität ist keine Eigenschaft von Systemen, sondern eine Beziehung. Sie entsteht dort, wo Menschen aufhören zu hinterfragen. Wo sie Ergebnisse akzeptieren, weil sie plausibel wirken. Wo sie Verantwortung delegieren, weil Entscheidungen unbequem sind. Algorithmen fordern diese Autorität nicht ein – wir verleihen sie ihnen. Und genau deshalb können wir sie ihnen auch wieder entziehen.
Das bedeutet nicht, Algorithmen abzulehnen. Im Gegenteil. Ihre Stärke liegt genau dort, wo sie uns unterstützen, nicht ersetzen. Wo sie Optionen aufzeigen statt Entscheidungen treffen. Wo sie Unsicherheit sichtbar machen statt sie zu verdecken. Wo sie erklären, statt nur zu urteilen. Ein Algorithmus, der seine eigenen Grenzen offenlegt, ist wertvoller als einer, der perfekte Antworten simuliert.
Vielleicht ist das die entscheidende Unterscheidung: Ob wir Algorithmen als Werkzeuge begreifen oder als Instanzen. Als Hilfsmittel für menschliche Verantwortung – oder als Ersatz für sie. Die eigentliche Gefahr liegt nicht in der Technologie selbst, sondern in unserer Bereitschaft, ihr Autorität zuzuschreiben, nur weil sie rechnet.
Denn eines bleibt unverändert: Verantwortung lässt sich nicht automatisieren. Sie kann nur getragen werden. Und zwar von Menschen.
Wenn Algorithmen keine Autorität verdienen, stellt sich zwangsläufig die nächste Frage:
Warum behandeln wir ihre Ergebnisse dennoch oft so, als wären sie objektive Wahrheiten? Nicht aus Bosheit, sondern aus Bequemlichkeit. Aus Unsicherheit. Und aus dem tiefen menschlichen Wunsch nach Klarheit in einer komplexen Welt.
Im nächsten Teil geht es deshalb nicht um Technik im engeren Sinn, sondern um Gewissheit – und um die Illusion davon. Um Entscheidungen, die auf Wahrscheinlichkeiten beruhen, aber als Wahrheiten gelesen werden. Und darum, warum genau dieses Missverständnis gefährlicher ist als viele algorithmische Fehler selbst.