Teil 5 – Bias ist nicht das Problem – Autorität ist es

Kaum ein Begriff prägt die öffentliche Debatte über algorithmische Systeme so stark wie Bias. Verzerrungen in Daten, diskriminierende Effekte, unfaire Ergebnisse. Der Vorwurf liegt nahe, scheint technisch greifbar und moralisch eindeutig. Ein System ist voreingenommen, also muss es verbessert werden. Mehr Daten, bessere Modelle, höhere Genauigkeit. Doch genau hier beginnt eine gefährliche Verkürzung. Denn Bias ist selten das eigentliche Problem. Er ist sichtbar, messbar, kritisierbar – aber nicht der Kern.

 

Das eigentliche Problem liegt tiefer. Es liegt dort, wo algorithmischen Systemen Autorität zugeschrieben wird. Wo ihre Ergebnisse nicht mehr als Einschätzungen behandelt werden, sondern als Entscheidungen. Wo sie nicht mehr angefochten, sondern akzeptiert werden. Ein verzerrtes System ist problematisch. Ein unanfechtbares System ist gefährlich – selbst dann, wenn es statistisch korrekt arbeitet.

 

Ein gutes Beispiel dafür ist PredPol, ein Prognosesystem zur Vorhersage von Kriminalitätsschwerpunkten. Es analysiert vergangene Delikte und errechnet Wahrscheinlichkeiten dafür, wo künftig Straftaten auftreten könnten. Auf den ersten Blick wirkt das rational. Ressourcen sollen dort eingesetzt werden, wo das Risiko höher ist. Doch das System lernt aus historischen Daten – und diese Daten spiegeln bestehende polizeiliche Praktiken wider. Wo früher häufiger kontrolliert wurde, gibt es mehr registrierte Delikte. Wo mehr registrierte Delikte existieren, steigt die prognostizierte Wahrscheinlichkeit. Das System bestätigt, was es selbst mit hervorbringt.

 

Oft wird dieser Effekt als Bias beschrieben. Und das ist nicht falsch. Doch entscheidender als die Verzerrung ist etwas anderes: die Wirkung der Prognose. Wo ein System Risiko markiert, wird mehr kontrolliert. Wo mehr kontrolliert wird, entsteht mehr Datenmaterial. Und wo mehr Daten entstehen, wächst die Autorität des Systems. Nicht, weil es objektiver wird, sondern weil es sich selbst stabilisiert. Der Bias ist sichtbar. Die Autorität bleibt unsichtbar.

 

Ähnlich verhält es sich bei Gesichtserkennungssystemen. Zahlreiche Studien zeigen, dass solche Systeme bei bestimmten Bevölkerungsgruppen schlechter funktionieren als bei anderen. Diese Ungleichheit wird oft als zentrales Problem diskutiert. Doch selbst ein technisch perfektes System würde das grundlegende Dilemma nicht lösen. Denn die entscheidende Frage lautet nicht, ob das System jemanden korrekt identifiziert, sondern welche Rolle diese Identifikation spielt. Wird sie als Hinweis verstanden – oder als Beweis?

 

Sobald algorithmische Ergebnisse faktisch unanfechtbar werden, verliert der Mensch seine Rolle als Urteilender. Entscheidungen verschieben sich vom Diskurs zur Technik. Wer von einer algorithmischen Einschätzung betroffen ist, muss nicht mehr gegen eine Person argumentieren, sondern gegen ein System. Und Systeme lassen sich schwerer hinterfragen als Menschen. Sie haben keine Intuition, keine Emotion, keinen Kontext – aber sie haben den Anschein von Neutralität.

 

Hier zeigt sich, warum Anfechtbarkeit wichtiger ist als Perfektion. Ein fehlerfreies, aber unanfechtbares System ist demokratisch problematischer als ein fehlerhaftes, aber hinterfragbares. Denn in komplexen gesellschaftlichen Kontexten ist Irrtum unvermeidlich. Entscheidend ist nicht, ob Fehler auftreten, sondern wie mit ihnen umgegangen wird. Wer sie erkennen, erklären und korrigieren kann, behält Handlungsmacht. Wer sie nur hinnimmt, verliert sie.

 

Die Fixierung auf Bias verengt deshalb den Blick. Sie suggeriert, dass das Problem technisch lösbar sei. Als bräuchte es nur bessere Daten, ausgefeiltere Modelle, strengere Tests. Doch selbst ein ideales System bleibt normativ. Es setzt Prioritäten, gewichtet Risiken, definiert Relevanz. Und genau diese Setzungen sind nicht neutral, sondern politisch und gesellschaftlich wirksam.

 

Autorität entsteht nicht durch Genauigkeit, sondern durch Akzeptanz. Sie entsteht dort, wo Ergebnisse nicht mehr begründet, sondern übernommen werden. Wo Zahlen Diskussionen ersetzen. Wo Effizienz als Rechtfertigung dient. In solchen Momenten spielt es kaum noch eine Rolle, ob ein System biased ist. Entscheidend ist, dass ihm geglaubt wird.

 

Deshalb greift auch die Forderung nach „fairen Algorithmen“ zu kurz, wenn sie nicht von einer Governance-Perspektive begleitet wird. Fairness ist kein rein technisches Kriterium. Sie setzt voraus, dass Betroffene Einspruch erheben können, dass Entscheidungen erklärbar bleiben, dass Verantwortlichkeiten klar benannt sind. Ein System kann statistisch fair sein und dennoch autoritär wirken, wenn es nicht anfechtbar ist.

 

Vielleicht lässt sich der Kern dieses Problems so zusammenfassen: Bias ist sichtbar und deshalb kritisierbar. Autorität ist leise und deshalb gefährlicher. Sie wirkt nicht durch Fehler, sondern durch Selbstverständlichkeit. Und genau deshalb sollte sich die Debatte weniger darauf konzentrieren, Systeme perfekt zu machen, und stärker darauf, sie begrenzt zu halten.

 

Im nächsten Teil wird diese Machtfrage noch konkreter. Denn Autorität entsteht nicht nur durch Modelle, sondern durch Daten. Durch das, was gesammelt, gespeichert, verknüpft und ausgewertet wird. Und durch das, was sich der Beobachtung entzieht. Datenschutz ist deshalb kein Nebenthema, sondern eine Frage darüber, wer sehen darf, wer gesehen wird – und wer am Ende den Preis dafür zahlt.