Digitale Transformation beginnt bei Entscheidungen – nicht bei Tools.

Jenseits von Technologie. Hin zu Klarheit.

In diesem Blog teile ich Gedanken, Erfahrungen und Einordnungen rund um Digitalisierung, KI, Cyber-Security und Organisation – aus strategischer Perspektive, praxisnah und verständlich.

Algorithmen, Verantwortung & Gesellschaft

In dieser Beitragsreihe setze ich mich mit algorithmischen Systemen auseinander, die heute bereits Entscheidungen vorbereiten, beeinflussen oder faktisch prägen – oft unsichtbar, oft unhinterfragt. Im Fokus stehen nicht technische Details, sondern die gesellschaftlichen Folgen dieser Systeme: Fragen von Autorität, Verantwortung, Gewissheit, Macht und Governance.

 

Ausgehend von den Gedanken aus Hello World von Hannah Fry entwickle ich hier eine eigene Perspektive auf Algorithmen als soziale Akteure: nicht, weil sie handeln, sondern weil wir nach ihnen handeln. Die Beiträge richten sich bewusst an ein breites Publikum – an Menschen aus Verwaltung, Politik, Wirtschaft und Gesellschaft, die verstehen wollen, wie algorithmische Systeme unsere Entscheidungsräume verändern und warum menschliche Verantwortung dadurch nicht geringer, sondern grösser wird.

Teil 4 – Warum Gewissen nicht algorithmisierbar ist

Es gibt Situationen, in denen jede Entscheidung falsch ist. Nicht im technischen Sinn, sondern im menschlichen. Situationen, in denen sich keine Option wählen lässt, ohne einen Preis zu zahlen, der sich nicht verrechnen, ausgleichen oder relativieren lässt. Gerade in solchen Momenten zeigt sich eine Grenze, die weder Rechenleistung noch bessere Daten überwinden können. Es ist die Grenze zwischen Entscheiden und Verantworten.

Weiterlesen »

Teil 3 – Wo wir Verantwortung an Systeme delegieren, ohne Governance mitzudenken

Wenn Algorithmen keine Autorität verdienen und ihre Ergebnisse keine Gewissheiten liefern, stellt sich eine naheliegende, aber oft verdrängte Frage: Was passiert eigentlich, wenn wir dennoch nach ihnen handeln? An diesem Punkt verschiebt sich die Diskussion von Erkenntnis zu Verantwortung. Denn spätestens dort, wo aus einer probabilistischen Einschätzung eine reale Handlung wird, entscheidet nicht mehr die Statistik, sondern das System, in das sie eingebettet ist.

Weiterlesen »

Teil 2 – Probabilistische Inferenz: Warum KI nie Gewissheit kennt

Wenn Algorithmen keine Autorität verdienen, liegt das nicht daran, dass sie schlecht rechnen. Im Gegenteil: Ihre Stärke liegt gerade darin, mit Unsicherheit umzugehen. Das eigentliche Problem beginnt dort, wo wir ihre Ergebnisse missverstehen. Wo wir Wahrscheinlichkeiten als Wahrheiten lesen und Prognosen wie Urteile behandeln. Genau an diesem Punkt wird aus nützlicher Berechnung eine trügerische Gewissheit.

Weiterlesen »

Teil 1 – Warum Algorithmen keine Autorität verdienen

Die folgenden Überlegungen bauen wesentlich auf Gedanken aus dem Buch Hello World von Hannah Fry auf. Fry analysiert darin nicht Künstliche Intelligenz als Zukunftsversprechen, sondern als reale, bereits eingesetzte Systeme, die heute Entscheidungen vorbereiten, beeinflussen oder treffen – oft unbemerkt, oft ohne ausreichende Kontrolle. Ihre Stärke liegt dabei nicht in technischen Details, sondern in der präzisen Beschreibung eines gesellschaftlichen Problems: der stillen Autorität, die wir algorithmischen Systemen zuschreiben, sobald sie mit Zahlen, Modellen und Wahrscheinlichkeiten operieren. Die Gedanken dieses Textes verstehen sich als Weiterführung und Zuspitzung dieser Perspektive – nicht als Ersatz, sondern als bewusste Auseinandersetzung mit ihren Konsequenzen.

Weiterlesen »

Künstliche Intelligenz & Governance

In diesem Abschnitt beschäftige ich mich mit Künstlicher Intelligenz aus einer Governance-Perspektive.

Im Zentrum stehen nicht Algorithmen oder Tools, sondern Fragen nach Entscheidungen, Verantwortung, Zielsetzung und menschlicher Rolle in zunehmend automatisierten Systemen.

Die Beiträge verstehen sich als Einordnung aktueller Entwicklungen – jenseits von Hype und Technikfixierung. Sie richten den Blick auf Strukturen, Entscheidungsprozesse und die Frage, wie KI verantwortungsvoll gestaltet und geführt werden kann.

Nicht das Universum gibt Sinn – sondern bewusste Wesen

Die Frage nach Sinn begleitet die Menschheit, seit sie sich ihrer selbst bewusst ist. Sie taucht in Religionen, in Philosophien, in Kunst und Wissenschaft immer wieder auf. Und sie gewinnt in Zeiten technologischer Umbrüche eine neue Schärfe. Je grösser die Systeme werden, die wir erschaffen, je komplexer und mächtiger sie erscheinen, desto häufiger richtet sich der Blick nach aussen: auf das Universum, auf Evolution, auf kosmische Entwicklungen – in der Hoffnung, dort eine Antwort zu finden.

Weiterlesen »

Warum der Mensch auch ohne „Überlegenheit“ Sinn und Verantwortung behält

Mit dem rasanten Fortschritt Künstlicher Intelligenz wird eine Sorge immer wieder formuliert, oft unausgesprochen, manchmal sehr deutlich: Was bleibt vom Menschen, wenn Maschinen uns in immer mehr Bereichen übertreffen? Nicht nur in Rechenleistung oder Mustererkennung, sondern potenziell auch in strategischem Denken, wissenschaftlicher Analyse oder kreativer Problemlösung. Hinter dieser Sorge steht eine tief verwurzelte Annahme, die selten hinterfragt wird: dass Sinn, Wert und Verantwortung des Menschen an seine Überlegenheit gebunden sind.

Weiterlesen »

Müssen wir verstehen, was KI „ist“, um zu wissen, wie wir mit ihr umgehen sollen?

In der Debatte rund um Künstliche Intelligenz taucht immer wieder dieselbe Grundannahme auf: Bevor wir KI sinnvoll regulieren, steuern oder verantworten können, müssten wir zuerst verstehen, was sie eigentlich ist. Ist sie nur ein Werkzeug? Ein intelligentes System? Ein zukünftiges bewusstes Wesen? Diese Fragen sind faszinierend, philosophisch anspruchsvoll und intellektuell reizvoll. Doch sie führen uns genau dort in die Irre, wo es eigentlich konkret werden müsste.

Weiterlesen »

Das eigentliche KI-Problem ist kein Technikproblem, sondern ein Entscheidungsproblem

Wenn über die Risiken und Herausforderungen von Künstlicher Intelligenz gesprochen wird, richtet sich der Blick fast reflexartig auf die Technik. Modelle werden grösser, Rechenleistung steigt, Systeme werden schneller und autonomer. Daraus entsteht die Sorge, KI könne den Menschen technisch überholen und damit ausser Kontrolle geraten. Diese Sorge ist verständlich, greift jedoch zu kurz. Denn das eigentliche Problem liegt nicht in der Leistungsfähigkeit der Systeme, sondern in der Art und Weise, wie Entscheidungen rund um diese Systeme getroffen werden.

Weiterlesen »

Warum feste KI-Ziele gefährlich sind und weshalb Governance wichtiger ist als Zieldefinition

Mit der zunehmenden Leistungsfähigkeit von Künstlicher Intelligenz wächst auch die Unsicherheit darüber, wie diese Systeme langfristig gesteuert werden sollen. Spätestens seit der breiten Diskussion um sogenannte Superintelligenz stellt sich nicht mehr nur die Frage, was KI kann, sondern wie wir sicherstellen, dass ihr Handeln mit menschlichen Interessen vereinbar bleibt. Ein zentraler Gedanke in dieser Debatte, prominent formuliert etwa von Max Tegmark in seinem Buch Leben 3.0, ist das sogenannte Zielabstimmungsproblem: Je intelligenter ein System wird, desto entscheidender wird es, dass seine Ziele korrekt definiert sind.

Weiterlesen »