Wer trägt die KI-Transformation?
Verantwortung, Arbeit und Gesellschaft im Zeitalter der Künstlichen Intelligenz
📋 Diskussionsentwurf v0.7.5Künstliche Intelligenz verändert Arbeit, Sozialstaat, Demokratie und unser Zusammenleben. Die entscheidende Frage lautet nicht nur, was technisch möglich ist — sondern wer Verantwortung dafür übernimmt, dass diese Transformation menschlich bleibt.
Drei Erzählungen prägen die öffentliche Debatte: KI als Jobvernichter, KI als Lösung des Fachkräftemangels, demografische Alterung als Pensionskrise. Jede für sich ist zutreffend. Zusammengenommen ergeben sie keine konsistente Antwort — es sei denn, man bringt die Verteilungsfrage ins Zentrum. Wer Pensionsreform, KI-Regulierung und Sozialstaat getrennt diskutiert, übersieht, dass diese Stränge in der Wirklichkeit zusammenwirken.
Die Klimaforschung verfügt seit dreißig Jahren über integrierte Modelle, die Politik, Ökonomie und Naturwissenschaft zusammenbringen. Für die KI-Transformation existiert nichts Vergleichbares — obwohl ihre Verwerfungen mindestens gleich groß sein dürften.
Welche Kombination von Maßnahmen hält eine Gesellschaft unter KI-Druck menschlich, demokratisch und sozial tragfähig?
Dieses Diskussionspapier legt kein fertiges Modell vor, sondern die Anforderungen, denen ein solches Modell genügen müsste, um legitimationsfähig zu sein. Es ist Diskussionsimpuls, nicht Spezifikation. Genau diese Selbstbescheidung ist methodische Position — denn ein Diskussionsimpuls, der sich als fertiges Modell tarnt, würde die Debatte verengen statt sie zu öffnen.
Vier Zugänge zum Thema
Die Geschichte
„Das Erbe der Maschinen“. Eine Erzählung über drei Generationen, die in einer Welt aufwachsen, in der Maschinen die Arbeit übernommen haben — und über die Frage, was Menschen einander noch geben können.
↓ Download (PDF)Die Kurzfassung
Etwa fünfzehn Seiten. Acht Pfade, sechs Kipppunkte, sechs Synthese-Komponenten, fünfzehn Kernvariablen. Geeignet für parlamentarische Referent:innen, Stiftungsmitarbeiter:innen, schnelle Orientierung.
↓ Download (PDF)Die Vollversion
Etwa sechzig Seiten. Vollständige Argumentation in 21 Abschnitten mit Quellenanhang, methodischen Vorbehalten, Eschbach-Sonde und detaillierter Modul-Architektur. Für Forschungsinstitute und akademisches Lesen.
↓ Download (PDF)Die Szenarien-Durchspielung
Etwa fünfzehn Seiten. Eine qualitative Gedankenarbeit, die acht Pfade über drei Phasen bis 2046 durchspielt — mit einer Trade-off-Tabelle in neun Dimensionen. Methodisch transparent über ihre Grenzen: keine Simulation, sondern strukturiertes Denken.
↓ Download (PDF)Die Leerstelle: vier Asymmetrien, die niemand zusammen denkt
Die KI-Transformation entfaltet sich asymmetrisch — und das macht sie für eindimensionale Politiken unzugänglich. Vier Asymmetrien sind besonders relevant:
1. Sektorale Asymmetrie
In Pflege, Bildung und Handwerk fehlen Arbeitskräfte. Gleichzeitig ist die KI-Substitution in Büroarbeit, Sachbearbeitung und einfacher Programmierung bereits messbar. Der Mangel bleibt, wo er ist; die Verdrängung passiert woanders. Eine Statistik mit Durchschnitten verschleiert beides.
2. Zeitliche Asymmetrie
Die KI-Substitution beschleunigt sich rekursiv. Die demografische Lücke entwickelt sich linear. Die Schere öffnet sich nicht langsamer, sondern schneller. Heutige Regierungspolitik geht implizit davon aus, dass der heutige Zustand der Normalzustand bleibt — eine Annahme, die wahrscheinlich falsch ist.
3. Qualifikationsasymmetrie
Die freiwerdenden Arbeitskräfte aus Bürotätigkeiten haben nicht die Qualifikationen für die Mangelsektoren in Pflege, Bildung und Handwerk. Umschulung dauert Jahre und gelingt nicht für alle. Die Vorstellung, freiwerdende Arbeitskräfte würden einfach „in die Engpasssektoren wechseln“, ignoriert diese Wirklichkeit.
4. Verteilungsasymmetrie
Produktivitätsgewinne aus KI fließen primär in Kapitalerträge, nicht in Löhne. Damit fällt die Finanzierungsbasis der sozialen Sicherung weg, obwohl die Wirtschaft als Ganzes produktiver wird. Das Pensionssystem kollabiert nicht in erster Linie wegen zu weniger Arbeiter:innen — es kollabiert, weil Produktivitätsgewinne nicht mehr bei den Löhnen ankommen.
Die quantitative Bandbreite seriöser Schätzungen: Die OECD (Employment Outlook 2023) schätzt, dass etwa 27 Prozent der Beschäftigten in OECD-Ländern in Berufen mit hohem Automatisierungsrisiko stehen. Die ILO (Working Paper 140/2025) findet weltweit eine Vierteler GenAI-Exposition, in Hochlohnländern 34 Prozent. Das WEF (Future of Jobs Report 2025) projiziert bis 2030 eine strukturelle Arbeitsmarkt-Verschiebung von 22 Prozent — 170 Millionen neue Stellen, 92 Millionen verdrängte. McKinsey (2023/2024) schätzt etwa 30 Prozent automatisierbare Arbeitsstunden bis 2030.
Wichtig: Exposition ist nicht gleich Automatisierung. Verschiebung ist nicht gleich Massenarbeitslosigkeit. Aber die Größenordnung ist substantiell, und die Verteilung der Anpassungskosten ist die eigentliche politische Frage.
Die Modul-Architektur des Modells
Ein integratives Simulationsmodell muss fünfzehn Module abdecken — nicht alle gleich gewichtig. Die Klassifikation in Kernmodule (kausal treibend), Querschnittsmodule (durchdringend wirkend) und Begleitmodule (qualifizierend) macht sichtbar, wo politische Energie zuerst ansetzen muss.
Diagramm 1: Modul-Architektur mit Prioritäten. Kernmodule treiben, Querschnittsmodule durchdringen, Begleitmodule qualifizieren.
Die Hierarchisierung ist eine begründete Annahme, kein empirischer Befund. Sie folgt aus der Argumentation des Hauptpapiers und aus Plausibilitätsüberlegungen — eine andere Forscher:innengruppe könnte mit guten Gründen zu einer anderen Anordnung kommen. Die Dreiteilung dient hier nicht der Festlegung, sondern der Strukturierung der Diskussion.
Die Pfadlandschaft mit Kipppunkten
Acht mögliche Pfade — von Laissez-faire über Silicon-Valley-BGE und europäisch-sozialstaatliche Lösungen bis zu autoritär-technokratischer Stabilisierung. Pfeile zeigen wahrscheinliche Übergänge unter Kipppunkt-Druck.
Diagramm 2: Pfadlandschaft, Kipppunkte und mögliche Übergänge. Pfad D (Commons) ist nach der qualitativen Analyse der robusteste Pfad. Pfad F (AGI-Schwelle) wirkt als Regimeüberlagerung.
Die zentrale strategische Aussage: Pfad D (Commons) ist nach der qualitativen Analyse der robusteste Pfad gegen alle sechs Kipppunkte — und gleichzeitig politisch am schwersten durchsetzbar. Pfad C (europäisch-sozialstaatlich) ist die wahrscheinlichste tragfähige europäische Antwort. Die positive Entwicklungsrichtung verläuft von E über C nach D. Pfad F (AGI) ist kein eigener Pfad, sondern eine mögliche Überlagerung, die jeden Pfad transformieren würde, falls sie eintritt.
Sechs Kipppunkte — wann das System brechen könnte
Eine Vorbemerkung zur Sprache. Die folgenden sechs Kipppunkte sind als Möglichkeitsszenarien formuliert, nicht als Prognosen. Sie behaupten nicht, dass diese Brüche eintreten werden. Sie behaupten, dass ihre Möglichkeit ernst genug ist, um sie nicht auszublenden. In der Klimaforschung ist das ein etablierter Standard — Tipping-Point-Analysen werden dort geführt, ohne dass die Forschung den Eintritt prognostiziert. Dieselbe Logik wird hier angewandt.
1. Soziale Unruhen. Wenn die Diskrepanz zwischen Wahrnehmung der KI-Bedrohung und politischer Antwort zu groß wird, kann sich Unmut in nicht-institutionellen Mobilisierungsformen entladen. Reversibel, aber institutionelles Misstrauen kann bleiben.
2. Systemvertrauensverlust. Vertrauen in Institutionen wird in Jahrzehnten aufgebaut, kann aber in Monaten zerfallen — etwa wenn Pensionssystem oder Sozialleistungen wahrnehmbar versagen. Hysterese hoch.
3. Politische Radikalisierung. Wenn populistische Parteien Stimmenanteile von 25–35 Prozent überschreiten, normalisieren sich extreme Positionen. Auch nach Wahlniederlagen können diese Strukturen aktiv bleiben.
4. Ökonomische Kaskaden. Steigende Staatsverschuldung bei sinkendem Wachstum, Risikoprämien auf Staatsanleihen, Druck auf Pensionsfonds — die Wechselwirkungen können sich wechselseitig verschärfen.
5. Technologische Disruption (AGI-Schwelle). Sprünge in Benchmarks für allgemeine Intelligenz, autonome KI-Agenten in offenen Umgebungen. Eintrittswahrscheinlichkeit und Zeithorizont sind unter Forschenden kontrovers. Hysterese im Eintrittsfall: irreversibel.
6. Demokratischer Kollaps. Kumulation der anderen Kipppunkte, Angriffe auf Justiz und Medien, Normalisierung außerordentlicher Maßnahmen. Hysterese sehr hoch — meist nicht Anfang, sondern Endpunkt einer Kaskade.
⚠️ Die Logik der Kaskade: Die Kipppunkte stehen nicht isoliert. Soziale Unruhen erhöhen die Radikalisierungswahrscheinlichkeit; Radikalisierung erodiert Systemvertrauen; erodiertes Systemvertrauen begünstigt ökonomische Kaskaden; ökonomische Kaskaden verschärfen soziale Unruhen. Wer den demokratischen Kollaps verhindern will, sollte früh in der Kaskade ansetzen — reaktive Verteidigung der Demokratie zeigt in der historischen Bilanz oft eine schwache Erfolgsquote.
Zeithorizont: sieben bis zehn Jahre
Das Zeitfenster für die Ausarbeitung und politische Verankerung tragfähiger Strukturen lässt sich nicht punktgenau bestimmen, aber sinnvoll einkreisen: eine plausible Schätzung sind sieben bis zehn Jahre — also bis 2033 bis 2036.
Drei Anker dafür: Erstens, die KI-Verwerfung selbst — die McKinsey-Schätzung von 30 Prozent automatisierbarer Arbeitsstunden bis 2030 könnte zwischen 2028 und 2032 in deutlich mehr Sektoren spürbar werden. Zweitens, die Trägheit demokratischer Willensbildung — große Reformen brauchen fünf bis zehn Jahre vom Beginn der Debatte bis zur Gesetzgebung. Drittens, die Lehre aus Krisenreaktionen — in akuten Krisen werden Lösungen von jenen entworfen, die mit fertigen Vorschlägen am Tisch sitzen.
Die Uhr tickt nicht erst, wenn Massenarbeitslosigkeit eingetreten ist. Sie tickt jetzt — nicht für die Lösung selbst, sondern für die Voraussetzungen einer legitimationsfähigen Lösung.
Offene Fragen — Einladung zum Dialog
- Welche Module sind hier noch schärfer zu fassen — insbesondere ihre Wechselwirkungen?
- Ist System Dynamics für dieses Problem methodisch geeignet, oder gäbe es bessere Alternativen (Agent-Based Modeling, hybride Ansätze)?
- Welche Werturteile, die hier implizit getroffen wurden, sind angreifbar oder zu korrigieren?
- Welche historischen Analogien tragen tatsächlich, welche sind trügerisch?
- Welche konkreten Forschungseinrichtungen, Stiftungen oder zivilgesellschaftlichen Träger könnten eine Pilotumsetzung anstoßen?
- Welche Stimmen aus Sinn- und Weisheitstraditionen fehlen in dieser Debatte — und wie können sie eingebracht werden?
📋 Hinweis zur Entstehung: Dieses Diskussionspapier entstand im April 2026 in dialogischer Co-Entwicklung mit KI-Systemen (Claude, ChatGPT, Gemini). Alle normativen Setzungen und die Endredaktion liegen beim menschlichen Autor. Die im Hauptpapier zitierten Quellen wurden im April 2026 web-verifiziert; bei Werken, deren bibliografische Daten nicht zweifelsfrei verifizierbar waren, wurde auf Aufnahme verzichtet.
Verbleibender Unsicherheitsfaktor: Das Papier legt kein fertiges Modell vor, sondern Anforderungen. Es ersetzt keine Modellierung, aber es kann eine Struktur für die Modellierung geben.
Rückmeldungen, Kritik und Vertiefungsbeiträge willkommen unter charta-ki.org/review
