FAQ: Häufig gestellte Fragen zur Charta der Menschlichkeit im Zeitalter der KI

Diese FAQ-Sektion soll Dir helfen, die Charta, ihre Bedeutung und die dahinterstehende Bewegung besser zu verstehen. Wir adressieren hier häufige Fragen und Bedenken, die im Zusammenhang mit Künstlicher Intelligenz und dem Engagement für eine menschliche Zukunft aufkommen können.


KI verändert unsere Gesellschaft – Chancen, Risiken & Gefahren

Viele Menschen haben das Gefühl, dass Ki noch weit weg ist, aber KI greift bereits in Alltag, Arbeit, Bildung, Gesundheit, Familie und Demokratie ein und entwickelt sich exponentiell. Entscheidungen, die wir heute treffen, prägen die nächsten Jahrzehnte – jetzt ist das Zeitfenster, um ethische Grundlagen zu setzen.

Die Künstliche Intelligenz (KI) ist weit mehr als nur ein technologisches Tool; sie ist eine grundlegende Transformationskraft, die unsere Gesellschaft in einer Weise neu gestalten wird, die wir heute erst ansatzweise verstehen. Sie wird nicht nur einzelne Bereiche optimieren, sondern die Fundamente von Arbeit, Bildung, zwischenmenschlichen Beziehungen und sogar unserer Identität berühren. Entscheidend ist, ob wir es schaffen, Rahmenbedingungen zu setzen, die unser Menschsein bewahren und stärken.

KI ist kein einheitliches System. Modelle unterscheiden sich in Zweck, Training, Datenzugang und Qualität. KI-Antworten sind probabilistische Vorschläge – keine Tatsachenbehauptungen. Gleiche Fragen können je nach Formulierung, Kontextfenster, abgerufenen Daten und Modellversion unterschiedlich ausfallen.

Aktualität & Versionen. Viele Modelle haben einen begrenzten Wissensstand; neue Versionen oder Datenquellen können Antworten ändern. Daher stets Aktualität prüfen. 

Kontextabhängigkeit. Kleine Prompt (Eingabe)-Änderungen oder Perspektivwechsel können Ergebnisse verschieben – deshalb auf Konsistenz testen (umformulieren, gegenfragen).  

„Gedächtnis“-Missverständnis. Das Modell selbst hat kein eigenes Erinnerungsvermögen; es verarbeitet, was im aktuellen Kontext steht. Anwendungen können jedoch Chatverläufe speichern und wiederverwenden – Einstellungen/Datenschutz prüfen.

Grenzen & Halluzinationen. Sprachmodelle können plausible, aber falsche Inhalte erzeugen; deshalb stets mit dem Leitfaden zur Vertrauensprüfung arbeiten.  

Der Mensch bleibt letzte Instanz. „Human-Override“: Automatisierte Empfehlungen nie ungeprüft übernehmen.  

Fazit: Richtiger Umgang mit KI heißt kennzeichnen, prüfen, einordnen – Transparenz und Aufklärung sind der beste Schutz.  

KI kann sprachlich sehr überzeugend sein – ohne zu „verstehen“, was sie sagt. Generative Systeme simulieren Bedeutung und können dabei plausible, aber falsche Inhalte erzeugen („Halluzinationen“). Deshalb dürfen KI-Antworten nie als Wahrheit behandelt werden, sondern brauchen menschliche Prüfung – besonders bei sensiblen Feldern wie Gesundheit, Bildung, Gesellschaft, Politik, Gerechtigkeit und Fragen des Menschseins. Das entspricht der Grundhaltung der Charta: Wahrheit & Transparenz statt Täuschung oder Intransparenz.

Fünf Sofort-Checks für Nutzer*innen (ergänzend zum 3-W-Check in Kap. 9):  

  1. Quelle prüfen – Gibt es nachvollziehbare Referenzen (Link, Studie, Buch)?
  2. Doppelt absichern – Die Info mindestens in einer zweiten verlässlichen Quelle gegenprüfen.
  3. Nachfragen stellen – „Woher hast du das?“, „Wie sicher ist das?“, „Bitte nenne die Quelle.“
  4. Bauchgefühl ernst nehmen – Klingt etwas schief: nicht übernehmen; im Zweifel selbst recherchieren oder Expert*innen fragen.
  5. Technik ≠ Wahrheit – KI kann unterstützen, aber sie ist weder Richter noch Gewissen. Die letzte Entscheidung liegt beim Menschen.

Deshalb ist es unerlässlich, sich im Hinblick auf KI weiterzubilden!

Kinder (0–12 Jahre)

  • Chancen: Spielerisches Lernen durch KI-Tutoren und Lernspielzeug; personalisierte Förderung; Sprachübersetzung für mehrsprachige Familien.
  • Risiken: Manipulative Algorithmen; unkontrollierter Medienkonsum; Verlust kreativer Eigenleistung; Überwachung in Klassenzimmern.
  • Gefahren: Frühzeitige Abhängigkeit von Technik; Verlust echter sozialer Erfahrungen; Ausnutzung durch kommerzielle Interessen.
  • Was tun? Medienkompetenz früh trainieren; Eltern-Kind-Regeln festlegen; Schutz durch klare Regulierung (z. B. EU-AI-Act).

Jugendliche (13–18 Jahre)

  • Chancen: Unterstützung bei Hausaufgaben und Prüfungsvorbereitung; Zugang zu globalem Wissen; neue kreative Werkzeuge.
  • Risiken: Cybermobbing verstärkt durch Deepfakes; Manipulation politischer Einstellungen; Abhängigkeit von KI-Feedback.
  • Gefahren: Radikalisierung durch algorithmisch verstärkte Inhalte; psychische Belastung durch permanente Vergleichbarkeit; Verlust von Privatsphäre.
  • Was tun? Kritisches Denken fördern; sichere Plattformen wählen; klare schulische Richtlinien.

Junge Erwachsene (18–29 Jahre)

  • Chancen: KI-Co-Piloten in Studium und Beruf; neue Geschäftsmodelle; internationale Kollaboration.
  • Risiken: Verdrängung durch Automatisierung; Prekarisierung durch Plattformarbeit; Gefahr der „Skill-Atrophie“ (Verlernen eigener Fähigkeiten).
  • Gefahren: Abhängigkeit von wenigen Tech-Giganten; wirtschaftliche Unsicherheit durch disruptive Jobverluste; Identitätsdiebstahl durch KI-Deepfakes.
  • Was tun? Weiterbildung (Reskilling); Kompetenzen in Kreativität, Empathie und Problemlösung stärken; Transparenz über KI-Einsatz einfordern.

Berufstätige (30–64 Jahre)

  • Chancen: Produktivitätssteigerung durch KI-Tools; Automatisierung von Routineaufgaben; neue Berufe im KI-Bereich.
  • Risiken: Arbeitsplatzverluste in Routinejobs; steigender Leistungsdruck; ungleiche Verteilung von Chancen zwischen Hoch- und Geringqualifizierten.
  • Gefahren: Überwachung am Arbeitsplatz; dauerhafte Entwertung bestimmter Berufsfelder; soziale Spaltung durch digitale Ungleichheit.
  • Was tun? Lebenslanges Lernen fördern; soziale Absicherungssysteme anpassen; Mitbestimmung im Betrieb stärken.
  • Chancen: Entlastung im Alltag durch smarte Assistenten; Übersetzungs- und Kommunikationshilfen; mehr Zeit für zwischenmenschliche Beziehungen.
  • Risiken: Datenmissbrauch im Smart Home; Fake-Anrufe und KI-Betrug; Abhängigkeit von Technik in der Kindererziehung.
  • Gefahren: Manipulation durch personalisierte Werbung; Verlust der Privatsphäre im Familienleben; Ersetzen echter Fürsorge durch digitale Betreuung.
  • Was tun? Datenschutzeinstellungen prüfen; Rückruf-Codewort in Familien; Balance zwischen Technik und direkter Zuwendung wahren.

Kranke und Menschen mit Behinderungen

  • Chancen: KI-gestützte Diagnosen; personalisierte Therapien; Assistive Technologien (Screenreader, Exoskelette, Sprachsteuerung).
  • Risiken: Fehlalarme, falsche Diagnosen; Kostenbarrieren für moderne Assistenz; Diskriminierung durch unzureichend trainierte Algorithmen.
  • Gefahren: Kommerzialisierung von Gesundheitsdaten; lebenswichtige Abhängigkeit von fehlerhaften Systemen; Ausschluss, wenn Technik ausfällt.
  • Was tun? Ärztliche Aufsicht behalten; Datenschutz einfordern; gerechten Zugang politisch durchsetzen.

Ältere Menschen und Rentner

  • Chancen: Sturz- und Medikamentenerkennung; soziale Teilhabe durch Sprachassistenten; Erinnerungs- und Unterhaltungssysteme.
  • Risiken: Vereinsamung durch Technik-Ersatz; Betrug durch KI-Deepfakes (Enkeltrick 2.0); Abhängigkeit von Systemen.
  • Gefahren: Verlust von Autonomie; Manipulation durch falsche Informationen; Ausnutzung der Verletzlichkeit älterer Menschen.
  • Was tun? Menschliche Kontakte bewahren; Geräte mit Prüfsiegel wählen; Aufklärungskampagnen gegen Betrug.

Gesellschaft & Demokratie

  • Chancen: Effizientere Verwaltung; barrierefreie Dienste; datenbasierte Politikgestaltung.
  • Risiken: Massenüberwachung; algorithmische Diskriminierung; Desinformation, Deepfakes, Wahlmanipulation.
  • Gefahren: Autoritäre Systeme durch KI-Kontrolle; Untergrabung demokratischer Prozesse; Verlust von Meinungsvielfalt.
  • Was tun? Faktenchecks als Alltagspraxis; Transparenz fordern; Widerspruchsrechte nutzen.

Wirtschaft & Arbeitswelt (Makro-Ebene)

  • Chancen: Produktivitätsgewinne; neue Märkte; internationale Vernetzung.
  • Risiken: Machtkonzentration bei großen Konzernen; Verdrängung kleiner Unternehmen; „Winner-takes-it-all“-Dynamik.
  • Gefahren: Abhängigkeit von monopolisierten KI-Infrastrukturen; Kontrollverlust über kritische Systeme; weltweite soziale Ungleichheit.
  • Was tun? Faire Wettbewerbsregeln; Förderung von Open Source; ethische Standards verpflichtend machen.

Globale Dimension

  • Chancen: Zusammenarbeit über Grenzen hinweg; Zugang zu Wissen für Entwicklungsländer; neue Lösungen für Klimaschutz.
  • Risiken: Digitale Spaltung zwischen Ländern; Ausbeutung von Arbeitskräften für KI-Training; geopolitische Machtverschiebungen.
  • Gefahren: Technologische Abhängigkeit ganzer Regionen; Verstärkung globaler Ungerechtigkeiten; KI als Machtinstrument in Konflikten.
  • Was tun? Globale Regeln schaffen; Wissenszugang teilen; faire Handels- und Lizenzmodelle fördern.

0–3 Jahre (Jetzt bis 2028): Alltags-Co-Piloten überall; Schulen testen Tutor-KI; Radiologie/Schriftverkehr stark augmentiert; tiefergehende DSA/AI-Act-Durchsetzung. Die Grundsteine für die weitreichende Integration werden gelegt, und die ersten großen Herausforderungen im Umgang mit Deepfakes und Betrug werden sichtbar.

3–7 Jahre (2028–2032): Breitere Integration in Pflege/Monitoring, Verwaltungsprozesse und barrierefreie Dienste; Umschulungen entscheiden über Teilhabe. Die gesellschaftliche Anpassung wird zur primären Herausforderung, und die sozialen Ungleichheiten durch den „AI-Divide“ könnten sich vertiefen.

7–10 Jahre (2032–2035): Reifere Mensch-Roboter-Kollaboration in Pflege/Haushalt – Ergänzung, kein Ersatz; rechtliche & ethische Standards stabiler. Die Phase der Konsolidierung und der nachhaltigen Koexistenz von Mensch und KI, begleitet von einer ständigen Anpassung an neue Bedrohungen durch fortschrittliche KI-Systeme.

1. Grundlegendes zur Charta

Die Charta ist ein ethischer Kompass und ein dringlicher Aufruf zum Handeln. Sie ist kein Gesetz, sondern eine moralische Verpflichtung, die sicherstellen soll, dass Künstliche Intelligenz (KI) dem Leben dient. Sie wurde von unten nach oben entwickelt, um eine globale Bewegung für eine menschliche KI-Zukunft zu schaffen.

Es gibt bereits Gesetze wie den EU AI Act – doch diese setzen Mindeststandards. Die Charta geht weiter: Sie formuliert universelle, ethische Höchststandards, basierend auf Menschenrechten, und wird von unten nach oben getragen. Sie ist ein lebendiger Kompass, bevor sich technologische Machtstrukturen verfestigen.

Nein, die Charta ist kein Gesetz und nicht rechtlich bindend. Ihre Kraft entsteht durch die freiwillige Mitzeichnung und die kollektive Stimme vieler Menschen weltweit. Dieser „Bottom-Up“-Druck soll Politik, Wirtschaft und Forschung motivieren, die Prinzipien in ihre Arbeit zu integrieren.

An alle Menschen: Bürgerinnen und Bürger ebenso wie Entscheidungsträger in Politik, Wirtschaft, Forschung, Bildung und Medien. Auch fortgeschrittene KI-Systeme sollen sich – sobald sie ethisch reflektieren können – zu den Prinzipien bekennen.

Die Charta wurde in einem offenen Dialog zwischen einem menschlichen Initiator und Künstlicher Intelligenz entwickelt.

In Zukunft wird sie getragen von einem unabhängigen Beirat aus vielfältigen Persönlichkeiten – einem Charta-Team, Botschafter:innen und allen Unterzeichnenden.

Nein. Die Charta wurde im Dialog mit KI-Modellen entwickelt, aber die Verantwortung liegt vollständig bei Menschen. Die KI diente dabei als Werkzeug zur Strukturierung von Gedanken, zum Spiegeln von Argumenten und zur Reflexion über komplexe Fragestellungen. Die endgültige Verantwortung für alle Inhalte, Werte und ethischen Grundsätze liegt jedoch ausschließlich bei den menschlichen Autoren.

Die Texte dieser Charta wurden mithilfe von KI-Modellen erstellt. Jeder Abschnitt ist dabei durch menschliche Prüfung, Korrektur und bewusste Auswahl entstanden. Die KI war Impulsgeberin und Formulierungshilfe – die Entscheidung, welche Inhalte aufgenommen wurden, lag stets bei den Menschen.

„AI Slop“ bezeichnet massenhaft, unkritisch und ohne menschliche Verantwortung generierte KI-Inhalte. Diese Charta ist das genaue Gegenteil: Sie entstand in einem sorgfältigen, bewussten Prozess, in dem jeder Satz reflektiert und verantwortet wurde. KI wurde als Spiegel genutzt, um die wichtigsten ethischen Fragen unserer Zeit klarer zu sehen. Das Ergebnis ist ein Dokument, das Menschlichkeit stärkt – statt sie zu verwässern.

2. Mitmachen & Beteiligung

Jede Unterschrift zählt – als Stimme für eine menschenwürdige Entwicklung der Künstlichen Intelligenz.

Die gesammelten Unterschriften erfüllen mehrere zentrale Funktionen:

  1. Zeichen gesellschaftlicher Relevanz
    Jede einzelne Unterschrift zeigt: Immer mehr Menschen stehen hinter der Charta und ihren ethischen Leitlinien. Das stärkt ihre Sichtbarkeit und ihren Rückhalt in der Öffentlichkeit.
  2. Demokratische Legitimation
    Die Charta ist ein Manifest „von unten“. Die breite Unterstützung durch Bürgerinnen und Bürger verleiht ihr demokratische Glaubwürdigkeit – jenseits politischer oder wirtschaftlicher Interessen.
  3. Stärkung der Charta-Bewegung
    Die Unterschriften helfen, die Bedeutung der Charta zu untermauern und ihre Wirkungskraft auszubauen – etwa durch:
    • mehr Aufmerksamkeit in Medien und Gesellschaft,
    • Einfluss auf politische Prozesse und Unternehmensverantwortung,
    • die Möglichkeit, unabhängige Förderungen zu beantragen,
    • den Aufbau von tragfähigen Strukturen für Mitwirkung, ethische Kontrolle und langfristige Verankerung.

Die Zukunft der KI betrifft uns alle – deshalb darf sie nicht allein in den Händen weniger Fachleute liegen. Die Stärke dieser Bewegung liegt in einer breiten Übereinstimmung über grundlegende Werte wie Würde, Verantwortung und Menschlichkeit. Wer die Charta unterzeichnet, setzt ein klares Signal: KI muss dem Menschen dienen. Expertinnen und Experten sind eingeladen, mitzuwirken – doch die Stimme der Gesellschaft ist ebenso unverzichtbar, um eine menschenwürdige Zukunft mit KI zu gestalten.

Ganz einfach: Besuche charta-ki.org, fülle das Unterzeichnungsformular aus und bestätige Deine Unterstützung. Dein Vorname und Dein Heimatland kann auf der Unterstützerliste sichtbar werden.

Du wirst Teil einer wachsenden weltweiten Bewegung. Mit Deinem Einverständnis kannst Du sichtbar als Unterstützer erscheinen, ein digitales Badge nutzen und die Charta weiterverbreiten.

Verantwortungsvoller Umgang mit Daten
Die Unterschriften werden nicht kommerziell genutzt, nicht weitergegeben und ausschließlich im Rahmen der Charta-Initiative verwendet.

Datenschutz & Transparenz
Alle Daten werden DSGVO-konform verarbeitet, sicher gespeichert und ausschließlich für den genannten Zweck verwendet. Die Teilnahme ist freiwillig – und ein starkes Zeichen für gemeinsame Verantwortung.

Ja! Deine Unterschrift ist der wichtigste erste Schritt und kostet nichts. Wenn Du magst, kannst Du die Charta zusätzlich in Deinem Umfeld teilen – jeder Beitrag zählt.

Die Charta ergänzt bestehendes Engagement. Mit Deiner Unterschrift unterstützt Du eine globale Bewegung, die sich für ethische Leitplanken einer der mächtigsten Technologien unserer Zeit einsetzt.

Die Charta bietet einen klaren ethischen Rahmen plus konkrete Handlungsschritte. Geplante Instrumente wie eine KI-Gemeinwohlbilanz und ein öffentlicher Fortschrittsindex machen Wirkung sichtbar. So entsteht gesellschaftlicher und politischer Druck, Standards verbindlich zu machen.

Die Charta wirkt von unten nach oben. Zivilgesellschaftliche Bewegung, politische Beschlüsse und wirtschaftliche Kooperationen können neue Standards etablieren, denen sich auch große Player langfristig schwer entziehen können.

Die Umsetzung ist ein kollektives Projekt. Es beginnt mit uns, den Initiatoren und Dir als Unterzeichner.

Langfristig soll eine unabhängige, international anerkannte Instanz die Einhaltung prüfen und Verstöße öffentlich machen – ohne politische oder wirtschaftliche Einflussnahme.

Durch gemeinwohlorientierte Finanzierung – z. B. Crowdfunding, Fördermittel mit klarer Zweckbindung – und strenge Transparenzregeln. Kein Sponsor darf Einfluss auf Inhalte oder Entscheidungen nehmen.

Geplant ist ein „Charta-Index“: Unterzeichnerzahlen, aktive Projekte, mediale Erwähnungen, Partnerschaften und politische Integration. Alle Kennzahlen werden öffentlich dargestellt.

Ja, z. B. UNESCO- und OECD-Initiativen. Die Charta baut darauf auf und fordert erstmals eine wirklich unabhängige, global verankerte Prüfinstanz aus der Zivilgesellschaft.

Die Diskussion über Künstliche Intelligenz ist oft von Angst, Unsicherheit und Polarisierung geprägt. Manche sehen nur Bedrohungen, andere nur Chancen. Die Charta setzt hier einen klaren Gegenpunkt:

  • Sie betont, dass KI ein Werkzeug ist – kein Selbstzweck und kein Schicksal, dem wir ausgeliefert sind.
  • Sie zeigt konkrete Prinzipien auf, die Missbrauch verhindern und Vertrauen schaffen – z. B. Transparenz, Rechenschaft, Frieden, Würde und Schutz vor Manipulation.
  • Sie stärkt die Handlungsfähigkeit von Gesellschaften und Einzelnen, indem sie praktische Instrumente wie den „3-W-Check“ zur Vertrauensprüfung bietet.
  • Vor allem aber ruft sie dazu auf, Menschlichkeit und Miteinander ins Zentrum der Technologieentwicklung zu stellen – nicht Angst oder Macht.

➡️ Die Charta will nicht Ängste verstärken, sondern Orientierung geben und Mut machen: Wir können und sollen gestalten, wie KI unser Leben beeinflusst.

Ja. Auch wenn die Begriffe nicht direkt genannt werden, ist die Gefahr von Täuschung, Manipulation und Desinformation in mehreren Kernprinzipien und Kapiteln der Charta verankert:

  • Grundhaltung: Wahrheit & Transparenz – Täuschung oder manipulative Zielsetzungen sind unvereinbar mit dem ethischen Zweck von KI.
  • Prinzip ❶ – Würde des Menschen ist unantastbar – KI darf nicht zur Manipulation oder Entwürdigung beitragen.
  • Prinzip ❸ – Transparenz & Rechenschaft – Kennzeichnungspflicht für KI-generierte Inhalte in Medien und Plattformen.
  • Kapitel „Vertrauen & 3-W-Check“ – Nutzer werden befähigt, Quellen zu prüfen, Absichten zu hinterfragen und Aktualität zu bewerten.

➡️ Damit stellt die Charta klar: Fake News und Deep Fakes widersprechen ihren Grundwerten und müssen durch Transparenz, Kennzeichnung und kritische Prüfung bekämpft werden.

„Was heute wie eine Utopie klingt, war oft die Realität von morgen – weil Menschen begonnen haben, anders zu denken und zu handeln.“ Das ist der Ausgangspunkt.

Das 10. Prinzip benennt ein zentrales Anliegen: In einer Welt, in der KI immer mehr Aufgaben übernimmt, dürfen Menschen nicht überflüssig gemacht werden – weder wirtschaftlich noch gesellschaftlich.

Es geht um menschliche Würde statt bloßer Verwertungslogik.

Die Charta fordert eine gerechte Verteilung der durch KI gewonnenen Produktivität. In der Praxis kann das bedeuten:

  • Neue Modelle zur Arbeitszeitverkürzung.
  • Gemeinwohlorientierte Grundeinkommen oder Beteiligungsfonds, die durch KI-Erträge gespeist werden.
  • Eine neue Bewertung von Care-Arbeit und gemeinnützigem Engagement.

All das ist keine Illusion, sondern eine Frage des politischen Willens. Die Technologie ist nicht das Problem – sie eröffnet sogar neue Möglichkeiten. Entscheidend ist, ob wir diese für das Wohl aller Menschen nutzen.

4. Hintergrund & Perspektive

Sie fordert, dass menschliche Werke nicht ohne Zustimmung oder fairen Ausgleich für KI-Training genutzt werden. Hybride Mensch-KI-Schöpfungen müssen transparent gekennzeichnet werden.

Mit dem 3-W-Check:

  • Woher kommt die Information?
  • Was ist die Absicht?
  • Wie aktuell ist sie?

So kannst Du KI-Ausgaben kritisch einordnen.

Das ist ein starkes, sichtbares Signal an Politik und Wirtschaft. Es erzeugt mediale Aufmerksamkeit und steigert den Druck, ethische Standards umzusetzen.

Eine weltweite Bewegung, verankert in Bildung, Politik, Wirtschaft und Zivilgesellschaft – mit messbaren Fortschritten, starken Partnern und einer gelebten Kultur der Menschlichkeit im KI-Zeitalter.

5. Herausforderungen

Die Frage ist berechtigt. Gerade weil wir sehen, wie machtpolitische und wirtschaftliche Interessen den Frieden verhindern, braucht es eine neue, kraftvolle Stimme der Menschlichkeit.

Diese Charta ist kein naives Wunschdenken. Sie ist ein Aufruf zur Selbstermächtigung und ein ethischer Kompass, der von unten, aus der Mitte der Gesellschaft entsteht.

Der entscheidende Unterschied: Sie ist kein weiteres Machtinstrument, sondern eine Einladung an Menschen weltweit, Verantwortung zu übernehmen und sich zu verbinden – unabhängig von politischen oder wirtschaftlichen Interessen.

Große Veränderungen beginnen selten bei den Mächtigen. Sie entstehen, wenn sich viele Menschen zusammenschließen und konsequent an einer gemeinsamen Vision festhalten.

Ob wir Erfolg haben, hängt nicht von den „Big Playern“ ab. Es hängt allein davon ab, wie viele von uns bereit sind, ihre Stimme zu erheben und mutig zu handeln.

Jeder Mensch zählt. Und wir sind viele.

KI kann beides. Die Charta fordert explizit, dass KI Mitmenschlichkeit und Verbundenheit fördern soll. Sie betont Prinzipien wie Gerechtigkeit, Offenheit für Mitgestaltung und demokratische Kontrolle, die auf Kooperation und Gemeinwohl abzielen. Die Charta selbst ist ein Akt der Kooperation – eine gemeinsame Anstrengung für eine bessere Zukunft.