Konvergenzen zur Charta Version 1.0 2025/08/29
Übereinstimmende Quellen bis 2026 02
Die „Charta für eine menschenwürdige Entwicklung Künstlicher Intelligenz“ zeigt eine umfassende Übereinstimmung mit den neuesten interdisziplinären und interkulturellen Entwicklungen im Bereich der KI-Ethik. Es ist klar, dass die Prinzipien nicht nur globale Regulierungsbestrebungen widerspiegeln, sondern auch tief in universellen Werten und wissenschaftlichen Erkenntnissen aus verschiedenen Disziplinen verankert sind.
Die Recherche bis August 2025 zeigt, dass ein globaler Konsens über Kernprinzipien wie Menschenzentrierung, Fairness, Transparenz und Rechenschaftspflicht wächst, wobei gleichzeitig die Notwendigkeit anerkannt wird, kulturelle Vielfalt und indigene Perspektiven zu berücksichtigen. Die Charta ist hierbei auf dem neuesten Stand.
Im Folgenden finden Sie die Aufstellung der Übereinstimmungen, die auch interdisziplinäre und interkulturelle Quellen berücksichtigt.
Neue aktuelle Quellen mit Übereinstimmung zur Charta:
- Center for AI Safety (2024): Das Prinzip der menschlichen Verantwortung in unserer Charta findet seinen Ausdruck im ‚Statement on AI Risk‚, wo führende Köpfe der KI-Forschung die Dringlichkeit von Sicherheitsmaßnahmen aufgrund der KI-Risiken betonen.
- Pause AI (2025) / Keep the future human (2025): Die Forderung nach Kontrolle durch den Menschen spiegelt sich in ‚Pause AI‘ und dem Konzept der ‚Tool AI‘ (‚Keep The Future Human‘) wider. Unsere Bewegung macht die Notwendigkeit dieser Ansätze für die breite Öffentlichkeit verständlich.
- Data-Literacy-Charta – Datenkompetenz im Zeitalter der KI (2021): Gemeinsam mit zahlreichen Partnern hat der Stifterverband im Januar 2021 die Data-Literacy-Charta initiiert. Mit ihr wird ein gemeinsames Verständnis von Datenkompetenzen und deren Bedeutung für Bildungsprozesse formuliert. Die Charta steht im Einklang mit der Datenstrategie der Bundesregierung und mit der Berliner Erklärung zur Digitalen Gesellschaft.
Konvergenz mit globalen KI-Regulierungen und ethischen Rahmenwerken (Interdisziplinär & Interkulturell)
1. Reflexion: Wachsamkeit – Der Schutzgeist der Charta
Die Betonung wacher Achtsamkeit und der Bewahrung des ursprünglichen Geistes der Prinzipien ist ein Appell an die Kontinuität und Integrität ethischer Praxis. Dies findet Resonanz in der Forderung nach agiler Governance und kontinuierlicher Bewertung von KI-Systemen, um unvorhergesehene Risiken zu identifizieren und Anpassungen vorzunehmen, was eine interdisziplinäre Herangehensweise erfordert.
1.1. OECD Recommendations on AI (2019, aktualisiert 2024): Betont weiterhin die Notwendigkeit einer adaptiven und inklusiven Governance, die eine kontinuierliche Überprüfung und Anpassung der Politik ermöglicht (siehe OECD Regulatory Policy Outlook 2025 und die Revised Recommendation of the Council on AI vom 3. Mai 2024). [1]
1.2. UNESCO Recommendation on the Ethics of AI (2021): Spricht sich für eine lebendige Ethik aus, die nicht statisch ist, sondern sich an technologische Fortschritte und gesellschaftliche Veränderungen anpasst. [2]
1.3. AI Governance Best Practices 2025: Neuere Publikationen betonen die Einrichtung klarer Verantwortlichkeiten und kontinuierliches Monitoring für den gesamten KI-Lebenszyklus, um Integrität und Vertrauen zu gewährleisten. [35]
1.4. Interdisziplinäre KI-Ethikforschung (z.B. Universität Augsburg, HIIG): Forschungsprojekte und Ringvorlesungen (z.B. „Interdisziplinäre Perspektiven auf KI & Ethik“ 2025/2026) betonen die Notwendigkeit, KI-Ethik aus Sicht von Recht, Soziologie, Philosophie und Informatik zu beleuchten, um eine umfassende „Wachsamkeit“ zu gewährleisten. [53, 45]
2. Einleitung: Warum diese Charta jetzt nötig ist
Die Dringlichkeit einer gemeinsamen Verständigung über den Zweck von KI wird durch die fortlaufende schnelle Entwicklung und die Implementierung von Gesetzen wie dem EU AI Act untermauert.
2.1. EU AI Act (Veröffentlichung Juli 2024, Inkrafttreten gestaffelt ab August 2024/Februar 2025): Die Regulation (EU) 2024/1689 (Artificial Intelligence Act), im Amtsblatt vom 12. Juli 2024 veröffentlicht und in Kraft seit dem 1. August 2024, ist das weltweit erste umfassende KI-Gesetz. Verbote („unacceptable risk“) treten ab dem 2. Februar 2025 in Kraft, GPAI-Pflichten ab dem 2. August 2025, und weitere Pflichten folgen stufenweise. [3]
2.2. UN Global Digital Compact (September 2024): Der GDC wurde am 22. September 2024 als Teil des Pact for the Future von der UN-Generalversammlung angenommen und bekräftigt die Rolle der UN und multilateraler Institutionen bei der Förderung nachhaltiger Entwicklung, Frieden, Sicherheit und Menschenrechte im digitalen Bereich, einschließlich KI. [36]
2.3. Vatikan – Note „Antiqua et nova“ (Januar 2025): Dieses Dokument betont, dass technologische Innovationen ohne ethische Leitplanken fatale Konsequenzen haben können und stellt die Frage nach dem Zweck von KI: Dient sie dem Leben oder der Macht? [48]
2.4. AI for Good Global Summit (laufend 2024/2025): Der Gipfel der ITU setzt weiterhin den Fokus auf die Nutzung von KI für positive gesellschaftliche Zwecke und die Notwendigkeit einer gemeinsamen Vision. [4]
3. Grundhaltung: KI im Dienst des Lebens
Die Betonung der dienenden Rolle von KI und der Prinzipien von Wahrheit/Transparenz, Schutz von Leben/Freiheit und Unantastbarkeit der Menschenwürde ist ein Kernanliegen in nahezu allen führenden Rahmenwerken.
3.1. OECD Recommendations on AI (2019, aktualisiert 2024) – Prinzip 1 & 2: Betonen weiterhin, dass KI dem menschlichen Wohl dienen und menschliche Werte respektieren soll. [1]
3.2. UNESCO Recommendation on the Ethics of AI (2021): Fokus auf Achtung der menschlichen Würde als übergeordnetes Ziel. [2]
3.3. Vatikan – Note „Antiqua et nova“ (Januar 2025): Das Dokument unterstreicht die Notwendigkeit, dass KI-Systeme im Einklang mit der Menschenwürde und den Grundwerten entwickelt und eingesetzt werden müssen. Es kritisiert eine Überbetonung von Effizienz und Profit auf Kosten der Menschlichkeit. [48]
3.4. Freedom Online Coalition – Joint Statement on Artificial Intelligence and Human Rights (2025): Dieses Statement betont die Notwendigkeit, menschenrechtliche Schutzmaßnahmen für KI in Hochrisikobereichen zu entwickeln und umzusetzen, inklusive transparenter und bedeutsamer menschlicher Aufsicht. [37]
3.5. Rome Call for AI Ethics (seit 2020, fortlaufende Updates): Initiiert von der Päpstlichen Akademie für das Leben, betont der Rome Call sechs Prinzipien der KI-Ethik: Transparenz, Inklusion, Verantwortlichkeit, Unparteilichkeit, Zuverlässigkeit und Sicherheit & Privatsphäre – alles im Dienste der Menschenwürde. Prominente Tech-Unternehmen (z.B. Qualcomm, IBM) haben sich dem Call angeschlossen (zuletzt Qualcomm im Juni 2025). [49]
3.6. Afrikanische KI-Ethik-Prinzipien: Afrikanische Perspektiven werden u. a. durch die AU-Continental AI Strategy (adoptiert 18.–19.07.2024) [60a] sowie Ubuntu-bezogene Fachliteratur untermauert [54], die über die gängigen Fairness- und Transparenz-Aspekte hinaus das Konzept von „Ubuntu“ (Menschlichkeit gegenüber anderen) und gemeinschaftliche Werte als Grundlage für KI-Entwicklung, die dem Leben dient. [54]
4. Die Prinzipien für eine menschenwürdige KI-Entwicklung
❶ Die Würde des Menschen ist unantastbar – auch im digitalen Raum:
4.1. Allgemeine Erklärung der Menschenrechte (1948) – Artikel 1: Das fundamentale Prinzip. [7]
4.2. EU AI Act (Regulation (EU) 2024/1689 (Artificial Intelligence Act), OJ L 2024/1689, 12.07.2024, in Kraft seit 01.08.2024; Verbote ab 02.02.2025, GPAI-Pflichten ab 02.08.2025, weitere Pflichten stufenweise.) – Fokus auf Grundrechte: Der Act schützt explizit Grundrechte wie Nichtdiskriminierung, Privatsphäre und menschliche Aufsicht. [3]
4.3. Vatikan – Note „Antiqua et nova“ (Januar 2025): Das Dokument betont, dass die Würde des Menschen unantastbar ist und dies auch für ungeborene Kinder sowie alte und leidende Menschen gelte. Es warnt davor, menschliche Verantwortung an die KI abzugeben, da die Würde des Menschen nicht auf dessen Leistungsfähigkeit reduziert werden darf. [48]
4.4. Council of Europe Framework Convention on AI and Human Rights, Democracy and the Rule of Law (Adopted 2024, open for signature 2024): Dieses weltweit erste verbindliche internationale Abkommen zur KI-Regulierung betont explizit den Schutz der Menschenwürde. [11]
4.5. Indigene KI-Ethik-Perspektiven: Betonen die Einbettung von KI in kulturelle Werte und Rechte. Das Konzept der indigenen Datensouveränität (Indigenous Data Sovereignty) ist hier zentral. KI-Systeme müssen so entwickelt werden, dass sie die einzigartige kulturelle Identität, Souveränität und Selbstbestimmung indigener Völker respektieren und nicht zur Entmenschlichung oder neuen Form der Kolonialisierung führen (unterstützt durch Indigenous Protocol and AI (2020) [60b] und die CARE Principles [60c]). [55, 56]
❷ Der Frieden ist oberstes Ziel technologischer Entwicklung:
4.6. UN-Charta (1945) – Artikel 1: Der globale Friedensauftrag. [8]
4.7. UN News / SIPRI / ICRC-Appell (März-Juni 2025): Jüngste internationale Diskussionen bei der UN und Berichte des SIPRI betonen die dringende Notwendigkeit internationaler Regulierung von Lethal Autonomous Weapons Systems (LAWS). Es gibt wachsende Rufe nach einem Verbot von „Killer-Robotern“ und einer Sicherstellung menschlicher Kontrolle über die Entscheidung über Leben und Tod. [9, 38]
4.8. Vatikan – Botschaft zum Weltfriedenstag 2024 („Künstliche Intelligenz und Frieden“): Papst Franziskus forderte darin einen internationalen Vertrag zur Regelung der Entwicklung und Nutzung von KI, um den Frieden zu wahren. Die Note „Antiqua et nova“ warnt explizit vor autonomen Waffensystemen als Bedrohung für das Leben. [48, 50]
4.9. Hiroshima Call for AI Ethics for Peace (Juli 2024): Ein historisches multi-religiöses Ereignis, das in Hiroshima stattfand, betonte die gemeinsame Verpflichtung der Religionen, KI für den Frieden zu nutzen, als eine „große Aufgabe mit unbegrenzten Anwendungsmöglichkeiten, die so geleitet werden kann und muss, dass ihr Potenzial dem Guten dient“. [57]
❸ Transparenz und Rechenschaft sind unverzichtbar:
4.10. OECD Recommendations on AI (2019, aktualisiert 2024) – Prinzip 4 (Transparency and Explainability): Bleibt eine zentrale Forderung. [1]
4.11. EU AI Act (Regulation (EU) 2024/1689 (Artificial Intelligence Act), OJ L 2024/1689, 12.07.2024, in Kraft seit 01.08.2024; Verbote ab 02.02.2025, GPAI-Pflichten ab 02.08.2025, weitere Pflichten stufenweise.) – Transparenzpflichten: Fordert umfassende Transparenz für bestimmte KI-Systeme, insbesondere Hochrisiko-Systeme, und die Notwendigkeit der Dokumentation von Trainingsdaten und Algorithmen. [3]
4.12. AI Regulation 2025 – Compliance Requirements: Neuere Artikel betonen, dass Transparenz und Erklärbarkeit („Explainable AI“) nicht mehr nur ethische Überlegungen sind, sondern zunehmend zu Compliance-Anforderungen werden, insbesondere in regulierten Sektoren. [39]
4.13. Rome Call for AI Ethics (seit 2020): Listet „Transparenz“ als eines der sechs Kernprinzipien auf. [49]
4.14. Asiatische KI-Ethik-Rahmenwerke (z.B. Singapur): Singapurs „Model AI Governance Framework“ (2020, mit Updates) betont explizit, dass KI-Systeme erklärbar, transparent und fair sein müssen, um öffentliches Vertrauen zu fördern. [58]
❹ Gerechtigkeit und Gleichbehandlung sind nicht verhandelbar:
4.15. OECD Recommendations on AI (2019, aktualisiert 2024) – Prinzip 2 (Human-centred Values and Fairness): Bleibt ein Kernprinzip. [1]
4.16. UNESCO Recommendation on the Ethics of AI (2021) – Kapitel IV. Werte und Prinzipien: Fordert Fairness, Gleichheit und Nicht-Diskriminierung. [2]
4.17. Vatikan – Note „Antiqua et nova“ (Januar 2025): Warnt vor Formen von Vorurteilen und Diskriminierung durch KI-Systeme und betont, dass systemische Fehler sich vervielfachen und zu Ungerechtigkeiten und sozialer Ungleichheit führen können. Zusätzlich erließ der Staat der Vatikanstadt „Guidelines on Artificial Intelligence“ (Dez 2024/Jan 2025), ein 13-seitiges Dekret, das u. a. diskriminierende KI-Praktiken und „anthropological inferences with discriminatory effects“ untersagt. [48, 48a, 51]
4.18. AI Bias and Fairness Regulation Updates 2025: Neuere Entwicklungen in der KI-Regulierung legen einen starken Fokus auf die Durchführung regelmäßiger Bias-Audits und die Dokumentation von Modellen („Model Cards“ und „Datasheets for Datasets“), um Diskriminierung zu verhindern. Dies wird zunehmend eine rechtliche Anforderung. [39]
4.19. Interdisziplinäre Forschung zu Bias (z.B. Soziologie, Psychologie): Wissenschaftliche Studien in der Soziologie und Psychologie untersuchen detailliert, wie algorithmische Vorurteile entstehen (durch Trainingsdaten, Designentscheidungen) und welche Auswirkungen sie auf soziale Gerechtigkeit haben, und fordern interdisziplinäre Lösungen. [59]
4.20. Lateinamerikanische KI-Ethik-Initiativen: Betonen die Entwicklung von KI-Modellen, die inklusiv sind und Bias und Diskriminierung eliminieren, oft mit einem Fokus auf die einzigartigen Realitäten und Bedürfnisse der Region. [60]
❺ Demokratische Kontrolle ist Voraussetzung für Legitimität:
4.21. Council of Europe Framework Convention on AI (Adopted 2024, open for signature 2024): Dieses rechtsverbindliche Instrument zielt darauf ab, dass die Nutzung von KI mit demokratischen Grundsätzen vereinbar ist und die Öffentlichkeit beteiligt wird. [11]
4.22. UN Global Digital Compact (September 2024): Zielt darauf ab, die digitale Kluft zu überbrücken und eine inklusivere, offene und sichere digitale Zukunft zu gestalten, was eine breite gesellschaftliche Teilhabe an der KI-Gestaltung impliziert. (UN-GA-Beschluss) [36]
4.23. Consensus Statement of the Workshop on Artificial Intelligence, Justice, and Democracy (2025): Ergebnisse eines Workshops von 2025 betonen die Notwendigkeit, KI-Tools für Bürgerbeteiligung inklusiv und zugänglich zu gestalten, um die demokratische Prozesse zu stärken. [40]
❻ Der Schutz des Planeten ist auch digitale Pflicht:
4.24. UNEP (United Nations Environment Programme) – New Coalition for Sustainable AI (Februar 2025): UNEP hat im Februar 2025 eine neue Koalition ins Leben gerufen, um KI auf einen nachhaltigeren Pfad zu bringen. Es wird betont, dass KI zwar viel Energie verbraucht, aber auch zur Bekämpfung des Klimawandels eingesetzt werden kann, wenn ihr ökologischer Fußabdruck minimiert wird. [41]
4.25. World Economic Forum (WEF) – Reports on AI’s Environmental Impact (Juni 2025): Das WEF veröffentlichte im Juni 2025 Berichte, die betonen, wie Unternehmen den ökologischen Fußabdruck ihrer KI-Nutzung reduzieren können. [42]
4.26. Vatikan – Enzyklika Laudato si‘ (2015): Obwohl älter, ist sie ein grundlegendes Dokument zur Umweltschutzethik, das eine ethische Dimension für alle Technologien impliziert. Der Rome Call und die jüngsten Vatikan-Dokumente zu KI greifen diesen Umweltaspekt explizit auf. [52]
4.27. Forschung zu „Green AI“: Die Informatikforschung arbeitet aktiv an energieeffizienteren KI-Algorithmen und -Hardware, was die Forderung nach Nachhaltigkeit wissenschaftlich unterstützt. [13]
❼ Offenheit für Mitgestaltung stärkt Vertrauen und Teilhabe:
4.28. OECD AI Governance Updates (2025): Betonen weiterhin, dass eine wirksame KI-Governance die Zusammenarbeit mit allen Stakeholdern erfordert. [1]
4.29. UNESCO Recommendation on the Ethics of AI (2021): Befürwortet weiterhin einen Multi-Stakeholder-Ansatz. [2]
4.30. Indigene KI-Ethik-Perspektiven: Betonen die Notwendigkeit, indigene Gemeinschaften als gleichberechtigte Partner in die Gestaltung der KI-Tools einzubeziehen, anstatt sie nur als „Subjekte“ der Technologie zu sehen. [56]
❽ Unabhängigkeit sichern – Schutz vor Lobbyismus und Machtmissbrauch:
4.31. OECD Regulatory Policy Outlook 2025: Betont die Notwendigkeit von agiler und robuster Regulierung, um die Risiken von Innovationen, einschließlich unangemessener Einflussnahme, zu steuern. [3]
4.32. Debatten um AI-Monopole und Wettbewerb: Die Diskussionen über Konzentration von Macht bei wenigen großen Tech-Unternehmen und die Notwendigkeit effektiver Wettbewerbsregulierung gewinnen weiter an Fahrt. [15]
❾ Bildung und KI-Kompetenz für alle:
Die Data-Literacy-Charta (Stifterverband, 2021) betont, dass jede:r Mensch befähigt werden muss, Daten zu verstehen, kritisch zu hinterfragen und verantwortungsvoll einzusetzen. Sie bildet damit ein Fundament für Souveränität, Fairness und Teilhabe in einer digitalen Welt.
- Zugang für alle – Datenkompetenz als Grundrecht
- Fairness & Werte – ethischer Umgang mit Daten
- Lebenslanges Lernen – Bildung über alle Bereiche hinweg
- Transparenz & Verantwortung – nachvollziehbare Prozesse
- Teilhabe & Gemeinwohl – Daten im Dienst der Gesellschaft
Damit liefert die Data-Literacy-Charta praktische Kompetenzen für unsere Charta für eine menschenwürdige Entwicklung. Gemeinsam bilden sie einen Brückenschlag von Datenpraxis zu Menschlichkeit. ➜ Zur Data-Literacy-Charta [68]
4.33. UNESCO Recommendation on the Ethics of AI (2021): Bleibt eine treibende Kraft für die Förderung von KI-Kompetenzen. [2]
4.34. Vatikan – Note „Antiqua et nova“ (Januar 2025): Forderte „Bildung und Aufklärung“, um Gesellschaften über die Risiken und Möglichkeiten von KI zu informieren. [48]
4.35. AI Regulation in 2025 – Data Scientist Focus: Aktuelle Artikel weisen darauf hin, dass ein Verständnis von KI-Governance und ethischen Prinzipien für Data Scientists und Entwickler unerlässlich wird, da es zu einer Compliance-Anforderung wird. [39]
4.36. Interkulturelle Bildungsperspektiven: Betonen, dass KI-Tools so gestaltet sein sollten, dass sie unterschiedliche kulturelle Perspektiven integrieren und die Entwicklung interkultureller Kompetenzen fördern. [61]
❿ Sicherung des Lebensunterhalts und sozialer Zusammenhalt:
4.37. ILO (International Labour Organization) & WEF (World Economic Forum): Berichte im Jahr 2025 und darüber hinaus analysieren weiterhin die Auswirkungen von KI auf Arbeitsplätze und fordern proaktive Maßnahmen zur Umschulung und Absicherung, um soziale Spaltung zu vermeiden. [17, 18]
4.38. Vatikan – Note „Antiqua et nova“ (Januar 2025): Warnt explizit vor „Arbeitsversklavung durch Automatisierung“ und den sozialen und psychologischen Schäden. [48]
4.39. Soziologische Studien zu KI und Arbeit: Zahlreiche soziologische Studien untersuchen die Auswirkungen von KI auf soziale Ungleichheit, Arbeitsplatzsicherheit und den sozialen Zusammenhalt und betonen die Notwendigkeit von Politikmaßnahmen zur Abfederung negativer Folgen. [62]
5. Globale Verantwortung: Wer sorgt für die Einhaltung dieser Prinzipien?
Die Forderung nach einer unabhängigen, pluralistischen und transparenten Bewertungs- und Begleitinstanz auf internationaler Ebene findet starke Unterstützung in neuen Entwicklungen.
5.1. UNESCO Recommendation on the Ethics of AI (2021): Empfiehlt die Einrichtung von Monitoring- und Evaluierungsmechanismen. [2]
5.2. Council of Europe Framework Convention on AI (Adopted 2024, open for signature 2024): Der Rahmen sieht die Einrichtung von Follow-up-Mechanismen vor, um die Einhaltung der Konvention durch die Mitgliedstaaten zu überwachen. [11]
5.3. AI Governance Platforms 2025: Es entstehen immer mehr spezialisierte Tools und Plattformen, die Unternehmen und Regierungen bei der Umsetzung und Überwachung von KI-Governance-Prinzipien unterstützen, inklusive Auditing, Risikomanagement und Compliance. [43]
5.4. UN Global Digital Compact (September 2024): Zielt auf eine stärkere internationale Zusammenarbeit bei der digitalen Governance ab, was die Notwendigkeit einer globalen Bewertungsinstanz impliziert. (UN-GA-Beschluss) [36]
6. Unser Maßstab: Das universelles Fundament
Die Verankerung der Charta in universellen Menschenrechten und Nachhaltigkeitszielen bleibt ein grundlegendes Argument.
6.1. Allgemeine Erklärung der Menschenrechte (1948) und UN-Charta (1945): Das unverrückbare Fundament. [7, 8]
6.2. UN Sustainable Development Goals (SDGs): Der globale Rahmen für eine nachhaltige und gerechte Entwicklung. [12]
6.3. Council of Europe Framework Convention on AI (Adopted 2024, open for signature 2024): Diese Konvention ist das erste rechtsverbindliche internationale Abkommen, das explizit Menschenrechte, Demokratie und Rechtsstaatlichkeit im Kontext von KI verankert. [11]
6.4. Vatikan – Note „Antiqua et nova“ (Januar 2025): Das Dokument betont, dass die ethische Beurteilung und der verantwortbare Umgang mit KI auf dem Respekt der Menschenwürde basieren muss. [48]
6.5. Rome Call for AI Ethics (seit 2020): Stützt sich auf die Prinzipien der Menschenwürde und des Gemeinwohls und sucht die Konvergenz mit globalen Standards. [49]
6.6. Interkultureller ethischer Minimalkonsens: Viele Forschungen im Bereich der vergleichenden Ethik zeigen, dass trotz kultureller Unterschiede ein Kern von Werten (z.B. Vermeidung von Leid, Respekt vor Leben, Fairness) kulturübergreifend anerkannt wird, was eine Basis für globale KI-Ethik bietet. [63]
7. Sicherung der Unabhängigkeit – Schutz vor Einflussnahme und Machtmissbrauch
Die Forderung nach strukturellen Schutzmaßnahmen für die Unabhängigkeit ethischer KI-Gremien wird durch die zunehmende Macht der KI-Entwickler und -Anwender noch relevanter.
7.1. OECD Regulatory Policy Outlook 2025: Betont die Notwendigkeit von agiler und robuster Regulierung, um die Risiken von Innovationen, einschließlich unangemessener Einflussnahme, zu steuern. [3]
7.2. Debatten um AI-Monopole und Wettbewerb: Die Diskussionen über Konzentration von Macht bei wenigen großen Tech-Unternehmen und die Notwendigkeit effektiver Wettbewerbsregulierung gewinnen weiter an Fahrt. [15]
8. Vertrauen – Die Grundlage einer verantwortungsvollen Mensch-KI-Beziehung
Die skizzierten Dimensionen der Vertrauensbildung sind zentrale Elemente aller führenden KI-Ethik- und Regulierungsrahmen.
8.1. EU AI Act (Regulation (EU) 2024/1689 (Artificial Intelligence Act), OJ L 2024/1689, 12.07.2024, in Kraft seit 01.08.2024; Verbote ab 02.02.2025, GPAI-Pflichten ab 02.08.2025, weitere Pflichten stufenweise.) – Umfassende Anforderungen: Der Act legt detaillierte und verpflichtende Anforderungen an Hochrisiko-KI-Systeme fest, die direkt auf die Schaffung von Vertrauen abzielen (Risikomanagement, Daten-Governance, Transparenz, menschliche Aufsicht, Robustheit, Cybersicherheit). [3]
8.2. ISO/IEC 42001 (AI Management System Standard): Dieser Standard, der 2023 verabschiedet wurde und dessen Implementierung 2024/2025 voranschreitet, bietet einen Rahmen für Organisationen, um AI-Systeme verantwortungsvoll zu managen und Vertrauen aufzubauen. [24]
8.3. Human-in-the-Loop AI – Readiness Guide 2025: Neuere Leitfäden betonen die Wichtigkeit menschlicher Aufsicht („Human-in-the-Loop“ oder „Human-in-Command“) für Compliance, Vertrauen und Genauigkeit von KI-Systemen. Sie geben konkrete Schritte zur Implementierung vor. [44]
8.4. Rome Call for AI Ethics (seit 2020): Betont „Zuverlässigkeit, Sicherheit und Privatsphäre“ als Kernprinzipien für den Aufbau von Vertrauen in KI. [49]
8.5. Psychologische Forschung zu Mensch-KI-Interaktion: Studien in der Mensch-Computer-Interaktion (HCI) und Psychologie untersuchen detailliert, wie Vertrauen in KI entsteht, gepflegt oder zerstört wird, und liefern Empfehlungen für Design und Kommunikation. [64]
9. Leitfaden zur Vertrauensprüfung für KI-Nutzer
Die Betonung von KI-Kompetenz und kritischem Denken bei Nutzern ist ein universelles Thema in aktuellen Debatten.
9.1. UNESCO Recommendation on the Ethics of AI (2021): Fordert die Förderung von KI-Kompetenzen und ethischem Bewusstsein. [2]
9.2. Vatikan – Note „Antiqua et nova“ (Januar 2025): Betont die Notwendigkeit von „Bildung und Aufklärung“ für die Gesellschaft, um die Risiken und Möglichkeiten von KI zu verstehen und kritisch zu hinterfragen. Es warnt vor „blindem Vertrauen“ in KI. [48]
9.3. AI Regulation in 2025 – Data Scientist Focus: Zeigt, dass das Verständnis und die Fähigkeit zur Bewertung von KI-Ergebnissen nicht nur für Laien, sondern auch für Fachleute immer wichtiger wird, um Compliance zu gewährleisten. [39]
9.4. Medienkompetenz und „Fake News“ im KI-Zeitalter: Pädagogische Ansätze und Medienforschung konzentrieren sich verstärkt darauf, Nutzern Werkzeuge an die Hand zu geben, um Inhalte von generativer KI (z.B. Deepfakes) kritisch zu hinterfragen. [65]
9.5. Die Data-Literacy-Charta (Stifterverband, 2021) betont, dass jede:r Mensch befähigt werden muss, Daten zu verstehen, kritisch zu hinterfragen und verantwortungsvoll einzusetzen. Sie bereitet die Menschen darauf vor, Fragen zu stellen und Bewertungen vorzunehmen, gibt aber noch keine konkreten Prüfwerkzeuge für KI an die Hand. [68]
10. Das Menschsein bewahren – Unsere Würde im Zeitalter der KI
Die Betonung der einzigartigen menschlichen Qualitäten und die Bewahrung der Würde bleibt ein philosophisches und ethisches Kernanliegen.
10.1. Vatikan – Note „Antiqua et nova“ (Januar 2025): Dies ist eine zentrale Quelle für diesen Abschnitt. Das Dokument betont, dass der Mensch mehr ist als eine Berechnungsgröße, ein fühlendes, reflektierendes, leidendes und schöpferisches Wesen. Es warnt davor, menschliche Intelligenz auf bloße Faktenerfassung oder Aufgabenerfüllung zu reduzieren und betont die Offenheit des Menschen für die „ultimativen Fragen des Lebens“ sowie die Rolle des Gewissens. Es appelliert, menschliche Qualitäten wie Selbstreflexion, Urteilsfähigkeit und die Fähigkeit zur moralischen Abwägung zu bewahren. [48]
10.2. Philosophische Anthropologie und Technikphilosophie: Diese Disziplinen beschäftigen sich fundamental mit der Frage, was den Menschen ausmacht und wie Technologie das Menschsein beeinflusst. Ihre Charta ist hier stark verankert. [27, 66]
10.3. Consensus Statement of the Workshop on Artificial Intelligence, Justice, and Democracy (2025): Betont die Notwendigkeit, die Rolle menschlicher Urteilsfähigkeit zu definieren, insbesondere in Situationen, wo Technologie an ihre Grenzen stößt. [40]
11. Menschliche Kreativität und Urheberrecht im Zeitalter der KI
Dieser Bereich ist von besonders dynamischen rechtlichen und politischen Entwicklungen geprägt.
11.1. U.S. Copyright Office – Key Guidance on Fair Use in Generative AI Training (Mai 2025): Am 9. Mai 2025 veröffentlichte das U.S. Copyright Office die Vorabversion („pre-publication draft“) von Teil 3 seines mehrteiligen KI-Berichts (u. a. zu Training & Fair Use). Es ist kein rechtsverbindliches „Guidance Document“, sondern ein Report-Teil im Konsultations-/Analyseformat. [46]
11.2. European Copyright Society Opinion on Copyright and Generative AI (Februar 2025): Die ECS hat eine detaillierte Stellungnahme veröffentlicht, die dringenden Handlungsbedarf in der EU hinsichtlich des Umfangs der Text- und Data-Mining (TDM)-Ausnahme und der Rechtevorbehalte im KI Act fordert. [47]
11.3. Laufende Gerichtsverfahren: Zahlreiche Klagen von Künstlern, Autoren und Medienhäusern gegen Entwickler generativer KI wegen Urheberrechtsverletzungen sind weltweit anhängig und werden in den kommenden Monaten und Jahren Präzedenzfälle schaffen. [31]
11.4. Debatten über „Generative AI“ und Autorschaft: In der Kunst-, Literatur- und Musikwissenschaft sowie in der Rechtswissenschaft wird intensiv über die Definition von Autorschaft und kreativer Leistung im Kontext von KI diskutiert. [67]
12. Praktische Gewährleistung: Zehn Prinzipien in Aktion
Die Umsetzung der Prinzipien in die Praxis ist ein Fokus für die nächsten Jahre.
12.1. ISO/IEC 42001 (AI Management System Standard): Dieser Standard bietet einen praktischen Rahmen für Organisationen, um ein Managementsystem für KI zu implementieren, das ethische und verantwortungsvolle Prinzipien in die täglichen Abläufe integriert. [24]
12.2. AI Governance Platforms 2025: Die Entwicklung und Implementierung spezialisierter Software-Tools zur Verwaltung und Überwachung von KI-Systemen nach ethischen und Compliance-Kriterien nimmt zu. [43]
12.3. Data-Literacy-Charta des Stifterverbands (2021) beschreibt, wie Menschen in einer datengetriebenen Welt befähigt werden, Daten verantwortungsvoll und kompetent zu nutzen. Damit liefert sie das praktische Wissen und die Kompetenzen zur Umsetzung der Charta der Menschlichkeit im Zeitalter der KI. [68]
13. Zielbild: Eine menschliche Zukunft, gemeinsam mit KI
Die Vision einer KI im Dienste der Menschheit bleibt das übergeordnete Ziel vieler Initiativen.
13.1. AI for Good Global Summit (ITU): Bleibt eine Plattform, die die Vision einer KI zur Lösung globaler Herausforderungen und zur Verbesserung der Lebensqualität fördert. [4]
13.2. Vatikan – Note „Antiqua et nova“ (Januar 2025): Das Dokument betont das „außergewöhnliche Potenzial“ von KI als „Werkzeug“ zur Förderung des menschlichen Wohlergehens, wenn sie ethisch genutzt wird. [48]
14. Aufruf: Die Zukunft liegt in unseren Händen
Die Charta ruft zur aktiven Gestaltung der Zukunft durch menschliches Handeln auf.
14.1. UN Global Digital Compact (September 2024): Stärkt die Idee der gemeinsamen Gestaltung der digitalen Zukunft. (UN-GA-Beschluss) [36]
15. Mitzeichnung & Verbreitung: Eine globale Bewegung für Menschlichkeit
Die Bedeutung zivilgesellschaftlichen Engagements für die KI-Governance wird weiter anerkannt.
15.1. Freedom Online Coalition – Joint Statement (2025): Betont die Rolle der Zivilgesellschaft bei der Gewährleistung von Menschenrechten im Kontext von KI. [37]
15.2. Wachsende globale Graswurzelbewegungen: Überall auf der Welt entstehen zivilgesellschaftliche Initiativen, die sich für eine ethische und gerechte Gestaltung der KI einsetzen und auf die Macht kollektiver Aktion setzen. [33, 34]
Quellen und Konvergenz mit globalen KI-Regulierungen
(Links Stand August 2025: Trotz sorgfältiger inhaltlicher Kontrolle übernehmen wir keine Haftung für die Inhalte externer Links. Für den Inhalt der verlinkten Seiten sind ausschließlich deren Betreiber verantwortlich.)
[1] OECD. (2019, revidiert 2024). Revised Recommendation of the Council on AI (C/MIN(2024)16/FINAL). Paris: OECD Publishing. [Online verfügbar: https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449]
[2] UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. Paris: UNESCO Publishing. [Online verfügbar: https://www.unesco.org/en/artificial-intelligence/recommendation-ethics]
[3] European Union. (2024). Regulation (EU) 2024/1689 (Artificial Intelligence Act). OJ L 2024/1689, 12.07.2024, in Kraft seit 01.08.2024. [Online verfügbar: https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX%3A32024R1689]. Zeitplan-Referenz: [https://artificialintelligenceact.eu/implementation-timeline/]
[4] International Telecommunication Union (ITU). AI for Good Global Summit. (Laufende Veranstaltungen und Berichte). [Online verfügbar: https://aiforgood.itu.int/]
[5] Google. (2018). AI Principles. [Online verfügbar: https://ai.google/responsibility/principles/]
[6] Microsoft. (2018). Responsible AI Principles. [Online verfügbar: https://www.microsoft.com/en-us/ai/responsible-ai-resources]
[7] United Nations. (1948). Universal Declaration of Human Rights. [Online verfügbar: https://unric.org/de/allgemeine-erklaerung-menschenrechte/] oder Charta der Vereinten Nationen. [Online verfügbar (PDF): https://unric.org/de/wp-content/uploads/sites/4/2022/10/charta.pdf]
[8] United Nations. (1945). Charter of the United Nations. [Online verfügbar: https://unric.org/de/allgemeine-erklaerung-menschenrechte/] – siehe auch Punkt 7
[9] International Committee of the Red Cross (ICRC). (Various publications, e.g., „Autonomous Weapon Systems: An ethical and legal discussion“). Jüngste Diskussionen und Stellungnahmen zum Verbot von LAWS. [Online verfügbar: https://www.icrc.org/sites/default/files/document/file_list/icrc_ethics_and_autonomous_weapon_systems_report_3_april_2018.pdf]
[10] European Union. (2016). Regulation (EU) 2016/679 (General Data Protection Regulation – GDPR). [Online verfügbar: https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX%3A32016R0679]
[11] Council of Europe. (2024). Framework Convention on Artificial Intelligence, Human Rights, Democracy and the Rule of Law (CETS No. 225). Angenommen am 17.05.2024, zur Unterzeichnung geöffnet am 05.09.2024. [Online verfügbar: https://www.coe.int/en/web/artificial-intelligence/the-framework-convention-on-artificial-intelligence] – [Volltext PDF: https://rm.coe.int/1680afae3c]
[12] United Nations. Sustainable Development Goals (SDGs). [Online verfügbar: https://unric.org/de/17ziele/]
[13] Strubell, E., Ganesh, A., & McCallum, A. (2019). Energy and Policy Considerations for Deep Learning in NLP. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. [Online verfügbar: https://arxiv.org/pdf/1906.02243]
[14] Beispiele: Lobbyregistergesetz (Deutschland), Transparency Register (EU).
[15] Beispiele: EU-Wettbewerbsrechtliche Verfahren gegen Tech-Konzerne, US-Kartellklagen gegen Technologieunternehmen.
[16] OECD & Europäische Kommission. (Mai 2025). Empowering Learners for the Age of AI: An AI Literacy Framework for Primary and Secondary Education (Entwurf, finale Version 2026). [Online verfügbar: https://ailiteracyframework.org/]
[17] International Labour Organization (ILO). The Future of Work Initiative. [Online verfügbar: https://www.ilo.org/resource/future-work-initiative-road-declaration]
[18] World Economic Forum (WEF). Future of Jobs Report. (Regelmäßige Veröffentlichung, z.B. 2025). [Online verfügbar: https://www.weforum.org/publications/the-future-of-jobs-report-2025/] oder: Offizielle deutsche Pressemitteilung als PDF: https://reports.weforum.org/docs/WEF_Future_of_Jobs_2025_Press_Release_DE.pdf
[19] Global Partnership on Artificial Intelligence (GPAI). [Online verfügbar: https://www.gpai.ai/]
[20] International Committee of the Red Cross (ICRC). Geneva Conventions. [Online verfügbar: https://www.icrc.org/en/document/geneva-conventions-1949-additional-protocols]
[21] Beispiele: Charter of Fundamental Rights of the European Union, Electronic Frontier Foundation (EFF) work on Digital Rights.
[22] Beispielhafte philosophische Werke zur Ethik und Sinnstiftung.
[23] Carpenter, D. P., & Moss, D. A. (Eds.). (2014). Preventing Regulatory Capture: Special Interest Influence and How to Limit It. Cambridge University Press.
[24] International Organization for Standardization (ISO). (2023). ISO/IEC 42001:2023 – Information technology — Artificial intelligence — Management system. (Veröffentlicht 2023, Implementierung 2024/25). [Online verfügbar: https://www.iso.org/standard/42001]
[25] IEEE Standards Association. P7000 Series: Ethically Aligned Design. [Online verfügbar: https://standards.ieee.org/industry-connections/ec/ethically-aligned-design.html]
[26] Beispiele: News Literacy Project, Reporter’s Committee for Freedom of the Press.
[27] Frankl, V. E. (1946). Man’s Search for Meaning. Beacon Press; Arendt, H. (1958). The Human Condition. University of Chicago Press.
[28] Picard, R. W. (1997). Affective Computing. MIT Press; aktuelle Forschung in Affective AI.
[29] World Intellectual Property Organization (WIPO). Artificial Intelligence and Intellectual Property. [Online verfügbar: https://www.wipo.int/en/web/frontier-technologies/artificial-intelligence/index]
[30] European Union. (2019). Directive (EU) 2019/790 on copyright and related rights in the Digital Single Market. [Online verfügbar: https://eur-lex.europa.eu/eli/dir/2019/790/oj]
[31] Beispiele: Laufende Klagen von Künstlern gegen generative KI-Anbieter (z.B. Getty Images vs. Stability AI, Autorenklagen).
[32] IBM. IBM Principles for Trust and Transparency in AI. [Online verfügbar: https://www.ibm.com/trust/responsible-ai]
[33] AlgorithmWatch. [Online verfügbar: https://algorithmwatch.org/]
[34] AI Now Institute. [Online verfügbar: https://ainowinstitute.org/]
[35] Modern Data 101. (2025). 5 Best Practices for AI Governance in 2025. [Online verfügbar: https://www.moderndata101.com/blogs/5-best-practices-for-ai-governance-in-2025]
[36] United Nations. (2024). Pact for the Future & Global Digital Compact. (Angenommen am 22.09.2024). [Online verfügbar: https://www.un.org/en/summit-of-the-future/pact-for-the-future]
[37] Freedom Online Coalition. (2025). Joint Statement on Artificial Intelligence and Human Rights. [Online verfügbar: https://freedomonlinecoalition.com/joint-statement-on-ai-and-human-rights-2025/]
[38] UN News. (Juni 2025). As AI evolves, pressure mounts to regulate ‚killer robots‘. [Online verfügbar: https://news.un.org/en/story/2025/06/1163891]. (Siehe auch SIPRI News, März 2025: https://www.sipri.org/news/2025/sipri-holds-side-event-un-expert-meeting-autonomous-weapon-systems).
[39] AI CERTs News. (2025). AI Regulation 2025: Striking the Balance Between Innovation and Safety. [Online verfügbar: https://www.aicerts.ai/news/ai-regulation-2025-innovation-safety-balance/]
[40] Pontifical Academy of Social Sciences / Workshop on AI, Justice, and Democracy. (2025). Consensus Statement. [Online verfügbar: https://www.pass.va/en/events/2025/artificial_intelligence/final_statement.html]
[41] UNEP (United Nations Environment Programme). (Februar 2025). New Coalition aims to put Artificial Intelligence on a more sustainable path. [Online verfügbar: https://www.unep.org/news-and-stories/press-release/new-coalition-aims-put-artificial-intelligence-more-sustainable-path] – [Koalitions-Website: https://www.sustainableaicoalition.org/about/]
[42] World Economic Forum (WEF). (Juni 2025). How to cut the environmental impact of your company’s AI use. [Online verfügbar: https://www.weforum.org/stories/2025/06/how-ai-use-impacts-the-environment/]
[43] Knostic. (August 2025). 14 Best AI Governance Platforms and Tools in 2025. [Online verfügbar: https://www.knostic.ai/blog/ai-governance-platforms]
[44] Parseur. (Juli 2025). Human-in-the-Loop AI (HITL) – Complete Guide to Benefits, Best Practices & Trends for 2025. [Online verfügbar: https://parseur.com/blog/human-in-the-loop-ai]
[45] Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG). (2025). Human in the Loop? (Laufendes Forschungsprojekt). [Online verfügbar: https://www.hiig.de/en/project/human-in-the-loop/]
[46] U.S. Copyright Office. (Mai 2025). AI Initiative – Report Part 3 (pre-publication draft). (Veröffentlicht am 09.05.2025). [Online verfügbar: https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-3-Generative-AI-Training-Report-Pre-Publication-Version.pdf]
[47] Wolters Kluwer. (Februar 2025). European Copyright Society Opinion on Copyright and Generative AI. [Online verfügbar: https://legalblogs.wolterskluwer.com/copyright-blog/european-copyright-society-opinion-on-copyright-and-generative-ai/]
[48] Vatikan, Dikasterium für die Glaubenslehre. (Januar 2025). Antiqua et nova. Note über das Verhältnis von künstlicher Intelligenz und menschlicher Intelligenz. (Publiziert am 28.01.2025). [Online verfügbar: https://www.vaticannews.va/de/vatikan/news/2025-01/wortlaut-vatikan-ki-technologie-antiqua-nova-dokument-internet.html]
[48a] Gouvernorat des Vatikanstaates. (Dezember 2024 / Januar 2025). Guidelines on Artificial Intelligence – Dekret Nr. DCCII der Päpstlichen Kommission, in Kraft ab 01.01.2025. [Online verfügbar: https://www.vaticanstate.va/en/news/1301-the-governorate-of-vatican-city-state-s-guidelines-on-artificial-intelligence.html] – [Zu den Prinzipien: https://www.vaticanstate.va/en/news/1372-the-principles-behind-the-guidelines-on-artificial-intelligence.html]
[49] Päpstliche Akademie für das Leben. Rome Call for AI Ethics. [Online verfügbar: https://www.romecall.org/] (Beinhaltet Pressemitteilungen zu neuen Unterzeichnern und Veranstaltungen, z.B. Qualcomm Juni 2025).
[50] Vatikan, Papst Franziskus. (Dezember 2023). Botschaft zum 57. Weltfriedenstag 2024: Künstliche Intelligenz und Frieden. [Online verfügbar: https://www.vatican.va/content/francesco/de/messages/peace/documents/20231208-messaggio-57giornatamondiale-pace2024.html]
[51] All-AI.de. (Januar 2025). Vatikan startet in die KI-Zukunft mit Ethik-Regeln. [Online verfügbar: https://www.all-ai.de/news/topbeitraege/vatikan-startet-in-die-ki-zukunft-mit-ethik-regeln]
[52] Vatikan, Papst Franziskus. (Mai 2015). Enzyklika Laudato si‘. [Online verfügbar: https://www.vatican.va/content/francesco/de/encyclicals/documents/papa-francesco_20150524_enciclica-laudato-si.html]
[53] Universität Augsburg. (Wintersemester 2025/2026). Ringvorlesung „Interdisziplinäre Perspektiven auf KI & Ethik“. [Online verfügbar: https://www.uni-augsburg.de/de/fakultaet/fai/informatik/im-studium/ringvorlesung-ki-ethik/]
[54] African AI Ethics. (Various publications and initiatives). [Online verfügbar: https://africanaiethics.com/]. (Siehe z.B. „Artificial Intelligence African Insight Report“, 2022).
[55] Prism – Sustainability Directory. (April 2025). Indigenous AI Ethics Future. [Online verfügbar: https://prism.sustainability-directory.com/term/indigenous-ai-ethics-future/]
[56] Policy Options. (Mai 2025). AI threatens Indigenous data sovereignty and digital self-determination. [Online verfügbar: https://policyoptions.irpp.org/magazines/may-2025/ai-indigenous-data/]
[57] Pontifical Academy for Life. (Juli 2024). AI Ethics for Peace: World Religions commit to the Rome Call. (Pressemitteilung). [Online verfügbar: https://www.academyforlife.va/content/dam/pav/documenti%20pdf/2024/AI_Japan/Press%20Release%20_%20AI%20ETHICS%20FOR%20PEACE.pdf]
[58] Personal Data Protection Commission (PDPC) Singapore. (2020). Model AI Governance Framework (Second Edition). [Online verfügbar: https://www.pdpc.gov.sg/help-and-resources/2020/01/model-ai-governance-framework]
[59] Beispiele für Forschung zu Bias: IBM AI Fairness 360, Fairlearn (Microsoft), sowie zahlreiche akademische Publikationen in Journalen für Soziologie, Psychologie, Informatik und Recht, die sich mit algorithmischem Bias befassen.
[60] Brookings. (Februar 2025). Regional cooperation crucial for AI safety and governance in Latin America. [Online verfügbar: https://www.brookings.edu/articles/regional-cooperation-crucial-for-ai-safety-and-governance-in-latin-america/] (Siehe auch TechPolicy.Press: Mapping Artificial Intelligence Regulation in Latin America, August 2024).
[60a] African Union (AU). (2024). Continental AI Strategy. (Adoptiert am 18.–19.07.2024). [Online verfügbar: https://au.int/en/documents/20240809/continental-artificial-intelligence-strategy] – [Volltext PDF: https://au.int/sites/default/files/documents/44004-doc-EN-_Continental_AI_Strategy_July_2024.pdf]
[60b] Indigenous Protocol and AI (IPA). (2020). [Online verfügbar: https://www.indigenous-ai.net/]
[60c] Global Indigenous Data Alliance (GIDA). (2019/2020). CARE Principles for Indigenous Data Governance. [Online verfügbar: https://www.gida-global.org/care]
[61] Aithor. (Februar 2025). Wie KI Lehrmethoden in interkulturellen Klassen verbessern kann. [Online verfügbar: https://aithor.com/essay-examples/wie-ki-lehrmethoden-in-interkulturellen-klassen-verbessern-kann]
[62] Beispiele: ILO-Berichte zur Zukunft der Arbeit, Studien von Forschungsinstituten wie dem WZB Berlin oder dem Hans-Böckler-Stiftung.
[63] Beispielhafte Forschung zur vergleichenden Ethik: Forschung von Forschern wie Peter Singer oder Martha Nussbaum, die universelle ethische Prinzipien untersuchen.
[64] Beispielhafte Forschung zur HCI und Psychologie: Studien zu Benutzervertrauen in autonome Systeme, Akzeptanz von KI in verschiedenen Kontexten (z.B. Gesundheitswesen).
[65] Beispiel: Initiativen wie die News Literacy Project zur Förderung von kritischem Denken bei der Bewertung von Online-Informationen.
[66] Beispiele: Technikphilosophische Werke von Martin Heidegger, Günther Anders, Hans Jonas.
[67] Beispiele: Diskussionen in Urheberrechtsverbänden, Künstlernetzwerken, Musikindustrie-Organisationen.
[68] Data-Literacy-Charta (Stifterverband, 2021) ➜ Zur Data-Literacy-Charta
