TUM Think Tank
Wo gesellschaftliche Herausforderungen von heute auf technologische Spitzenleistung von morgen treffen.
Da digitale Technologien zunehmend handlungsähnliche Eigenschaften aufweisen, verschwimmen die Grenzen zwischen menschlicher und künstlicher Handlungsfähigkeit – und es stellen sich grundlegende Fragen zu Institutionen, Identität und Governance. Trotz rasanter Fortschritte im Bereich der Künstlichen Intelligenz fehlt es bislang an belastbaren konzeptionellen Rahmenwerken, die helfen, zu verstehen, wie künstliche Akteure komplexe soziale Systeme prägen, herausfordern und transformieren.
Dieses Fellowship-of-Practice-Projekt am TUM Think Tank zielt darauf ab, einen interdisziplinären Zugang zur künstlichen Handlungsfähigkeit zu entwickeln. Es stützt sich auf Erkenntnisse aus der Evolutionstheorie, der Komplexitätsforschung, der Institutionenökonomik und der Technikphilosophie. Im Zentrum steht die Frage, wie künstliche Akteure mit menschlichen Systemen interagieren – und wie diese Ko-Evolution institutionelle Dynamiken, Identitätsbildung und gesellschaftliche Resilienz beeinflusst.
Durch theoretische Grundlagenarbeit, empirische Fallstudien und zukunftsorientierte Politikentwicklung möchte das Projekt praktische Governance-Werkzeuge und ethische Rahmenbedingungen für den Umgang mit autonomen Systemen schaffen.
Thematische Schwerpunkte des Projekts
- Theoretische Grundlagen
Entwicklung eines konzeptionellen Rahmenwerks zur Unterscheidung verschiedener Formen von Handlungsfähigkeit (menschlich, institutionell, künstlich) und ihrer Wechselwirkungen in komplex-adaptiven Systemen - Empirische Analyse
Fallstudien zu den Auswirkungen künstlicher Akteure auf Institutionen wie Märkte, Rechtssysteme und demokratische Prozesse – sowie auf die menschliche Identitätsbildung - Politik & Governance
Erarbeitung von Zukunftsszenarien, Policy Briefs und ethischen Leitlinien zur Unterstützung von institutionellem Design und Entscheidungsfindung in Mensch-Maschine-Systemen
Das Projekt wird mehrere zentrale Initiativen des TUM Think Tank unterstützen – darunter das Law & Tech Lab, die Government Innovation & Technology Initiative, das Civic Machines Lab, das Quantum Social Lab und die Hemispheres Initiative – sowie bereichsübergreifende Arbeitsgruppen in unserem internationalen Forschungsnetzwerk.
Über den Fellow

Nicklas Berild Lundblad ist ein international anerkannter Experte für Technologiepolitik und die Regulierung Künstlicher Intelligenz – mit über 25 Jahren Erfahrung an der Schnittstelle von Technologie, Gesellschaft und Public Affairs.
Derzeit ist er in den Bereichen Forschung, Beratung und Investitionen tätig. Zuletzt war er als Strategieberater bei Google DeepMind aktiv. Zuvor hatte er leitende Positionen in den Bereichen Public Policy und Government Affairs bei DeepMind, Google und Stripe inne. Als Vice President Public Policy für EMEA bei Google leitete Nicklas Teams, die sich in komplexen regulatorischen Umfeldern bewegten, und arbeitete eng mit hochrangigen Akteuren in EU-Institutionen und nationalen Regierungen zusammen. Zudem gründete er die Foresight-Funktion der Google-Politikabteilung.
Er promovierte in Informatik mit einer Dissertation zum Thema „Law in the Noise Society“ und verfügt über akademische Abschlüsse in den Bereichen IT-Recht, Datenschutz und Philosophie. Seine wissenschaftlichen Interessen liegen in der Governance aufstrebender Technologien, der Rolle von Komplexität in Regulierungssystemen sowie den philosophischen Implikationen Künstlicher Intelligenz.
Neben seiner politischen Arbeit ist Nicklas Autor von vier Büchern über Technologie und Gesellschaft, war Adjunct Professor an der KTH in Stockholm, ist Mitglied der Königlich Schwedischen Akademie der Ingenieurwissenschaften und Eisenhower Fellow.
Fellowship of Practice am TUM Think Tank
Das Fellowship of Practice fördert den Austausch zwischen Wissenschaft und Gesellschaft, indem erfahrene Praktiker*innen in die Arbeit des TUM Think Tank eingebunden werden. Die Fellows arbeiten eng mit unseren Labs und Forschungsinitiativen zusammen und schlagen Brücken zwischen Theorie und Praxis, um drängende gesellschaftliche Herausforderungen anzugehen. Das Programm unterstützt evidenzbasierte Politikgestaltung, interdisziplinäre Zusammenarbeit und Wirkung in der Praxis.
Daten verändern, wie wir leben und wie wir uns in unseren Gesellschaften und Volkswirtschaften bewegen und einbringen. Mit jeder digitalen Spur, die wir hinterlassen, stellt sich die Frage: Wie können wir uns in der digitalen Welt neu denken? Und wie können wir Einfluss auf datenbasierte Entscheidungen nehmen, die unser Leben betreffen?
Mitglieder der Munich School of Politics and Public Policy (Hochschule für Politik, HfP) sind Teil des International Digital Self-Determination Network – einer gemeinsamen, multi-stakeholderbasierten Initiative, die das Konzept der digitalen Selbstbestimmung definiert und weiterentwickelt. Ziel dieses Konzepts ist es, vertrauenswürdige Datenräume zu schaffen und zu gestalten sowie einen menschenzentrierten Ansatz im Umgang mit einer datengesteuerten Gesellschaft sicherzustellen. Es geht darum, die digitale Selbstbestimmung von Individuen zu ermöglichen und zu stärken.
Im Rahmen dieser Zusammenarbeit beteiligten sich Mitglieder der HfP an einer gemeinsam organisierten Konferenz zur digitalen Selbstbestimmung im Juni 2022, die in Kooperation mit der Direktion für Völkerrecht (DV) des Eidgenössischen Departements für auswärtige Angelegenheiten der Schweiz stattfand. Die Konferenz fand in Luzern, Schweiz, statt. Dort wurden vier sogenannte Studios eingerichtet, in denen konkrete Anwendungsfälle vorgestellt und untersucht wurden. Die daraus gewonnenen Erkenntnisse wurden analysiert, verglichen und diskutiert.
HfP-Rektor Prof. Dr. Urs Gasser teilte die gesammelten Erkenntnisse mit dem Publikum und agierte als Forschungspartner. Er unterstützte die Konferenz fachlich, organisierte und leitete mehrere Treffen mit der DV sowie mit den Stakeholdern der Studios, um den Fortschritt in den Studios zu begleiten, eine gemeinsame methodische Grundlage sicherzustellen und die Ergebnisse in einen Entwurfsbericht zu überführen.
Die Forschungs- und Outreach-Aktivitäten des Netzwerks wurden kontinuierlich vom Team des Lehrstuhls für Public Policy, Governance und Innovative Technologien unterstützt. Dieses begleitete das wachsende globale Netzwerk mit fachlicher Beratung, praktischer Unterstützung und Mentoring.
Weitere Gründungspartner des Netzwerks sind die Direktion für Völkerrecht des Eidgenössischen Departements für auswärtige Angelegenheiten der Schweiz, das Centre for Artificial Intelligence and Data Governance der Singapore Management University, das Berkman Klein Center for Internet & Society der Harvard University sowie The GovLab der New York University.
Nach einem intensiven dreitägigen Verhandlungsmarathon haben die Unterhändler der Ratspräsidentschaft und des Europäischen Parlaments erfolgreich eine vorläufige Einigung über den Vorschlag für eine einheitliche Regelung für künstliche Intelligenz (KI), das sogenannte Gesetz über künstliche Intelligenz, erzielt. Ziel des Verordnungsentwurfs ist es, die Sicherheit von KI-Systemen zu gewährleisten, die auf dem europäischen Markt eingeführt und in der EU eingesetzt werden, wobei die Grundrechte und die Werte der EU gewahrt bleiben sollen. Nach dieser vorläufigen Einigung werden die Bemühungen auf technischer Ebene in den kommenden Wochen fortgesetzt, um die Einzelheiten der neuen Verordnung festzulegen. Sobald diese Arbeiten abgeschlossen sind, wird die Präsidentschaft den Kompromisstext den Vertretern der Mitgliedstaaten zur Billigung vorlegen. Der umfassende Text muss von beiden Organen bestätigt und rechtlich-sprachlich überarbeitet werden, bevor er von den Mitgesetzgebern förmlich angenommen wird.
Wir haben Mitglieder unserer Community nach ihrer Meinung zum KI-Gesetz gefragt. Dies ist ihre Meinung:
Samson Esaias: Außerordentlicher Professor für Recht an der BI Norwegian Business School, Fakultätsmitglied am Berkman Klein Center of Internet and Society an der Harvard University
"„Seit dem Vorschlag der Kommission vom April 2021 hat sich in den gesetzgebenden Organen der EU ein Konsens über einen risikobasierten Ansatz für die KI-Regulierung sowie innovationsfördernde Maßnahmen wie Sandkästen herausgebildet. Die Debatten konzentrierten sich auf sensible Themen wie die biometrische Identifizierung für die Strafverfolgung und die Regulierung von KI für allgemeine Zwecke (GPAI). Das Parlament sprach sich für stärkere Grundrechtsgarantien aus, während der Rat breitere Ausnahmen für die Verwendung biometrischer Identifizierung für die Strafverfolgung befürwortete. Der GPAI-Regulierungsvorschlag des Parlaments stieß auch auf den Widerstand des Rates, zum Teil weil er sich auf die Technologie selbst konzentriert und nicht auf die damit verbundenen Risiken. Dennoch scheint das Parlament, wie aus den Pressemitteilungen hervorgeht, wichtige Erfolge erzielt zu haben, einschließlich des Verbots der biometrischen Identifizierung mit sensiblen Daten, des Internet-Foto-Scrapings für die Gesichtserkennung, der Beschränkung der prädiktiven Polizeiarbeit und der obligatorischen Folgenabschätzung für Rechte bei Systemen mit hohem Risiko. In ähnlicher Weise enthält der jüngste Entwurf trotz des starken Widerstands einiger Mitgliedstaaten auch wichtige Verpflichtungen zu GPAI und systemischen Gründungsmodellen, obwohl die Kriterien für letztere möglicherweise zu streng sind. Diese Fokussierung auf die GPAI-Regulierung, die ursprünglich im Kommissionsentwurf fehlte, verdeutlicht die Verschiebung der Prioritäten in den letzten zwei Jahren. Es stellt sich die Frage, ob diese Ergänzungen auch in zwei Jahren noch relevant sein werden, wenn die Gesetzgebung in Kraft tritt, oder ob sie die Notwendigkeit eines Umdenkens bei der Regulierung dieser sich schnell entwickelnden Technologien unterstreichen werden."
Urs Gasser: Professor für Public Policy, Governance und innovative Technologien, Rektor der Hochschule für Politik (HfP) und Dekan der TUM School of Social Sciences and Technology, Leiter der TUM Generative AI Taskforce
"Die Einigung über den AI Act stellt einen wichtigen Meilenstein dar. Sie ist vor allem ein starkes politisches Signal an die Weltgemeinschaft, das zeigt, dass die EU-Gesetzgebungsorgane funktionsfähig sind und sinnvolle Leitplanken in einem komplexen und schnelllebigen normativen Bereich aufstellen können, mit den Menschenrechten und demokratischen Werten als Leitplanken. Ob das KI-Gesetz als komplexer rechtlicher und regulatorischer Eingriff - der zuweilen einem Rorschachtest gleicht - die hohen Erwartungen seiner führenden Befürworter erfüllen wird, bleibt abzuwarten. KI-Governance als normatives Feld ist mit vielen Unbekannten verbunden. Die vielleicht größte Herausforderung besteht darin, kontinuierlich zu lernen und sowohl die rechtlichen Pfadabhängigkeiten als auch die unbeabsichtigten Folgen zu bewältigen, die mit solch ehrgeizigen Gesetzgebungsprojekten oft einhergehen, wie uns die jüngste Geschichte von Recht, Technologie und Gesellschaft lehrt."

Noha Lea Halim: Doktorandin und wissenschaftliche Mitarbeiterin an der Professur für Governance, Public Policy & Innovative Technologien an der TUM School of Governance, Mitarbeiterin in der TUM Generative AI Taskforce
"Mit der Einigung über den AI Act präsentiert die EU einen weltweit richtungsweisenden Regulierungsvorschlag – das bislang ambitionierteste Rahmenwerk. Indem sie nicht nur die wirtschaftlichen, sondern auch die gesellschaftlichen Auswirkungen von KI in den Blick nimmt, setzt sie den Ton für die künftige Entwicklung der Technologie und schafft weitreichende Auswirkungen für Forschung und Entwicklung von KI-Systemen in Europa und darüber hinaus. Die 12- bis 24-monatige Umsetzungsphase wird zeigen, wie anpassungsfähig die Verordnung langfristig gegenüber dem disruptiven Potenzial der Technologie ist und ob die Union die nötigen Kapazitäten aufbauen kann, um den Vorschlag mit Leben zu füllen. Dieser wegweisende Vorschlag ist jedoch erst der Anfang – den künftigen Herausforderungen der KI werden noch viele weitere Initiativen folgen."

Timo Minssen: Professor für Recht, CeBIL-Direktor an der Universität Kopenhagen und Global Visiting Professor an der TUM im Frühjahr 2024
"Obwohl weiterhin erhebliche Kontroversen bestehen, war es entscheidend, eine Einigung über den EU-AI-Act zu erzielen, denn jetzt ist der Moment, an dem entschieden werden muss, wo (und wo nicht) reguliert werden soll. Künstliche Intelligenz entwickelt sich rasant und wird bereits täglich von Millionen Bürger*innen in zahlreichen Lebensbereichen eingesetzt. Sowohl die Risiken als auch die Chancen sind real, und wir müssen ihnen zügig begegnen, wenn wir die Kontrolle behalten und die Vorteile dieser Technologie auf nachhaltige, sichere und faire Weise nutzen wollen.
Angesichts der Komplexität des Themas und der erforderlichen Abwägungen waren die Verzögerungen während der Verhandlungen zum AI-Act kaum überraschend. Viele der ursprünglich restriktiveren Bestimmungen scheinen nach und nach abgeschwächt worden zu sein. Vor allem industriepolitische Interessen und Wettbewerbsbedenken führten dazu, dass regulatorische Schwellenwerte gesenkt und tradierte wertbasierte Grenzen weiter gefasst wurden. Ähnliche Entwicklungen beobachten wir — zum Guten wie zum Schlechten — auch bei den chinesischen Übergangsregelungen zu generativer KI sowie in westlichen Staaten wie den USA und dem Vereinigten Königreich.
Diese veränderten politischen Perspektiven verdeutlichen, wie sehr KI unsere traditionellen Werte und Konzepte herausfordert, was das enorme Gewicht der Aufgabe unterstreicht. Die Auswirkungen betreffen nicht nur Unternehmen, Wohlstand, Industrie, Innovation und das Wissensgemeingut, sondern auch den individuellen Zugang zu — und Schutz vor — mächtigen Technologien. Forderungen nach Verboten oder strengerer Regulierung bestimmter Anwendungen in der EU aus ethischen oder wertbasierten rechtlichen Gründen und wegen des Vorsorgeprinzips mussten und müssen gegen Wettbewerbsnachteile sowie Gesundheitsrisiken durch verpasste Chancen abgewogen werden, die aus zu hohen Hürden resultieren. Es ist daher zu erwarten, dass die Bedeutung sogenannter „Regulatory Sandboxes“ zunimmt, auch wenn dieses Konzept noch weiter präzisiert werden muss.
Es erscheint mir, dass der AI-Act bei konsequentem Schutz der Menschenrechte und grundlegenden Werte mit seinem risikokategoriebasierten Ansatz im Grundsatz die Linie „so offen wie möglich und nur so geschlossen (d. h. reguliert) wie nötig“ verfolgt. Gerade für Systeme mit geringem Risiko könnte das gute Nachrichten für viele Innovator*innen und KMU-Entwickler sein, auch wenn einige noch weniger Regeln bevorzugt hätten. Umgekehrt hätten diejenigen, die vor allem die Risiken sehen — oder etablierte Unternehmen mit starken IP-Portfolios und großen Rechtsabteilungen — womöglich einen Ansatz „so geschlossen wie möglich und nur so offen wie nötig“ mit hohen Schwellenwerten vorgezogen, sei es um Risiken — oder (!) neue Konkurrenz — zu begrenzen.
Dabei muss man sich bewusst sein, dass sich die aktuelle Debatte vor allem um hochrangige Regeln dreht. Im Alltag zählt jedoch, wie diese dort umgesetzt werden, wo es darauf ankommt, und ob die von uns gesetzten Regeln durchsetzbar, praktikabel und überwachbar sind. Steht die Wahl zwischen einem Dschungel extrem detaillierter Vorschriften ohne ausreichende Durchsetzungsmöglichkeiten und wenigen, aber sehr robusten und durchsetzbaren Regeln, bevorzuge ich eindeutig Letzteres, um die Achtung vor dem Recht zu erhöhen."

Armando Guio Espanol: Affiliate am Berkman Klein Center for Internet & Society der Harvard University
"Der EU-AI-Act ist eine Regulierung, die nicht nur Europa, sondern die ganze Welt beeinflussen wird. Seine Verabschiedung wird viele Länder dazu bewegen, eigene Regeln für die Entwicklung und Implementierung dieser Technologie festzulegen. Es wird entscheidend sein, die Arbeiten der kommenden Monate sowie den daraus entstehenden Umsetzungsprozess in der Europäischen Union genau zu verfolgen.
Im Jahr 2024 werden wir beobachten, wie sich mehrere Staaten Europa anschließen und offiziell neue Vorschriften für KI-Systeme einführen. So diskutieren derzeit etwa verschiedene lateinamerikanische Länder regulatorische Vorschläge für KI. Der EU-AI-Act wird viele dieser Debatten spürbar mobilisieren und beschleunigen. Ebenso wird es interessant sein zu sehen, wie sich diese regulatorische Fragmentierung auf die Nutzung und den Einsatz der Technologie auswirkt – und wie einige der größten Unternehmen darauf reagieren."
Dirk Heckmann: Professor für Recht an der TUM School of Social Sciences and Technology, Direktor von bidt.digital, Taskforce Generative KI
Ob sich der AI Act als wirksame Regulierung für KI erweisen wird, wird sich erst in der rechtlichen Praxis zeigen. Politische Zufriedenheit ersetzt keine Rechtssicherheit.
Quantentechnologien werden möglicherweise ganze Branchen verändern, neue Märkte schaffen und die Grenzen unserer Vorstellungskraft verschieben. Zu diesen Veränderungen werden neue, hochsichere und schnelle Kommunikationswege und leistungsstarke Quantencomputer gehören, die Probleme lösen können, die wir derzeit aufgrund der Rechengrenzen heutiger Supercomputer nicht lösen können.
Diese revolutionären Technologien bringen jedoch auch neue Herausforderungen für die Gesellschaft mit sich. Die Aufgabe des Quantum Social Lab ist es, die gesellschaftlichen, ethischen, politischen und rechtlichen Herausforderungen der Quantenwelt von morgen zu erforschen.
Um diese Fragen anzugehen, zählen wir auf interdisziplinäre und hoch motivierte Teams und zukünftige Generationen. Um diese Aufgabe zu erfüllen, haben wir ein Stipendienprogramm ins Leben gerufen, die Young Quantum Social Scientists, eine Zusammenarbeit zwischen dem TUM Think Tank und dem QuantWorld Project. Jede Kohorte besteht aus bis zu 20 Studierenden, die ihr theoretisches Wissen bei der Lösung von realen Problemen anwenden können.
Aus über 50 Bewerbungen von Studiengängen aus allen Münchner Hochschulen haben wir sechs der hellsten Köpfe ausgewählt. Unsere erste Kohorte junger Quanten-Sozialwissenschaftler stammt aus sechs verschiedenen Nationen und studiert in verschiedenen Bereichen von Psychologie, Politik und Technik bis hin zu Biomedizintechnik und Medizinphysik!
Wir freuen uns, unsere unglaublich talentierte erste Kohorte junger Quanten-Sozialwissenschaftler vorstellen zu können.
Alexander Orlov
Alexander Orlov ist Doppelstudent der Quantenwissenschaft und -technologie (M.Sc. an der TUM/LMU) und der Politikwissenschaft (B.Sc. an der TUM). Sein besonderes Interesse gilt der Umsetzung neuester wissenschaftlicher Erkenntnisse in umsetzbare und gesellschaftlich nützliche Einsichten.

Warum bist du ein YQSS geworden?
Quantentechnologien haben das Potenzial, unsere Gesellschaft grundlegend zu verändern. Ich habe am YQSS-Programm teilgenommen, um zu lernen, wie wir verantwortungsvolle Quanteninnovationen initiieren und eine weltweit positive Wirkung der Quantentechnologie sicherstellen können. Außerdem ist die gesellschaftliche Perspektive eine sehr wertvolle Ergänzung zu den technischen Aspekten meines Universitätsstudiums.
Was mir an der YQSS am besten gefällt
Die Zusammenarbeit mit meinen YQSS-Kollegen macht mir wirklich Spaß. Wir haben unterschiedliche Studienhintergründe, aber wir teilen die Faszination für Quantentechnologie und das Engagement, etwas zu bewegen.
Etwas Interessantes oder Wertvolles, das du bisher gelernt hast
Wir haben bereits an mehreren Veranstaltungen mit Partnern aus Wirtschaft, Politik und Forschung teilgenommen. Es ist wirklich interessant, wie unterschiedlich diese Gruppen über Quantentechnologien denken und an sie herangehen.
Eden Castaneira Rios
Eden Castaneira Rios hat Versicherungsmathematik studiert und absolviert derzeit einen Master in Politik und Technologie. Er ist interdisziplinär und umsetzungsorientiert und hat große Erfahrung und Interesse an der Verknüpfung von Gesellschaft, Politik, Wirtschaft und Technologie.

Warum bist du ein YQSS geworden?
Ich bin YQSS geworden, weil es mir am Herzen liegt, innovative Entwicklungen vorzustellen und voranzutreiben, die die Quantenwissenschaft für das Allgemeinwohl nutzbar machen. Ich bin daran interessiert, nützliche interdisziplinäre Rahmenbedingungen zu schaffen und gesellschaftliche Fragen anzugehen, um die Entwicklung von verantwortungsvollen, effizienten und umsetzbaren Quantentechnologien zu ermöglichen.
Was mir an der YQSS am besten gefällt
Das Programm hat ein großartiges und talentiertes Team, die Arbeit macht Spaß, ist anspruchsvoll, aber auch nützlich!
Etwas Interessantes oder Wertvolles, das du bisher gelernt hast
Die Quantentechnologien sind so instabil wie das Leben nur sein kann, also sollten wir keine Angst davor haben. Wir leben bereits nach ihren Regeln.
Ekin Arslan
Ekin Arslan ist Masterstudent der Psychologie mit Schwerpunkt Lernwissenschaften. Er interessiert sich leidenschaftlich für das Verständnis des menschlichen Geistes und schätzt Teamarbeit und Kommunikation. Sein Interesse gilt der Psychologie, der Technologie und der Politik. Sein Ziel ist es, die Leistung von Organisationen zu verbessern und die Auswirkungen der Psychologie auf Quantentechnologien und Politik zu erforschen.

Warum bist du ein YQSS geworden?
Ich wurde YQSS, um andere Forschungsbereiche als die Psychologie zu erkunden, aber gleichzeitig mein Wissen in einem mir unbekannten Bereich einzusetzen.
Was mir an der YQSS am besten gefällt
Was mir an der Arbeit bei YQSS am besten gefällt, ist die Tatsache, dass ich Teil eines unglaublichen Teams bin; die Freundlichkeit, die Unterstützung und die gemeinsame Leidenschaft für unsere Arbeit machen jeden Tag sowohl angenehm als auch erfüllend.
Etwas Interessantes oder Wertvolles, das du bisher gelernt hast
Die Arbeit bei YQSS hat mein Verständnis der Quantenpolitik und ihrer transformativen Auswirkungen auf Technologie und Gesellschaft erheblich verbessert. Diese Erfahrung hat auch wertvolle Einblicke in die psychologischen Auswirkungen dieser Fortschritte gegeben und aufgezeigt, wie sie soziale Strukturen neu definieren können, was insbesondere meine Sichtweise auf die Welt als Psychologe erweitert hat.
Jerry Miller
Der aus Kanada stammende Jerry Miller studiert an der Technischen Universität München den Master of Politics and Technology mit dem Schwerpunkt Daten und Gesellschaft. Er ist fasziniert von allem, was mit Technologie zu tun hat, und davon, wie Innovation politische Landschaften neu gestalten kann.

Warum bist du ein YQSS geworden?
Ich bin dem YQSS beigetreten, um die tiefgreifenden gesellschaftlichen und ethischen Auswirkungen der Quantentechnologien der zweiten Generation (und darüber hinaus!) zu erforschen. Mein Ziel ist es, zu fundierten politischen Entscheidungen beizutragen und das öffentliche Verständnis für Quantentechnologien zu fördern.
Was mir an der YQSS am besten gefällt
Das Beste an der Mitgliedschaft bei den Young Quantum Social Scientists ist das Team: Es macht mir unglaublich viel Spaß, von meinen Kommilitonen zu lernen, und ich fühle mich von der Leitung des Labors immer unterstützt, wenn es darum geht, meinen Lernprozess fortzusetzen.
Etwas Interessantes oder Wertvolles, das du bisher gelernt hast
In der Quantenwelt gibt es keine einfachen Antworten.
Nuria Quesada Perez
Nuria Quesada Perez studiert derzeit Biomedizinische Technik und Medizinische Physik an der TUM. Sie hat sich schon immer für die Forschung im medizinischen Bereich begeistert, aber sie lernt auch gerne über völlig andere Studienbereiche. Sie ist eine aktive und neugierige Person, die sich immer darauf freut, neue Leute und Hobbys kennenzulernen.

Warum bist du ein YQSS geworden?
Die Quantenmechanik war während meines Studiums immer ein Hintergrundthema, aber ich habe mich nie wirklich mit ihrer Welt beschäftigt. Außerdem hatte ich noch nie die Gelegenheit, an etwas teilzunehmen, das mit Politikwissenschaften zu tun hatte. Die Teilnahme an der YQSS hat mir die Möglichkeit gegeben, diese beiden interessanten Bereiche miteinander zu verbinden und an einem interdisziplinären Projekt teilzunehmen, bei dem Menschen mit unterschiedlichem Hintergrund mir helfen, mein Wissen zu erweitern und gleichzeitig eine freudige Erfahrung zu machen.
Was mir an der YQSS am besten gefällt
Ich genieße es sehr, Zeit mit dem Team zu verbringen, und uns wird eine breite Palette von Möglichkeiten geboten, an Veranstaltungen und Seminaren teilzunehmen, von denen ich nichts wüsste, wenn ich nicht YQSS wäre.
Etwas Interessantes oder Wertvolles, das du bisher gelernt hast
Grundlagen der Quantentechnologie, die Auswirkungen der Quantentechnologien auf die heutige Zeit und die daraus resultierende notwendige technologische Entwicklung, wie man verschiedene Teams innerhalb eines Projekts koordiniert usw.
Rowan Crawford
Rowan Crawford ist Student der Politikwissenschaft an der Technischen Universität München. Er arbeitet als studentische Hilfskraft an der TUM School of Governance und der TUM School of Management. Er interessiert sich besonders für die Entwicklung und Steuerung von neuen Technologien sowie für wirtschaftliche und globale Gerechtigkeit.

Warum bist du ein YQSS geworden?
Ich bin zum YQSS gekommen, um an der Schnittstelle zwischen neuen Technologien und Governance zu arbeiten. Ich bin fasziniert von Quantentechnologien und glaube, dass ihre Entwicklung massive transformative Auswirkungen auf Wissenschaft, Wirtschaft und Gesellschaft hat. Als Mitglied des YQSS kann ich dieses interdisziplinäre und hochmoderne Gebiet „in Echtzeit“ erforschen.
Was mir an der YQSS am besten gefällt
Am liebsten arbeite ich als YQSS mit einigen der klügsten Köpfe in den Bereichen Quantentechnologie, Wirtschaft und Sozialwissenschaften zusammen und beobachte sie. Ich bin dankbar, Teil eines so beeindruckenden Forschungsnetzwerks zu sein.
Etwas Interessantes oder Wertvolles, das du bisher gelernt hast
Während meiner Zeit als YQSS konnte ich meine Fähigkeiten im Umgang mit Stakeholdern verbessern, insbesondere in einem Forschungskontext.
Projektbeschreibung
Auf dem Zukunftsgipfel in New York im September 2024 hat die internationale Gemeinschaft erfolgreich den Global Digital Compact (GDC) als ersten globalen Rahmen für eine offene, freie, sichere und inklusive digitale Zukunft für alle verabschiedet. Auch das hochrangige Beratungsgremium des Generalsekretärs für KI (High-Level Advisory Body on AI, HLAB AI) hat kürzlich seine Empfehlungen für die Förderung einer globalen KI-Governance veröffentlicht und dabei die Notwendigkeit einer stärkeren wissenschaftlichen Zusammenarbeit und verstärkter internationaler Bemühungen um den Aufbau von KI- und Datenkapazitäten hervorgehoben.
Der Übergang von den Verhandlungen zur Umsetzung ist jetzt ein entscheidender Moment, um wissenschaftlich fundierte, von vielen Interessengruppen getragene Maßnahmen voranzutreiben, die eine auf den Menschen ausgerichtete und integrative Technologie für öffentliche Zwecke und deren demokratische und auf den Menschenrechten basierende globale Governance ermöglichen. Zu diesem Zweck laden wir globale Partner ein, als „Lösungsarchitekten“ in einer „Research-to-Action“-Gemeinschaft zu verschiedenen vorrangigen Themen der GDC zusammenzuarbeiten. Die Initiative wird mit einem anfänglichen Schwerpunkt auf der Förderung offener KI im öffentlichen Interesse für nachhaltige und inklusive Gesellschaften beginnen.
Projektziele
1. Interoperable globale KI-Governance vorantreiben:
- Bewertung der jüngsten nationalen und regionalen KI-Strategien im Lichte des GDC. Entwicklung einer Sammlung bewährter Praktiken für die kontextsensitive Operationalisierung und Umsetzung globaler KI-Prinzipien und Erkundung von Möglichkeiten zur Skalierung und Replizierung erfolgreicher KI-Governance-Ansätze, gesetzlicher Rahmenbedingungen und des Technologiedesigns in neuen Kontexten.
- Verständnis der Mechanismen einer vielschichtigen KI-Governance an der Schnittstelle von internationaler, regionaler, nationaler und lokaler Governance, mit besonderem Augenmerk auf die einzigartige Rolle großer städtischer Ballungsräume/Megastädte.
2. Ermöglichung von Technologielösungen zur Beschleunigung der Ziele für nachhaltige Entwicklung
- Co-Design und Förderung von Open-Source-KI für öffentliche Zwecke zur Bewältigung lokaler und regionaler gesellschaftlicher Herausforderungen durch Crowd-Sourcing-Lösungen und aktives Engagement der Gemeinschaft.
Mitgestaltung von Sandkästen als experimentelles Testfeld für innovative Governance- und Technologielösungen und Förderung von Risiko- und Folgenabschätzungen über Zuständigkeitsbereiche und Regierungsebenen hinweg.
3. Gemeinschaften befähigen
- Entwicklung von Methoden für KI, Daten und digitale Kompetenz, Lehrplänen und frei zugänglichen Schulungsplattformen in Zusammenarbeit mit globalen und regionalen Bildungsorganisationen.
Ziel des Projekts ist es, durch die Integration des gesamten KI-Lebenszyklus, der in konkreten Anwendungsfällen verankert ist, zur Umsetzung von Governance- und Ethikgrundsätzen beizutragen. Die Initiative unterstützt kontextsensitive Ansätze und Lösungen, die die kulturelle und sprachliche Vielfalt widerspiegeln, durch einen ganzheitlichen Ökosystemansatz.
Der Startschuss für das Projekt fällt auf der Jahrestagung des Global Network of Internet and Society Research Centers (NoC) in Bangkok - am 17. und 18. Oktober 2024. Es wird mit Ideen-Workshops und Lerngesprächen mit angesehenen Experten fortgesetzt, um erste hochwirksame Anwendungsfälle zu ermitteln und mitzugestalten und die Projektmethodik zu entwickeln.
Über Nicole Manger

Nicole bringt eine Fülle an politischer und wissenschaftlicher Expertise im Schnittpunkt von Außenpolitik, Recht, Technologie und nachhaltiger Entwicklung mit. Sie kam 2020 zum Auswärtigen Amt (AA), wo sie in der daten- und kognitionsgestützten Krisenfrühwarneinheit PREVIEW tätig war. Während ihrer Zeit bei PREVIEW leitete Nicole die Bemühungen um die Förderung globaler Partnerschaften und Programme zur Umsetzung datengesteuerter, evidenzbasierter Entscheidungsfindung, um Frieden, Klimaschutz und die SDGs zu unterstützen. Heute leitet sie in der FFO-Koordinierungsstelle für KI in der Außenpolitik die Bemühungen um globale KI-Governance und digitale Zusammenarbeit, wie etwa das deutsche Engagement für einen Global Digital Compact.
Während ihrer Arbeit bei FFO hat Nicole globale Kampagnen zur digitalen Transformation mit den Vereinten Nationen ins Leben gerufen und geleitet, wie z.B. den mittlerweile 30+ Mio. UN Complex Risk Analytics Fund CRAF'd, der hochwertige, quelloffene Daten und Analysen für eine gezielte Krisenprävention ermöglicht. Sie ermöglichte auch das politische Agenda-Setting mit der Ministerkonferenz „Sustaining Peace Amidst the Climate Crisis: The Role of Data, Science, and Technology“ und treibt die Bemühungen um ein globales GovTechecosystem voran. In ihrer Rolle als Ko-Vorsitzende der Task Force zu KI und Menschenrechten in der Freedom Online Coalition konzentriert sich Nicole auch auf die Auswirkungen neuer Technologien auf die Menschenrechte.
Vor ihrer Tätigkeit im Auswärtigen Amt arbeitete Nicole in verschiedenen Funktionen in den Bereichen Diplomatie, Sicherheits- und Außenpolitik und nachhaltige Entwicklung im US-Außenministerium, im US-Generalkonsulat in München und bei der Münchner Sicherheitskonferenz sowie bei der Deutschen Gesellschaft für Entwicklungszusammenarbeit. Sie forschte auch an der University of California in Berkeley, der University of Texas in Austin und der Universität Göttingen.
Mit ihrer Ausbildung in internationalen Beziehungen und Recht verfügt Nicole über regionale Erfahrung in Nordamerika, Europa, Afrika und Südostasien. Ihre bisherige akademische Forschung an der Schnittstelle von Verfassungsrecht und Politik konzentrierte sich auf die zivil- und menschenrechtlichen Auswirkungen staatlicher Terrorismusbekämpfung und deren gerichtliche Überprüfungsmechanismen, auf globale Migration und die Rolle von Megastädten sowie auf Recht und Politik in multikulturellen Rechtssystemen.
Das Fellowship of Practice wird in einer persönlichen Eigenschaft ausgeübt.
Fellowship of Practice in Zusammenarbeit mit unseren Labs
Am TUM Think Tank wird Nicole Manger mit dem Global Network of Internet and Society Research Centers (NoC) unter der Leitung von Armando Guio Español, der GovTech Initiative unter der Leitung von Markus Siewert und Urs Gasser, der Ethical Data Initiative unter der Leitung von Sabina Leonelli sowie dem Urban Digitainability Lab unter der Leitung von Stefan Wurster und Markus Siewert zusammenarbeiten.
Projektbeschreibung
Herausforderung: Gesellschaftliche Resilienz und strategische Autonomie
Die geopolitischen Spannungen sind so hoch wie nie zuvor, wie auf der Sicherheitskonferenz Berlin 2024 deutlich wurde, auf der vor eskalierenden Bedrohungen für die NATO an der Ostflanke Europas gewarnt wurde. Die Sicherung des Friedens durch Abschreckung beschränkt sich nicht auf konventionelle militärische Fähigkeiten, sondern erfordert eine robuste Verteidigung gegen hybride Kriegsführung, einschließlich Angriffen auf kritische Infrastrukturen, soziale Medien und politische Stabilität. Der Aufbau von Widerstandsfähigkeit auf allen Ebenen der Gesellschaft, insbesondere im digitalen Bereich, ist von entscheidender Bedeutung, einschließlich Cloud Computing, dem „Betriebssystem“ moderner Gesellschaften.
Zwar haben europäische Organisationen des öffentlichen Sektors und ihre Partner Fortschritte bei der Sicherung souveräner Cloud-Infrastrukturen gemacht - „Souveränität der Cloud“ -, doch reicht es nicht mehr aus, einfach nur über in Europa ansässige, rechtskonforme Angebote zu verfügen. Unternehmen müssen die Souveränität in der Cloud operationalisieren und echte Autonomie und Sicherheit bei der Nutzung komplexer Multi-Cloud-Umgebungen aufrechterhalten. Dies erfordert die Umsetzung theoretischer Konstrukte in praktische Rahmen, Tools und Richtlinien, die es öffentlichen Verwaltungen ermöglichen, sich nicht nur für souveräne Infrastrukturen zu entscheiden, sondern auch souverän darin zu agieren - Anwendungen, Daten, Geräte und Nutzer so zu verwalten, dass die Widerstandsfähigkeit erhöht, potenzielle Angreifer abgeschreckt und demokratische Werte gewahrt werden.
Digitale Souveränität in der Cloud umsetzbar machen
Als Fellow of Practice am TUM Think Tank sieht Philipp die einmalige Chance, multidisziplinäres Fachwissen zusammenzubringen, um eine Forschungsagenda zu gestalten, die digitale Souveränität in der Cloud umsetzbar macht. Auf diese Weise können wir dazu beitragen, gesellschaftliche Widerstandsfähigkeit und strategische Autonomie angesichts neuer Cyber-Bedrohungen aufzubauen und Europas digitales Rückgrat als Abschreckung und Friedenssicherung zu stärken.
Projektziele
Ansatz
- Vom Abstrakten zum Operativen: Entwicklung und Verfeinerung eines konzeptionellen Rahmens, der über die Theorie hinaus zu umsetzbaren Praktiken der „Souveränität in der Cloud“ führt und klare, umsetzbare Grundsätze für öffentliche Einrichtungen umreißt.
- Integration von Politik und Technik: Abstimmung rechtlicher, regulatorischer und strategischer Überlegungen mit technischen und organisatorischen Fähigkeiten, um Leitlinien zu erstellen, die es europäischen Verwaltungen ermöglichen, Sicherheit, Compliance und Autonomie in Multi-Cloud-Umgebungen aufrechtzuerhalten.
- Praktische Tools und Kapazitätsaufbau: Bereitstellung eines Handbuchs, von Lehrbeispielen und Workshop-Formaten, die Entscheidungsträger und Praktiker in die Lage versetzen, die Komplexität effektiv zu bewältigen und die Abschreckung und Widerstandsfähigkeit durch konkrete Maßnahmen zu verbessern.
Ergebnisse
- Theorie-Praxis-Papier: Entwurf eines prägnanten Weißbuchs, in dem die Souveränität in der Cloud in konkreten Begriffen definiert wird. Verankerung der Konzepte in den bestehenden EU-Verordnungen, der Regierungspolitik und den Kapazitäten der Cloud-Anbieter, um einen kohärenten Rahmen zu schaffen, der die Politik mit den technischen Verantwortlichkeiten verbindet.
- Proof-of-Concept (PoC): Zusammenarbeit mit einem staatlichen Cloud-Anbieter und einer öffentlichen Einrichtung zur Erprobung des Rahmens.
- Wissenstransfer und Aufbau einer Gemeinschaft: Nutzen der Plattform Digital Sovereignty Talks und Veranstaltung kuratierter Roundtables im TUM Think Tank. Sammeln von Beiträgen von politischen Entscheidungsträgern, Cloud-Anbietern, Cybersicherheitsexperten und akademischen Forschern, um das Rahmenwerk zu verfeinern und zu testen.
- Bildungsintegration und Tools: Entwicklung eines Fallbeispiels für den Unterricht, das auf dem Stil meines „OpenAI Board Drama“ aufbaut, um reale Dilemmata der Souveränität in der Cloud zu veranschaulichen. Erstellung eines Handbuchs mit schrittweisen Anleitungen, die es Organisationen ermöglichen, robuste Multi-Cloud-Strategien zu implementieren, die die Widerstandsfähigkeit erhöhen und als digitale Abschreckung dienen.
- Souveränität-in-der-Cloud-Spielbuch: Ein umfassender, handlungsorientierter Leitfaden, der europäischen Verwaltungen hilft, digitale Souveränität in Multi-Cloud-Umgebungen zu operationalisieren.
Über Philipp Müller

Philipp widmet sich der Förderung der digitalen Transformation von Regierungen, multilateralen Institutionen und der globalen Gesellschaft. Er ist Vice President für den öffentlichen Sektor bei DriveLock SE, Fellow am TUM Think Tank und BKC Circle Member am Harvard Berkman Klein Center. Mit Führungspositionen bei Amazon Web Services, Gartner und DXC bringt Philipp umfangreiche Erfahrungen an der Schnittstelle von Technologie und Politik mit. Er hat am Tecnológico de Monterrey, der Willy Brandt School of Public Policy und der Harvard Kennedy School gelehrt und geforscht. Als erfolgreicher Autor hat er Bücher und Artikel über die digitale Transformation veröffentlicht. Philipp hat an der Ludwig-Maximilians-Universität München promoviert.
Die Gemeinschaft der Praxis wird in persönlicher Eigenschaft ausgeübt.
Da das Internationale Jahr der Quantentechnologien bevorsteht, starten wir die erste internationale Kohorte der YQSS! Im Laufe des nächsten Jahres wollen wir eine Gemeinschaft junger Menschen aufbauen, die daran interessiert sind, ihre Zukunft und die Zukunft der Quantentechnologien zum Besseren zu verändern.
Was erwartet dich?
- Monatliche digitale Meet-Ups (die jeden Monat in verschiedenen Zeitzonen stattfinden)
- Zugang/Einladung zu einer internationalen Sommerschule über Quantentechnologie (wir werden versuchen, so viele Reisestipendien wie möglich zu vergeben)
- Nimm am ersten strategischen Briefing teil, das vollständig von jungen Wissenschaftler*innen verfasst wird!
- Zusammenarbeit mit dem Netzwerk der Zentren zur Erforschung künftiger Möglichkeiten für Quantentechnologien in der Mehrheitswelt.
Das klingt spannend für dich? Jetzt anmelden und mitmachen.

Keynotes, Paneldiskussionen, Mini-Workshops und Networking-Pausen brachten dabei erneut diverse Stakeholder aus Wissenschaft, Zivilgesellschaft, Wirtschaft und Regierung zusammen. Gemeinsam beleuchteten wir aktuelle Forschung zu schädlichen Online-Inhalten und erarbeiteten konkrete Lösungsansätze für diese dringenden Probleme.
Wir konzentrierten uns auf zwei zentrale Fragen:
- Was wissen wir über die Herausforderungen durch Hassrede sowie Miss- und Desinformation im Netz, und wie können wir ihnen am besten begegnen?
- Welche wirksamen Lösungen, Strategien und Werkzeuge kennen wir, um diese Probleme zu bekämpfen?

Zentrale Erkenntnisse des zweitägigen Workshops:
-
Konsistenz zählt: Klare und konsistente Definitionen schädlicher Inhalte, etwa von Hassrede, sind entscheidend, um Maßnahmen zu steuern. Die beste Vorgehensweise hierfür bleibt jedoch eine offene Frage.
-
Gezielte Interventionen: Es ist wichtig, zwischen „schädlichen, aber legalen“ und „illegalen“ Inhalten zu unterscheiden, um zielgerichtete und wirksame Maßnahmen zu ermöglichen.
-
Wirksame Gegenmaßnahmen: Gegenrede und Inhaltsmoderation sind starke Instrumente, müssen aber sorgfältig umgesetzt werden. Interventionsstrategien sollten auf soliden Belegen basieren, um echte Wirkung zu erzielen.
-
Datenzugang: Der eingeschränkte Zugang zu Plattformdaten erschwert nach wie vor die umfassende Erforschung schädlicher Inhalte wie Desinformation und ihrer realen Folgen.
-
Technologische Abwägungen: Algorithmische Anpassungen und andere technikgetriebene Lösungen können Desinformation verringern, bringen jedoch oft Kompromisse wie geringeren Zugang zu politischen Nachrichten oder weniger Diskursvielfalt mit sich.
-
Anpassungsfähige Moderation: In Zukunft brauchen wir Moderationstools, die mit dem wachsenden Umfang und Tempo der Online-Inhaltsproduktion Schritt halten können.

Der Workshop wurde gemeinsam mit der Bayerischen Landeszentrale für neue Medien (BLM), dem Bayerischen Staatsministerium der Justiz (StMJ), dem Institute for Strategic Dialogue Germany (ISD), das NETTZ, dem Bayerischen Forschungsinstitut für Digitale Transformation (bidt) und dem Content Moderation Lab des TUM Think Tank organisiert.
Oft wird angenommen, dass KI neutral, ethisch und im Einklang mit menschlichen Werten trainiert werden kann. Eine wachsende Zahl an Forschungsarbeiten – darunter neue Erkenntnisse aus dem Civic Machines Lab – stellt dieses Ziel jedoch zunehmend in Frage.
Beim Participatory AI Research & Practice Symposium (Sciences Po) im Rahmen des Paris AI Action Summit stellte das Civic Machines Lab Forschung zu einer grundlegenden Herausforderung der KI-Alignment-Debatte vor:
Das Problem: KI-Alignment übersieht Wertepluralismus
KI-Alignment meint die Ausrichtung künstlicher Intelligenz auf menschliche Werte – aber auf welche genau?Unsere Gesellschaft ist alles andere als einheitlich, und unterschiedliche demografische Gruppen bewerten KI-Antworten auf sehr unterschiedliche Weise.
Das Civic Machines Lab hat ein neues Alignment-Datenset entwickelt, das KI-generierte Antworten anhand von fünf zentralen Dimensionen bewertet:
-
Toxizität
-
Emotionale Wahrnehmung
-
Sensibilität & Offenheit
-
Hilfsbereitschaft
-
Stereotypenbasierte Voreingenommenheit
Die Studie mit 1.095 Teilnehmenden aus Deutschland und den USA zeigt deutliche Unterschiede in der Wahrnehmung von KI-Verhalten:
-
Männer bewerteten KI als 18 % weniger toxisch als Frauen.
-
Ältere Teilnehmende (51–60 Jahre) empfanden die KI-Antworten als 40,6 % weniger hilfreich als jüngere.
-
Eher konservative sowie Black/African American Teilnehmende bewerteten die KI als deutlich sensibler und emotional bewusster (+27,9 % bzw. +58,2 %).
-
Der Herkunftsstaat spielte kaum eine Rolle – entscheidender waren Ideologie, Geschlecht, ethnische Zugehörigkeit und Alter.
Soziale und politische Hintergründe prägen die Bewertung ein und derselben KI-Antwort – das erschwert die Definition universeller Standards. Die teils widersprüchlichen Bewertungen der Teilnehmenden machen deutlich: KI-Alignment ist komplex, denn Werte überlagern sich und stehen oft in Spannung zueinander.
Was das bedeutet: Es könnte keine „perfekt ausgerichtete“ KI geben
Diese Erkenntnisse stellen die Vorstellung infrage, dass KI-Alignment lediglich ein technisches Problem sei. Wenn unterschiedliche Bevölkerungsgruppen nicht übereinstimmen, wie KI sich verhalten soll – wie lässt sich dann überhaupt definieren, was „Alignment“ bedeutet?
- Beim Paris AI Action Summit diskutierten Expert*innen zentrale Herausforderungen der KI-Governance:
- Wie kann partizipative KI-Governance konkret funktionieren?
- Wer profitiert am meisten von einer KI, die sich an dominanten Perspektiven orientiert?
- Kann KI jemals wirklich unvoreingenommen sein – oder wird sie immer gesellschaftliche und ideologische Bruchlinien widerspiegeln?
Wie geht es weiter?
Die Debatte über KI-Alignment ist noch lange nicht abgeschlossen. Wenn KI darauf trainiert wird, sich an dominanten Perspektiven auszurichten – besteht dann die Gefahr, dass andere Stimmen an den Rand gedrängt werden?
Sollten KI-Systeme auf Mehrheitsmeinungen, inklusive Ausgewogenheit oder etwas ganz anderes abzielen?
Erkenntnisse vom AI Action Summit in Paris
Der AI Action Summit in Paris bot eine Plattform für grundlegende Diskussionen an der Schnittstelle von KI, Governance und gesellschaftlicher Wirkung. Das Participatory AI Research & Practice Symposium an der Sciences Po widmete sich insbesondere der Frage, wie die Entwicklung und Regulierung von KI gestaltet werden kann – unter Einbeziehung vielfältiger und bislang unterrepräsentierter Perspektiven. Zentrale Themen waren partizipative Governance, Machtverhältnisse und Rechenschaftspflicht im Kontext von KI.

Erkenntnis 1: Partizipative Perspektiven auf KI können transformative Wirkung entfalten und unterrepräsentierte Stimmen stärken. Dennoch bestehen erhebliche Hürden bei der praktischen Umsetzung – oft werden solche Ansätze von Politik und Industrie übersehen.
Das AI & Society House Event, organisiert von Humane Intelligence im Rahmen des Paris AI Action Summit, versammelte internationale Vertreter*innen aus Zivilgesellschaft, Industrie und Politik. Diskutiert wurden zentrale Herausforderungen rund um KI-Ethik, Sicherheit und verantwortungsvolle Technologiegestaltung. Die Panels behandelten Themen wie den Kampf gegen Online-Hass, generative KI und geschlechtsspezifische Gewalt sowie die Rolle des Journalismus bei der Bewertung gesellschaftlicher KI-Auswirkungen.
Die Eröffnungskonferenz der International Association for Safe and Ethical AI zielte darauf ab, ein gemeinsames Verständnis der kurz- und langfristigen Gefahren von KI zu entwickeln. Teilgenommen haben Fachleute aus KI-Sicherheit und -Ethik, politische Entscheidungsträger*innen und zivilgesellschaftliche Organisationen. Es wurden Formate für Zusammenarbeit und gemeinsame Maßnahmen diskutiert.
Erkenntnis 2: Obwohl viele Risiken rund um KI bestehen, wurde das Thema Sicherheit von politischen Akteur*innen auf dem Gipfel eher am Rande behandelt.
Die AI Verify Foundation und MLCommons brachten führende Fachleute zusammen, um die Zukunft von KI-Tests, -Vertrauenswürdigkeit und -Sicherheit zu beleuchten. Vorgestellt wurde der neue AI Luminate Benchmark. Es gab spannende Diskussionen mit Unternehmen aus dem Bereich Compliance, NGOs und Sicherheitsforscher*innen.
Erkenntnis 3: Es entsteht ein Ökosystem, das aktiv an Standards und Prozessen für eine sicherere KI arbeitet.
Der Business Day des AI Summit war Treffpunkt für Start-ups und Großunternehmen aus ganz Europa und der Welt. Ein Highlight waren die kontrovers diskutierten Beiträge von Yann LeCun und Sam Altman, die unterschiedliche Visionen für die Zukunft der KI vertraten.
Erkenntnis 4: Es herrscht Spannung zwischen offenen und geschlossenen Systemen – und der Frage, wer die Zukunft der KI prägen wird. Wirtschaftliche und geopolitische Interessen nehmen dabei immer mehr Einfluss auf Innovation und Wachstum.
Am AI Act Haupttag kündigten Frankreich und Europa zusätzliche Fördermittel und eine stärkere strategische Fokussierung auf KI an. Außerdem wurde eine große europäische Initiative für öffentliche KI-Infrastruktur vorgestellt. In Panels diskutierten Wissenschaft, Industrie, Zivilgesellschaft und Politik über vielfältige Themen.
Erkenntnis 5: Europa versucht, im globalen Wettbewerb aufzuholen. Sicherheit spielte dabei eine geringere Rolle – im Fokus standen geopolitische Relevanz und wirtschaftliche Anschlussfähigkeit.
Fazit: Die Veranstaltungen unterstrichen die Bedeutung inklusiver, ethischer und verantwortungsvoller KI-Praktiken und boten Raum für substanzielle Beiträge und Austausch in einer vielfältigen Gemeinschaft.
Generative KI verändert die Art, wie wir Governance denken. Quantencomputing definiert Sicherheitsstandards neu. Diese Technologien entwickeln sich mit einer Geschwindigkeit, die selbst die agilsten Regulierungsansätze herausfordert. Sie bieten enorme Chancen – von effizienterer öffentlicher Verwaltung über fundiertere Entscheidungsfindung bis hin zur Revolution der Datensicherheit. Gleichzeitig werfen sie komplexe Fragen auf: Wer legt die Regeln fest? Wie sichern wir Rechenschaftspflicht? Und können Governance-Rahmen mit der technologischen Dynamik Schritt halten?
Beim Workshop „Frontier Technologies – Governance Frontiers“ in Singapur, veranstaltet von der Technischen Universität München (TUM), der Konrad-Adenauer-Stiftung (KAS), TUM Asia und dem TUM Think Tank, standen genau diese Fragen im Mittelpunkt. Expert\*innen aus Wissenschaft, Wirtschaft und Politik kamen zusammen, um die Governance von KI und Quantentechnologie nicht als ferne Zukunftsvision, sondern als aktuelle politische und gesellschaftliche Herausforderung zu diskutieren.
Die Diskussionen machten eines deutlich: Governance ist kein statisches Regelwerk – sie ist ein dynamischer Prozess, der sich kontinuierlich an technologische Entwicklungen anpassen muss. Weltweit entstehen dabei unterschiedliche Modelle, jedes mit eigenen Implikationen: Der „Brussels Effect“ beschreibt, wie strenge EU-Regulierungen globale Standards prägen und klare rechtliche Grenzen für KI und digitale Technologien setzen. Der „Silicon Valley Effect“ hingegen betont Selbstregulierung und marktorientierte Innovationskraft. Der „Beijing Effect“ steht für ein staatszentriertes Modell mit zentraler Kontrolle.
Diese Paradigmen verdeutlichen die Herausforderung: Wie können wir Zukunftstechnologien so gestalten und regulieren, dass sie wirksam, ethisch vertretbar und global anschlussfähig sind?
Generative KI
Wenn es um generative KI geht, beginnen Regierungen zunehmend damit, KI-basierte Lösungen in der öffentlichen Verwaltung zu integrieren – doch Bedenken hinsichtlich Voreingenommenheit, Rechenschaftspflicht und regulatorischer Zersplitterung bestehen weiterhin. Singapurs nationale KI-Strategie, erstmals 2019 vorgestellt und kürzlich überarbeitet, steht exemplarisch für einen Ansatz, der Innovation mit Schutzmaßnahmen in Einklang bringen will. Ein zentrales Element ist das AI Verify Toolkit – eine Open-Source-Plattform, die es Unternehmen und Aufsichtsbehörden ermöglicht, KI-Systeme auf ihre ethische und regulatorische Konformität hin zu prüfen.
Doch reicht freiwillige Governance aus? Die Debatte ist offen: Während einige für industriegetriebene Leitlinien plädieren, fordern andere verbindliche gesetzliche Regelungen. Singapur verfolgt aktuell einen hybriden Ansatz – es fördert die freiwillige Anwendung solcher Tools, plant jedoch einen klaren Fahrplan hin zur Regulierung. Die EU hingegen geht mit dem AI Act einen strengeren Weg: Hier sind verbindliche Vorschriften von Beginn an vorgesehen.
Doch jenseits der Regulierung wirft KI auch Fragen nach digitalem Vertrauen und kultureller Repräsentation auf. Große KI-Modelle werden überwiegend mit westlich geprägten Datensätzen trainiert – mit der Gefahr, sprachliche und kulturelle Vielfalt zu verdrängen. Singapur reagiert darauf mit gezielten Investitionen in KI-Projekte, die lokale Dialekte bewahren und nationale Identität in KI-Anwendungen verankern sollen.
Dies verweist auf ein größeres Thema: Wenn KI die Funktionsweise von Gesellschaften mitprägt – wer bestimmt dann, welche Werte sie verkörpert?
Quantentechnologien
Quantentechnologien stellen die Governance vor völlig neue Herausforderungen. Auch wenn sich Quantencomputing noch in einem frühen Entwicklungsstadium befindet, birgt es das Potenzial, Verschlüsselung, Sicherheit und geopolitische Machtverhältnisse grundlegend zu verändern. Singapurs National Quantum-Safe Network (NQSN) dient als Testfeld für quantensichere Verschlüsselung und nutzt die zentral verwaltete Glasfaserinfrastruktur des Landes, um Standards für sichere Quantenkommunikation zu erproben.
Doch Governance darf nicht an nationalen Grenzen enden. Das globale Rennen um „Quantum Supremacy“ – maßgeblich vorangetrieben von den USA, China und der EU – wirft dringliche Fragen zur internationalen Zusammenarbeit auf: Sollten Institutionen wie die Vereinten Nationen oder die Welthandelsorganisation (WTO) an der Entwicklung internationaler Governance-Rahmen beteiligt sein? Oder setzen sich nationale Alleingänge durch, mit der Folge regulatorischer Inkonsistenzen, die globale Sicherheitsrisiken bergen könnten?
Während sich KI und Quantencomputing rasant weiterentwickeln, muss Governance proaktiv, inklusiv und vorausschauend bleiben. Der Workshop betonte die Notwendigkeit grenzüberschreitender Zusammenarbeit und interdisziplinären Austauschs, um Governance nicht bloß als Reaktion auf technologische Veränderungen zu begreifen, sondern als gestaltende Kraft für eine nachhaltige, demokratische und gerechte Zukunft.
Behalten Sie den Überblick in Sachen Innovation.
Melden Sie sich für unseren Newsletter an und folgen Sie uns auf unseren Social Media Kanälen.
