„KI – guter Diener aber schlechter Meister“

© 2026 EPFL AI Center - Nicolas Machado

© 2026 EPFL AI Center - Nicolas Machado

Die KI hält Einzug in alle Bereiche unseres Lebens. Allerdings stellt sich die Frage, inwieweit wir bereit sind, diese Technologie anzunehmen – und vor allem, wie schnell und unter welchen Bedingungen. Ein vom EPFL AI Center in Zusammenarbeit mit der Universität Genf veröffentlichter Bericht reflektiert sowohl die Wahrnehmungen einer repräsentativen Auswahl der Westschweizer Bevölkerung als auch die Empfehlungen einer Bürgerversammlung.

Trotz ernsthafter Bedenken im Hinblick auf Cyberangriffe, Deepfake oder den Schutz der Privatsphäre findet die KI breite Anwendung. Als die Teilnehmenden an einer Bürgerversammlung gebeten wurden, sich zum Thema künstliche Intelligenz zu äussern, zeigte sich ein Paradoxon. Das EPFL AI Center hat in Zusammenarbeit mit dem Forschungsschwerpunkt für Demokratische Innovationen (PIDEM) der Universität Genf und dem Verein Demoscan diesen neuartigen Prozess angestossen, der zur Publikation seines Abschlussberichts in deutscher und französischer Sprache führte. Er enthält 20 konkrete Vorschläge, um den Einsatz von KI zu steuern und zu begleiten. Zusammenfassend lässt sich sagen: „KI ist zwar ein guter Diener aber schlechter Meister.“

„Künstliche Intelligenz ist eine der prägendsten technologischen Transformationen unserer Zeit. Ihre rasante Entwicklung wirkt sich auf die Bereiche Arbeit, Gesundheit und Bildung sowie auf das Privatleben und das demokratische Leben aus“, betont Marcel Salathé, Co-Direktor des EPFL AI Center. „Angesichts der Tragweite dieser Herausforderungen weist der Bericht darauf hin, wie wichtig es ist, den Bürgerinnen und Bürgern die Möglichkeit zu geben, ihre Meinung zu äussern und die Zukunft dieser Technologie mitzugestalten, anstatt nur ihre Auswirkungen zu erdulden.“

Ein zweistufiger Ansatz

Dieses Dokument ist das Ergebnis zweier komplementärer Ansätze. Zunächst wurde mit Unterstützung des Bundesamtes für Statistik eine Umfrage durchgeführt, bei der die Meinungen von 734 Einwohnerinnen und Einwohnern der Westschweizer Kantone und der französischsprachigen Regionen der mehrsprachigen Kantone erfasst wurden. Im Fragebogen ging es vor allem darum, wie die KI genutzt wird und wie die Menschen sie wahrnehmen.

Anschliessend wurden aus den Reihen der Interessierten 40 Bürgerinnen und Bürger ausgewählt, um eine möglichst breit gefächerte Gruppe abzubilden (Kanton, Alter, Bildungsniveau, Interesse an Politik). Im Anschluss daran trat die Versammlung an zwei Wochenenden im November zusammen, um zu diskutieren, zu debattieren und sich zu beraten. Der Beratungsprozess wurde vom Verein Demoscan konzipiert und durchgeführt. Dieser war sowohl für die Methodik als auch für die Moderation verantwortlich und baute den Prozess auf dem zentralen Prinzip der Neutralität auf, um eine sachkundige und ausgewogene Diskussion zu fördern.

„Demokratie findet nicht nur an der Urne statt. Eine Bürgerversammlung ist ein Instrument, das eine intuitive Meinung in ein reflektiertes Urteil verwandelt: Man gibt ein Zeitfenster vor, stellt Informationen zur Verfügung und schafft einen neutralen Rahmen für Debatten, dann werden begründete Vorschläge vorgelegt“, erklärt Nenad Stojanović, Professor an der Universität Genf und Mitbegründer von Demoscan.

Bereits grosse Akzeptanz, aber auch hohe Erwartungen

Die Umfrage zeigt, dass 87 % der Befragten bereits mindestens ein KI-Tool genutzt haben und ChatGPT das am weitesten verbreitete Tool ist (70 %). Damit verbunden ist aber auch die Forderung nach klaren Regeln: 90 % sind der Meinung, dass IT-Systeme immer anzeigen sollten, wenn man mit einer Maschine interagiert, und 70 % wünschen sich, dass die Entwicklung der KI streng von den Behörden gesteuert wird.

Die grössten Bedenken betreffen den Missbrauch (Hacking, Cyberangriffe, 81 %) und die schwierige Unterscheidung zwischen dem, was richtig und was falsch ist (Deepfakes, Desinformation, 77 %), gefolgt vom Schutz der Privatsphäre (65 %) und der Gefährdung von Arbeitsplätzen (59 %). Fast 69 % der Befragten sind der Ansicht, dass die KI eine ernsthafte Bedrohung für den Schutz der Privatsphäre und für die Datensicherheit darstellt.

Wer soll die KI-Governance steuern?

Etwa ein Drittel der Befragten sieht primär die Schweizer Regierung in der Verantwortung (31 %). Fast ebenso viele geben jedoch an, dass sie sich nicht sicher sind (27 %), was darauf hindeutet, dass hier institutionelle Klarheit geschaffen werden muss. Bei den politischen Prioritäten steht der Schutz personenbezogener Daten mit Abstand an erster Stelle (68 %), gefolgt von ethischen Richtlinien und Transparenz (41 %) und der Verhinderung unkontrollierter KI (40 %).

Der Bericht soll akademische, institutionelle und politische Überlegungen zur KI-Governance anregen, indem er die Debatte in den Erwartungen und Empfehlungen der Bevölkerung verankert. In der Präambel des Berichts rufen die Teilnehmenden dazu auf, die autonome Entscheidungsfindung der Systeme einzuschränken und die Wahlfähigkeit der Einzelnen zu erhalten.

„Der nächste Schritt, so hoffe ich, könnte die Ausweitung auf die gesamte Schweiz sein, damit die KI-Governance auf Bürgerempfehlungen in allen Sprachregionen aufbaut“, meint Marcel Salathé abschliessend.

20 Bürgervorschläge zu 5 Themen

Nach Abschluss der Beratungen formulierten die Teilnehmenden 20 Vorschläge, die in fünf Schwerpunkte gegliedert waren:
  1. Rolle des Staates: Um die nachhaltige Finanzierung der Forschung sicherzustellen, wurde vorgeschlagen, ein Bundesamt für KI einzurichten.
  2. Einstieg und Schulung: Wichtig ist, die Bevölkerung hinsichtlich der Risiken im Zusammenhang mit der Nutzung generativer KI zu sensibilisieren und soziale Interaktionen zu fördern, um zu verhindern, dass wir eines Tages in einer Welt leben, die komplett von der KI bestimmt wird.
  3. Arbeitswelt: Hier lag der Schwerpunkt auf der Antizipation der wirtschaftlichen und personellen Auswirkungen, die mit dem Verlust oder der Veränderung des Arbeitsplatzes verbunden sind, sowie auf der Unterstützung bei der Umschulung.
  4. Rückverfolgbarkeit: Um zu identifizieren und kenntlich zu machen, welche Inhalte von Menschen erstellt wurden, wird vorgeschlagen, ein Label einzuführen. Ausserdem sollte der Schutz der Urheberrechte gestärkt werden.
  5. Verantwortungsbewusstes Handeln: Um den Datenschutz zu verbessern und Cyberrisiken zu verringern, sollten spezifische Rechtsvorschriften erstellt und entsprechende Bildungstools entwickelt werden.

Referenzen

Der Bericht ist in französischer und deutscher Sprache auf der Website des EPFL AI Center verfügbar.

Dieses Projekt wurde vom EPFL AI Center und der Stiftung Mercator Schweiz finanziert.


Autor: Mélissa Anchisi

Source: EPFL

Dieser Inhalt wird gemäss den Bedingungen der Creative Commons-Lizenz CC BY-SA 4.0 verbreitet. Sie können darin enthaltene Texte, Videos und Bilder ungehindert übernehmen, sofern Sie den Urheber des jeweiligen Werks nennen und die Verwendung nicht beschränken. Für Abbildungen, die nicht den Hinweis CC BY-SA enthalten, ist die Zustimmung des Urhebers erforderlich.