«Ethik darf kein nachträglicher Einfall sein»: Ein Gespräch mit dem KI-Ethiker Ning Wang

Autor:innen

Der Technology Outlook stellt Apertus als Beispiel für transparente, konforme KI vor und untersucht, was seine Entwicklung über die Position der Schweiz in der globalen KI-Landschaft aussagt. Um die tieferen ethischen, gesellschaftlichen und politischen Implikationen grosser Sprachmodelle (LLMs) zu erörtern, sprachen wir mit Dr. Ning Wang, Ethikerin und Politikwissenschaftlerin an der Universität Zürich. Ihre Forschung konzentriert sich auf die verantwortungsvolle Entwicklung und nachhaltige Steuerung neuer Technologien.

Dr. Ning Wang, Ethikerin und Politikwissenschaftlerin an der Universität Zürich, befasst sich in ihrer Forschung mit der verantwortungsvollen Entwicklung und der nachhaltigen Steuerung neuer Technologien. Bild: Universität Zürich.

Die wichtigsten Punkte auf einen Blick

  • Transparenz als Voraussetzung, nicht als Lösung: Die Veröffentlichung von Quellcode und Trainingsdaten erleichtert die Überprüfung und verteilt den Zugang zu Wissen neu, klärt jedoch nicht die Frage, wessen Wissen und Sprache wertgeschätzt wird.
  • Ethik als nachrangiges Thema hat messbare Kosten: Die Verschiebung von Inklusivität und gesellschaftlichen Auswirkungen auf die Zeit nach der Entwicklung und dem Einsatz führt zur strukturellen Verankerung von Vorurteilen, kostspieligen Korrekturen und einer potenziellen Erosion des Vertrauens.
  • Skalierung verändert die Natur des Problems: KI verstärkt nicht nur menschliche Vorurteile, sondern institutionalisiert sie in einer Geschwindigkeit und einem Ausmass, die bestehende ethische und rechtliche Rahmenbedingungen überholen.
  • Vielfalt muss Entscheidungsmacht bedeuten: Eine bloße Repräsentation in KI-Teams reicht nicht aus, wenn die Agenda nicht hinterfragt wird, wenn Fachwissen nicht fair anerkannt wird und wenn abweichende Meinungen nicht angemessen institutionalisiert werden.
  • Governance muss mit dem Modell einhergehen: Da Apertus für nachgelagerte Anwendungen feinabgestimmt wird, ist jede Anpassung ein potenzieller Punkt ethischer Abweichung. Die Schweiz braucht Mechanismen, um sicherzustellen, dass ihre Werte auf jeder Ebene durchgesetzt werden.
  • Von der Neutralität zur Verantwortung: Die Schweiz hat die institutionelle Tradition, KI als öffentliche Infrastruktur zu behandeln, die sowohl produziert als auch reguliert wird. Die Chance liegt darin, nicht nur Technologie, sondern auch Governance-Modelle zu exportieren.

Apertus wurde im Rahmen der Schweizer KI-Initiative von der ETH Zürich und der EPFL entwickelt und wird als Beispiel für konforme, transparente KI präsentiert. Was ist Ihre erste Reaktion als Ethikerin auf ein Modell, das seinen Quellcode, seine Trainingsdaten und seine Trainingsmethoden vollständig veröffentlicht?

Apertus unternimmt einen visionären Schritt in Richtung offener und transparenter LLMs. Aber es ist nur ein erster Schritt, denn KI-Systeme wie Apertus spiegeln nicht einfach die Realität wider; sie strukturieren, was als Wissen gilt, wessen Stimmen hörbar sind und welche Perspektiven an Bedeutung gewinnen. Anstelle der herkömmlichen Frage «Ist das Modell voreingenommen?» sollten wir uns fragen: «Wer hat die Autorität, das zu definieren, zu interpretieren und anzufechten, was wir als informatives Fundament der Gesellschaft betrachten?» In diesem Zusammenhang ist Neutralität keine passive Haltung mehr – sie wird zu einer aktiven Designentscheidung. Insbesondere für die Schweiz mit ihrer langen Tradition, sich als neutral zu definieren, ist dies eine wichtige Veränderung.

Im Fall von Apertus signalisiert die Veröffentlichung von Quellcode, Trainingsdaten und Methoden ein starkes Bekenntnis der Schweiz zur prozeduralen Offenheit. Ethisch gesehen ist dies aus zwei Gründen von Bedeutung:

  • Es senkt die Hürde für eine Überprüfung. Forscher, Journalisten und Akteure der Zivilgesellschaft können nicht nur die Ergebnisse, sondern auch die dem System zugrunde liegenden Annahmen untersuchen – Datenauswahl, Filterentscheidungen, Optimierungsziele. Dies ist eine entscheidende Voraussetzung für Rechenschaftspflicht.
  • Dies gewährleistet eine Umverteilung des Zugangs zu Wissen. Die meisten großen Sprachmodelle (LLMs) sind heute „Black Boxes“, die von einigen wenigen gewinnorientierten Akteuren kontrolliert werden. Vollständige Transparenz eröffnet – zumindest im Prinzip – die Möglichkeit einer breiteren Beteiligung an der Überprüfung, Verbesserung oder Anfechtung des Modells.

Betrachtet man die Sache jedoch aus einer grundlegenderen moralischen Perspektive, stellen sich weitere kritische Fragen: Löst die Veröffentlichung von Trainingsdaten und -methoden an sich Fragen der Legitimität? Wer entscheidet, welche Daten als repräsentativ gelten? Welche Sprachen, Dialekte oder Wissenssysteme werden priorisiert oder ausgeschlossen? Welche normativen Annahmen fließen in die Filterung und Anpassung ein?

Dies sind nicht nur technische, sondern auch politische Fragen. Transparenz kann sie zwar aufdecken, aber nicht lösen. In diesem Sinne ist Apertus weniger der Endpunkt ethischer KI, sondern vielmehr der Beginn einer anderen Art von Verantwortung – sobald alles sichtbar wird, läuft die Herausforderung darauf hinaus, Institutionen und Praktiken zu schaffen, die diese größere Sichtbarkeit sinnvoller machen können.

Sie haben argumentiert, dass KI-Entwicklungsteams dazu neigen, technische und wirtschaftliche Ziele zu priorisieren und ethische und gesellschaftliche Belange auf später zu verschieben. Was sind die praktischen Kosten dieser Vorgehensweise?

Im Fall von Apertus beobachten wir, dass Stereotypisierung trotz Transparenz fortbesteht. Dies spiegelt ein allgemeineres Problem der Reihenfolge in der KI-Entwicklung wider: Systeme werden zunächst auf Leistung und Effizienz optimiert, während Fragen der Inklusion, Repräsentation und gesellschaftlichen Auswirkungen zurückgestellt werden, wodurch potenzielle Schäden externalisiert werden.

Aus meiner Sicht hat diese Reihenfolge eine Reihe konkreter und weitreichender Konsequenzen:

  • Erstens zementiert sie Vorurteile auf struktureller Ebene. Wenn Themen wie geschlechtliche Inklusion oder Repräsentation bei der Datenkuratierung und Modellgestaltung nicht berücksichtigt werden, werden sie Teil der internen Logik des Systems. Das nachträgliche Anwenden von Filtern, sei es auf Trainingsdaten oder auf Ausgaben, kann Symptome mildern, beseitigt jedoch selten die zugrunde liegenden Muster. In der Praxis bedeutet dies, dass Stereotypen nicht nur gelegentliche Fehler sind; sie werden zu statistisch verstärkten Tendenzen. Es gibt zahlreiche Forschungsergebnisse, die zeigen, dass dies der Fall ist, insbesondere bei unterrepräsentierten Minderheiten.
  • Zweitens verlagert es die Last der Korrektur auf die Nutzer*innen und die betroffenen Gruppen. Wenn ein System voreingenommene oder ausgrenzende Ergebnisse liefert, werden die Kosten nicht von den Entwickler:innen getragen, sondern von denjenigen, die falsch dargestellt werden. Folglich müssen sie diese Schäden melden, anfechten und damit umgehen. Mit der Zeit entsteht dadurch eine Art «Teilnahmeermüdung», bei der von marginalisierten Gruppen erwartet wird, dass sie ständig Systeme reparieren, die nicht für sie gedacht waren und die sie nicht (mit)entworfen haben.
  • Drittens entsteht eine Pfadabhängigkeit, deren Umkehrung kostspielig ist. Sobald ein Modell trainiert, eingesetzt und in Arbeitsabläufe integriert ist, wird die Korrektur grundlegender Probleme technisch, wirtschaftlich und – was noch entscheidender ist – gesellschaftlich kostspielig. Das Nachtrainieren, die Neukuration von Datensätzen oder die Neugestaltung von Zielen ist weitaus schwieriger, als diese Bedenken von vornherein anzugehen. Die anfängliche Entscheidung über die Reihenfolge schränkt somit künftige ethische Entscheidungen effektiv ein.
  • Viertens normalisiert dies ein reaktives Ethikmodell. Indem ethische Bedenken als etwas behandelt werden, das später «geflickt» werden muss, signalisieren Organisationen implizit, dass gesellschaftliche Auswirkungen gegenüber technischen Meilensteinen zweitrangig sind. Dies prägt die institutionelle Kultur – Ethik wird in diesem Rahmen zu einer Compliance-Verpflichtung statt zu einem Gestaltungsprinzip.
  • Fünftens beeinträchtigt dies das Vertrauen auf subtile, aber dauerhafte Weise. Selbst bei einem transparenten System wie Apertus bemerken Nutzer dennoch, wenn Schäden vorhersehbar waren, aber nicht priorisiert wurden. Dies kann das Vertrauen nicht nur in ein bestimmtes Modell, sondern auch in die dahinterstehenden Institutionen untergraben. Das Problem ist nicht, dass Unvollkommenheiten bestehen, sondern dass sie eine Prioritätenhierarchie widerspiegeln.

Die wahren Kosten dieser Abfolge sind nicht voreingenommene Ergebnisse; es ist die institutionalisierte Verzögerung in einem System, in dem ethische Überlegungen stets einen Schritt hinter den technologischen Möglichkeiten zurückbleiben. Ein nachhaltigerer Ansatz würde diese Abfolge umkehren – nicht durch eine Verlangsamung der Innovation, sondern durch eine Neudefinition dessen, was als «Kernfunktionalität» gilt. In diesem Rahmen sind Inklusivität, repräsentatives Gleichgewicht und gesellschaftliche Auswirkungen keine Zusatzkomponenten; sie sind von Anfang an Teil der Leistungskriterien des Systems.

Im Gegensatz zu einem Menschen, der vielleicht ein paar voreingenommene Entscheidungen pro Tag trifft, kann ein Algorithmus Tausende pro Sekunde treffen. Erfordert dieses Ausmass an KI-Entscheidungsfindung eine andere ethische und rechtliche Reaktion als die, die wir derzeit in der Schweiz haben?

Ja – die Grössenordnung verstärkt nicht nur bestehende Probleme, sondern verändert auch deren Wesen. Wer KI so behandelt, als wäre sie lediglich ein schnellerer menschlicher Entscheidungsträger, verkennt, worum es wirklich geht.

Bei fortschrittlichen KI-Systemen haben wir es nicht mehr mit isolierten Entscheidungen zu tun, sondern mit Entscheidungsinfrastrukturen. Diese Systeme agieren nicht nur in grossem Massstab; sie standardisieren Urteile kontextübergreifend, oft auf unsichtbare Weise. Wenn Entscheidungen skalieren, muss die Verantwortung entsprechend skalieren. Die ethische Herausforderung der KI besteht nicht nur darin, dass sie voreingenommen sein kann, sondern dass sie Vorurteile mit einer Geschwindigkeit und in einem Ausmass institutionalisieren kann, die unsere derzeitige ethische und rechtliche Vorstellungskraft übersteigen.

Wie Apertus zeigt, verfügt die Schweiz über die institutionellen Kapazitäten, darauf zu reagieren. Wichtig ist, dass dies einen Wechsel von einer Einzelfalllogik zu einer Governance-Denkweise auf Systemebene erfordert. Die Art von Reaktion, auf die dies meiner Ansicht nach hindeutet, ist nicht unbedingt eine strengere Regulierung, sondern eine andere Denkweise. Zum Beispiel:

  • Wirksame Mechanismen zur Erkennung und Bekämpfung systemischer Vorurteile, nicht nur einzelner Beschwerden.
  • Festgelegte Anforderungen für kontinuierliche Audits, nicht für einmalige Zertifizierungen.
  • Klarere Modelle der geteilten Verantwortung zwischen Entwicklern, Bereitstellern, Betreibern und anderen beteiligten Institutionen.
  • Erweiterte institutionelle Räume, in denen technische, rechtliche, ethische und gesellschaftliche Perspektiven gemeinsam Systeme bewerten können.

«Wenn wir nicht einmal am Tisch sitzen, wie sollen wir dann unsere Stimmen Gehör verschaffen?» Sie haben dies aus Ihrer eigenen Erfahrung angesprochen. Was wäre nötig, damit KI-Entwicklungsteams dies ändern?

Wenn Menschen an den Tisch eingeladen werden, aber keinen Einfluss darauf haben, was dort serviert wird, hat keine echte Inklusion stattgefunden. Damit sich der Tisch nun wirklich anders darstellt, geht es nicht nur darum, wer eingeladen wird, sondern wie der Tisch strukturiert ist – wer die Tagesordnung festlegt und wessen Wissen zählt. Ohne eine Änderung dieser Bedingungen bleibt Diversität eher symbolisch als folgenreich. Im Kontext von Apertus sehe ich mehrere strukturelle Verschiebungen, die potenziell stattfinden könnten:

  • Erstens: von blosser Repräsentation zu echter Entscheidungsfindung. Es reicht nicht aus, die Präsenz unterrepräsentierter Gruppen in Teams zu erhöhen, wenn wichtige Entscheidungen über Datensätze, Modellziele oder Bewertungskriterien weiterhin an anderer Stelle getroffen werden. Sinnvolle Inklusion erfordert, dass vielfältige Stimmen an den Stellen vertreten sind, an denen Kompromisse geschlossen werden – nicht nur in beratenden oder nachgelagerten Rollen.
  • Zweitens: die Neudefinition dessen, was als Fachwissen gilt. Die KI-Entwicklung wird nach wie vor von eng gefassten technischen Qualifikationen dominiert. Doch viele der schwierigsten Fragen, etwa zu Vorurteilen, Sprache, Kultur und gesellschaftlichen Auswirkungen, erfordern interdisziplinäres und erfahrungsbasiertes Wissen. Ein struktureller Wandel würde bedeuten, Ethiker, Sozialwissenschaftler und aus der Gemeinschaft stammende Perspektiven formell in zentrale Entwicklungsprozesse zu integrieren – nicht als externe Gutachter, sondern als Mitgestalter.
  • Drittens: die Änderung von Anreizstrukturen. Akademische und technische Umgebungen belohnen Schnelligkeit, Neuartigkeit und Leistung. Arbeit an Inklusion, Datenkuratierung oder der Minderung von Voreingenommenheit wird oft unterbewertet, da sie als langsamer und weniger sichtbar angesehen wird. Wenn Institutionen es mit dem Wandel ernst meinen, müssen sie Anreize wie Finanzierung, Beförderungen und Anerkennung an der Qualität und Inklusivität von Systemen ausrichten – nicht nur an deren technischen Benchmarks.
  • Viertens: Institutionalisierung der Anfechtbarkeit. Entscheidend ist, ob es Mechanismen gibt, um Entscheidungen ohne Nachteile anzufechten. Dies könnte in Form von strukturierten Verfahren zur Einreichung von Einwänden (Dissent), unabhängigen Prüfungsgremien oder partizipativen Audits geschehen, die Stimmen ausserhalb des unmittelbaren Entwicklungsteams einbeziehen.

Das Leitprinzip für die Einleitung dieser strukturellen Veränderungen sollte nicht lediglich darin bestehen, «Stimmen hinzuzufügen», sondern vielmehr darin, «die Autorität über Wissen neu zu verteilen». Für die Schweiz sehe ich darin einerseits eine Chance – ihre Tradition des Pluralismus und der ausgehandelten Regierungsführung könnte zu KI-Entwicklungsprozessen führen, die partizipativer und reflexiver sind als solche, die rein von Grössen- oder Marktlogik getrieben werden. Andererseits erfordert dies, Vielfalt nicht als ein Problem der Pipeline zu behandeln, sondern als eine Frage der institutionellen Gestaltung im Kern.

Apertus ist eine Grundlage, kein fertiges Produkt. Jede Anpassung ist ein potenzieller Punkt ethischer Abweichung. Welche Governance-Mechanismen sind unerlässlich, um sicherzustellen, dass seine Werte in jede neue Anwendung einfliessen?

Einige ethische Herausforderungen könnten sich verschärfen, wenn wir LLMs als Basismodelle behandeln würden – weil wir die Verantwortung dezentralisieren. Während das Basismodell bestimmte Verpflichtungen verkörpern kann, wie Apertus, ist jeder Schritt der Feinabstimmung ein potenzieller Punkt der Abweichung. Die entscheidende Frage ist daher nicht, wie ethisch das Basismodell ist, sondern wie (und wie weit) sich seine ethischen Eigenschaften auswirken.

Das bedeutet, dass ein Basismodell nicht nur eine technische Grundlage, sondern vielmehr ein normativer Ausgangspunkt ist. Wenn seine ethischen Verpflichtungen nicht aktiv durch jede Anpassungsschicht hindurchgeführt werden, werden sie nicht skalieren, sondern stattdessen erodieren.  Deshalb sollten wir eine Praxis etablieren, die

  • LLMs als öffentliche Infrastruktur und nicht nur als kommerzielle Produkte behandelt;
  • die Entwicklung an demokratischen Kontrolltraditionen ausrichtet, als komparativer Vorteil der Schweiz;
  • nicht nur Technologie, sondern auch Governance-Modelle exportiert.

Auch hier sehe ich eine echte Chance für die Schweiz – und die Möglichkeit, einen echten Beitrag für die Welt zu leisten –, indem sie KI nicht nur als modulare technische Produkte behandelt, sondern als integriertes Governance-Ökosystem, in dem jede Erweiterung des Modells mit einem gemeinsamen Satz von Prinzipien verbunden bleibt, die umsetzbar sind, anstatt als Slogans für „Fensterputz“ oder „Ethik-Waschung“ abgetan zu werden.

Dies erfordert einen Wandel von «KI made in Switzerland» hin zu «KI stewarded like Switzerland». Denn im Zeitalter der KI bedeutet Neutralität nicht mehr, sich der Macht zu enthalten, sondern wie Macht kodiert wird. Die Schweiz hat die einmalige Chance, von «Neutralität» zu «Verantwortungsbewusstsein» überzugehen – und KI-Systeme zu entwickeln, die nicht nur die Leistung optimieren, sondern die Integrität von Wissen als öffentliches Gut und nicht als privates Vermögen schützen.

Dr. Ning Wang ist Forschungsgruppenleiterin an der Universität Zürich und Mitglied verschiedener Arbeitsgruppen zum Thema KI-Ethik bei weltweit führenden Institutionen wie dem Weltwirtschaftsforum (WEF) und der Weltgesundheitsorganisation (WHO). Ihre Forschung befasst sich mit den ethischen, sozialen, rechtlichen und regulatorischen Herausforderungen disruptiver Technologien. Sie ist unter ning.wang@uzh.ch erreichbar.

Mitwirkende

Rolle Titel + Name
Text von Esther Lombardini
Expertise Ning Wang