Apertus wurde im Rahmen der Schweizer KI-Initiative von der ETH Zürich und der EPFL entwickelt und wird als Beispiel für konforme, transparente KI präsentiert. Was ist Ihre erste Reaktion als Ethikerin auf ein Modell, das seinen Quellcode, seine Trainingsdaten und seine Trainingsmethoden vollständig veröffentlicht?
Apertus unternimmt einen visionären Schritt in Richtung offener und transparenter LLMs. Aber es ist nur ein erster Schritt, denn KI-Systeme wie Apertus spiegeln nicht einfach die Realität wider; sie strukturieren, was als Wissen gilt, wessen Stimmen hörbar sind und welche Perspektiven an Bedeutung gewinnen. Anstelle der herkömmlichen Frage «Ist das Modell voreingenommen?» sollten wir uns fragen: «Wer hat die Autorität, das zu definieren, zu interpretieren und anzufechten, was wir als informatives Fundament der Gesellschaft betrachten?» In diesem Zusammenhang ist Neutralität keine passive Haltung mehr – sie wird zu einer aktiven Designentscheidung. Insbesondere für die Schweiz mit ihrer langen Tradition, sich als neutral zu definieren, ist dies eine wichtige Veränderung.
Im Fall von Apertus signalisiert die Veröffentlichung von Quellcode, Trainingsdaten und Methoden ein starkes Bekenntnis der Schweiz zur prozeduralen Offenheit. Ethisch gesehen ist dies aus zwei Gründen von Bedeutung:
Betrachtet man die Sache jedoch aus einer grundlegenderen moralischen Perspektive, stellen sich weitere kritische Fragen: Löst die Veröffentlichung von Trainingsdaten und -methoden an sich Fragen der Legitimität? Wer entscheidet, welche Daten als repräsentativ gelten? Welche Sprachen, Dialekte oder Wissenssysteme werden priorisiert oder ausgeschlossen? Welche normativen Annahmen fließen in die Filterung und Anpassung ein?
Dies sind nicht nur technische, sondern auch politische Fragen. Transparenz kann sie zwar aufdecken, aber nicht lösen. In diesem Sinne ist Apertus weniger der Endpunkt ethischer KI, sondern vielmehr der Beginn einer anderen Art von Verantwortung – sobald alles sichtbar wird, läuft die Herausforderung darauf hinaus, Institutionen und Praktiken zu schaffen, die diese größere Sichtbarkeit sinnvoller machen können.
Sie haben argumentiert, dass KI-Entwicklungsteams dazu neigen, technische und wirtschaftliche Ziele zu priorisieren und ethische und gesellschaftliche Belange auf später zu verschieben. Was sind die praktischen Kosten dieser Vorgehensweise?
Im Fall von Apertus beobachten wir, dass Stereotypisierung trotz Transparenz fortbesteht. Dies spiegelt ein allgemeineres Problem der Reihenfolge in der KI-Entwicklung wider: Systeme werden zunächst auf Leistung und Effizienz optimiert, während Fragen der Inklusion, Repräsentation und gesellschaftlichen Auswirkungen zurückgestellt werden, wodurch potenzielle Schäden externalisiert werden.
Aus meiner Sicht hat diese Reihenfolge eine Reihe konkreter und weitreichender Konsequenzen:
Die wahren Kosten dieser Abfolge sind nicht voreingenommene Ergebnisse; es ist die institutionalisierte Verzögerung in einem System, in dem ethische Überlegungen stets einen Schritt hinter den technologischen Möglichkeiten zurückbleiben. Ein nachhaltigerer Ansatz würde diese Abfolge umkehren – nicht durch eine Verlangsamung der Innovation, sondern durch eine Neudefinition dessen, was als «Kernfunktionalität» gilt. In diesem Rahmen sind Inklusivität, repräsentatives Gleichgewicht und gesellschaftliche Auswirkungen keine Zusatzkomponenten; sie sind von Anfang an Teil der Leistungskriterien des Systems.
Im Gegensatz zu einem Menschen, der vielleicht ein paar voreingenommene Entscheidungen pro Tag trifft, kann ein Algorithmus Tausende pro Sekunde treffen. Erfordert dieses Ausmass an KI-Entscheidungsfindung eine andere ethische und rechtliche Reaktion als die, die wir derzeit in der Schweiz haben?
Ja – die Grössenordnung verstärkt nicht nur bestehende Probleme, sondern verändert auch deren Wesen. Wer KI so behandelt, als wäre sie lediglich ein schnellerer menschlicher Entscheidungsträger, verkennt, worum es wirklich geht.
Bei fortschrittlichen KI-Systemen haben wir es nicht mehr mit isolierten Entscheidungen zu tun, sondern mit Entscheidungsinfrastrukturen. Diese Systeme agieren nicht nur in grossem Massstab; sie standardisieren Urteile kontextübergreifend, oft auf unsichtbare Weise. Wenn Entscheidungen skalieren, muss die Verantwortung entsprechend skalieren. Die ethische Herausforderung der KI besteht nicht nur darin, dass sie voreingenommen sein kann, sondern dass sie Vorurteile mit einer Geschwindigkeit und in einem Ausmass institutionalisieren kann, die unsere derzeitige ethische und rechtliche Vorstellungskraft übersteigen.
Wie Apertus zeigt, verfügt die Schweiz über die institutionellen Kapazitäten, darauf zu reagieren. Wichtig ist, dass dies einen Wechsel von einer Einzelfalllogik zu einer Governance-Denkweise auf Systemebene erfordert. Die Art von Reaktion, auf die dies meiner Ansicht nach hindeutet, ist nicht unbedingt eine strengere Regulierung, sondern eine andere Denkweise. Zum Beispiel:
«Wenn wir nicht einmal am Tisch sitzen, wie sollen wir dann unsere Stimmen Gehör verschaffen?» Sie haben dies aus Ihrer eigenen Erfahrung angesprochen. Was wäre nötig, damit KI-Entwicklungsteams dies ändern?
Wenn Menschen an den Tisch eingeladen werden, aber keinen Einfluss darauf haben, was dort serviert wird, hat keine echte Inklusion stattgefunden. Damit sich der Tisch nun wirklich anders darstellt, geht es nicht nur darum, wer eingeladen wird, sondern wie der Tisch strukturiert ist – wer die Tagesordnung festlegt und wessen Wissen zählt. Ohne eine Änderung dieser Bedingungen bleibt Diversität eher symbolisch als folgenreich. Im Kontext von Apertus sehe ich mehrere strukturelle Verschiebungen, die potenziell stattfinden könnten:
Das Leitprinzip für die Einleitung dieser strukturellen Veränderungen sollte nicht lediglich darin bestehen, «Stimmen hinzuzufügen», sondern vielmehr darin, «die Autorität über Wissen neu zu verteilen». Für die Schweiz sehe ich darin einerseits eine Chance – ihre Tradition des Pluralismus und der ausgehandelten Regierungsführung könnte zu KI-Entwicklungsprozessen führen, die partizipativer und reflexiver sind als solche, die rein von Grössen- oder Marktlogik getrieben werden. Andererseits erfordert dies, Vielfalt nicht als ein Problem der Pipeline zu behandeln, sondern als eine Frage der institutionellen Gestaltung im Kern.
Apertus ist eine Grundlage, kein fertiges Produkt. Jede Anpassung ist ein potenzieller Punkt ethischer Abweichung. Welche Governance-Mechanismen sind unerlässlich, um sicherzustellen, dass seine Werte in jede neue Anwendung einfliessen?
Einige ethische Herausforderungen könnten sich verschärfen, wenn wir LLMs als Basismodelle behandeln würden – weil wir die Verantwortung dezentralisieren. Während das Basismodell bestimmte Verpflichtungen verkörpern kann, wie Apertus, ist jeder Schritt der Feinabstimmung ein potenzieller Punkt der Abweichung. Die entscheidende Frage ist daher nicht, wie ethisch das Basismodell ist, sondern wie (und wie weit) sich seine ethischen Eigenschaften auswirken.
Das bedeutet, dass ein Basismodell nicht nur eine technische Grundlage, sondern vielmehr ein normativer Ausgangspunkt ist. Wenn seine ethischen Verpflichtungen nicht aktiv durch jede Anpassungsschicht hindurchgeführt werden, werden sie nicht skalieren, sondern stattdessen erodieren. Deshalb sollten wir eine Praxis etablieren, die
Auch hier sehe ich eine echte Chance für die Schweiz – und die Möglichkeit, einen echten Beitrag für die Welt zu leisten –, indem sie KI nicht nur als modulare technische Produkte behandelt, sondern als integriertes Governance-Ökosystem, in dem jede Erweiterung des Modells mit einem gemeinsamen Satz von Prinzipien verbunden bleibt, die umsetzbar sind, anstatt als Slogans für „Fensterputz“ oder „Ethik-Waschung“ abgetan zu werden.
Dies erfordert einen Wandel von «KI made in Switzerland» hin zu «KI stewarded like Switzerland». Denn im Zeitalter der KI bedeutet Neutralität nicht mehr, sich der Macht zu enthalten, sondern wie Macht kodiert wird. Die Schweiz hat die einmalige Chance, von «Neutralität» zu «Verantwortungsbewusstsein» überzugehen – und KI-Systeme zu entwickeln, die nicht nur die Leistung optimieren, sondern die Integrität von Wissen als öffentliches Gut und nicht als privates Vermögen schützen.
Dr. Ning Wang ist Forschungsgruppenleiterin an der Universität Zürich und Mitglied verschiedener Arbeitsgruppen zum Thema KI-Ethik bei weltweit führenden Institutionen wie dem Weltwirtschaftsforum (WEF) und der Weltgesundheitsorganisation (WHO). Ihre Forschung befasst sich mit den ethischen, sozialen, rechtlichen und regulatorischen Herausforderungen disruptiver Technologien. Sie ist unter ning.wang@uzh.ch erreichbar.
| Rolle | Titel + Name |
|---|---|
| Text von | Esther Lombardini |
| Expertise | Ning Wang |