"L'éthique ne doit pas être une idée après coup" : entretien avec Ning Wang, spécialiste de l'éthique de l'IA

Auteur·rice·s

Le Technology Outlook présente Pertus comme un exemple d'IA transparente et conforme et examine ce que son développement révèle sur la position de la Suisse dans le paysage mondial de l'IA. Afin de discuter des implications éthiques, sociales et politiques plus profondes des grands modèles linguistiques (LLM), nous nous sommes entretenus avec le Dr Ning Wang, éthicienne et politologue à l'Université de Zurich. Ses recherches se concentrent sur le développement responsable et la gestion durable des nouvelles technologies.

Dr Ning Wang, éthicienne et politologue à l'Université de Zurich, s'intéresse dans ses recherches au développement responsable et à la gestion durable des nouvelles technologies. Photo : Université de Zurich.

Traduit à l'aide d'un plugin de traduction automatique.

Les points les plus importants en un coup d'œil

  • La transparence comme condition préalable et non comme solution : la publication du code source et des données d'entraînement facilite la vérification et redistribue l'accès au savoir, mais ne clarifie pas la question de savoir qui est valorisé dans son savoir et son langage.
  • L'éthique en tant que question secondaire a un coût mesurable : le report de l'inclusivité et de l'impact social après le développement et le déploiement entraîne l'ancrage structurel des préjugés, des corrections coûteuses et une érosion potentielle de la confiance.
  • La mise à l'échelle change la nature du problème : l'IA ne fait pas que renforcer les préjugés humains, elle les institutionnalise à une vitesse et à une échelle qui dépassent les cadres éthiques et juridiques existants.
  • La diversité doit signifier le pouvoir de décision : Une simple représentation dans les équipes d'IA ne suffit pas si l'ordre du jour n'est pas remis en question, si l'expertise n'est pas reconnue de manière équitable et si les opinions divergentes ne sont pas institutionnalisées de manière adéquate.
  • La gouvernance doit aller de pair avec le modèle : Étant donné qu'Apertus est finement ajusté pour des applications en aval, toute adaptation est un point potentiel de divergence éthique. La Suisse a besoin de mécanismes pour s'assurer que ses valeurs sont appliquées à chaque niveau.
  • De la neutralité à la responsabilité : la Suisse a pour tradition institutionnelle de traiter l'IA comme une infrastructure publique, à la fois produite et réglementée. L'opportunité réside dans le fait d'exporter non seulement la technologie, mais aussi des modèles de gouvernance.

Apertus a été développé par l'ETH Zurich et l'EPFL dans le cadre de l'initiative suisse sur l'IA et est présenté comme un exemple d'IA conforme et transparente. Quelle est votre première réaction en tant qu'éthicien face à un modèle qui publie intégralement son code source, ses données d'entraînement et ses méthodes d'entraînement ?

Apertus fait un pas visionnaire vers des LLM ouverts et transparents. Mais ce n'est qu'un premier pas, car les systèmes d'IA comme Apertus ne reflètent pas simplement la réalité ; ils structurent ce qui est considéré comme savoir, quelles voix sont audibles et quelles perspectives gagnent en importance. Au lieu de la question traditionnelle "Le modèle est-il biaisé ?", nous devrions nous demander : "Qui a l'autorité pour définir, interpréter et contester ce que nous considérons comme le fondement informatif de la société ?" Dans ce contexte, la neutralité n'est plus une attitude passive - elle devient une décision de conception active. C'est un changement important, en particulier pour la Suisse, qui a une longue tradition de définition de la neutralité.

Dans le cas d'Apertus, la publication du code source, des données d'entraînement et des méthodes signale un engagement fort de la Suisse en faveur de l'ouverture procédurale. D'un point de vue éthique, cela est important pour deux raisons :

  • Elle abaisse l'obstacle à la vérification. Les chercheurs, les journalistes et les acteurs de la société civile peuvent examiner non seulement les résultats, mais aussi les hypothèses qui sous-tendent le système - sélection des données, décisions de filtrage, objectifs d'optimisation. Il s'agit là d'une condition essentielle à la responsabilisation.
  • Cela garantit une redistribution de l'accès à la connaissance. La plupart des grands modèles linguistiques (LLM) sont aujourd'hui des "boîtes noires" contrôlées par quelques acteurs à but lucratif. Une transparence totale ouvre - du moins en principe - la possibilité d'une participation plus large à l'examen, à l'amélioration ou à la contestation du modèle.

Toutefois, si l'on considère la question d'un point de vue moral plus fondamental, d'autres questions critiques se posent : la publication de données et de méthodes d'entraînement résout-elle en soi des questions de légitimité ? Qui décide quelles données sont considérées comme représentatives ? Quelles langues, quels dialectes ou quels systèmes de connaissances sont priorisés ou exclus ? Quelles hypothèses normatives entrent en ligne de compte dans le filtrage et l'ajustement ?

Ces questions ne sont pas seulement techniques, mais aussi politiques. La transparence peut certes les révéler, mais pas les résoudre. En ce sens, Apertus n'est pas tant le point final de l'IA éthique que le début d'un autre type de responsabilité - une fois que tout devient visible, le défi se résume à créer des institutions et des pratiques qui peuvent donner un sens à cette plus grande visibilité.

Vous avez fait valoir que les équipes de développement de l'IA ont tendance à donner la priorité aux objectifs techniques et économiques et à remettre à plus tard les préoccupations éthiques et sociétales. Quels sont les coûts pratiques de cette approche ?

Dans le cas d'Apertus, nous observons que les stéréotypes persistent malgré la transparence. Cela reflète un problème plus général d'ordre dans le développement de l'IA : les systèmes sont d'abord optimisés pour la performance et l'efficacité, tandis que les questions d'inclusion, de représentation et d'impact sociétal sont mises de côté, externalisant ainsi les dommages potentiels.

De mon point de vue, cet ordre a un certain nombre de conséquences concrètes et de grande portée :

  • Premièrement, il renforce les préjugés au niveau structurel. Si des questions telles que l'inclusion ou la représentation sexuelles ne sont pas prises en compte lors de la curation des données et de la conception des modèles, elles deviennent partie intégrante de la logique interne du système. L'application ultérieure de filtres, que ce soit sur les données de formation ou sur les sorties, peut atténuer les symptômes, mais élimine rarement les modèles sous-jacents. Dans la pratique, cela signifie que les stéréotypes ne sont pas seulement des erreurs occasionnelles ; ils deviennent des tendances statistiquement amplifiées. De nombreuses recherches montrent que c'est le cas, en particulier pour les minorités sous-représentées.
  • Deuxièmement, cela déplace le poids de la correction sur les utilisateurs* et les groupes concernés. Si un système produit des résultats biaisés ou excluants, les coûts ne sont pas supportés par les développeurs, mais par les personnes qui sont mal représentées. Par conséquent, ils doivent signaler ces dommages, les contester et les gérer. Avec le temps, il en résulte une sorte de "fatigue de la participation", dans laquelle on attend des groupes marginalisés qu'ils réparent constamment des systèmes qui n'ont pas été conçus pour eux et qu'ils n'ont pas (co)conçus.
  • Troisièmement, il en résulte une dépendance au sentier dont l'inversion est coûteuse. Une fois qu'un modèle est formé, utilisé et intégré dans les processus de travail, la correction des problèmes fondamentaux devient techniquement, économiquement et - ce qui est encore plus décisif - socialement coûteuse. Il est bien plus difficile de réentraîner, de recibler des ensembles de données ou de redéfinir des objectifs que d'aborder ces préoccupations dès le départ. Le choix initial de l'ordre limite donc effectivement les décisions éthiques futures.
  • Quatrièmement, cela normalise un modèle éthique réactif. En traitant les préoccupations éthiques comme quelque chose qui doit être "rapiécé" plus tard, les organisations signalent implicitement que l'impact social est secondaire par rapport aux étapes techniques. Cela marque la culture institutionnelle - dans ce cadre, l'éthique devient une obligation de conformité plutôt qu'un principe de conception.
  • Cinquièmement, cela affecte la confiance de manière subtile mais durable. Même dans un système transparent comme celui d'Apertus, les utilisateurs remarquent quand même que des dommages étaient prévisibles, mais qu'ils n'ont pas été priorisés. Cela peut saper la confiance non seulement dans un modèle donné, mais aussi dans les institutions qui le sous-tendent. Le problème n'est pas que des imperfections existent, mais qu'elles reflètent une hiérarchie de priorités.

Le véritable coût de cette séquence n'est pas un résultat biaisé ; c'est le retard institutionnalisé dans un système où les considérations éthiques ont toujours un temps de retard sur les possibilités technologiques. Une approche plus durable permettrait d'inverser cette séquence, non pas en ralentissant l'innovation, mais en redéfinissant ce qui est considéré comme une "fonctionnalité de base". Dans ce cadre, l'inclusivité, l'équilibre représentatif et l'impact social ne sont pas des composantes supplémentaires ; ils font partie des critères de performance du système dès le départ.

Contrairement à un être humain, qui prend peut-être quelques décisions biaisées par jour, un algorithme peut en prendre des milliers par seconde. Cette échelle de prise de décision de l'IA nécessite-t-elle une réaction éthique et juridique différente de celle que nous avons actuellement en Suisse ?

Oui - l'ordre de grandeur ne fait pas que renforcer les problèmes existants, il en change aussi la nature. Traiter l'IA comme si elle n'était qu'un décideur humain plus rapide, c'est méconnaître ce dont il s'agit réellement.

Avec les systèmes d'IA avancés, nous n'avons plus affaire à des décisions isolées, mais à des infrastructures décisionnelles. Ces systèmes n'agissent pas seulement à grande échelle ; ils standardisent les jugements au-delà du contexte, souvent de manière invisible. Si les décisions évoluent, la responsabilité doit évoluer en conséquence. Le défi éthique de l'IA n'est pas seulement qu'elle peut être partiale, mais qu'elle peut institutionnaliser des préjugés à une vitesse et à une échelle qui dépassent notre imagination éthique et juridique actuelle.

Comme le montre Apertus, la Suisse dispose des capacités institutionnelles pour y répondre. Ce qui est important, c'est que cela nécessite de passer d'une logique au cas par cas à une réflexion sur la gouvernance au niveau du système. Le type de réaction que cela suggère, à mon avis, n'est pas nécessairement une réglementation plus stricte, mais une autre façon de penser. Par exemple :

  • Des mécanismes efficaces pour détecter et combattre les préjugés systémiques, et pas seulement les plaintes individuelles.
  • Des exigences définies pour les audits continus, et non pour les certifications ponctuelles.
  • Des modèles plus clairs de responsabilité partagée entre les développeurs, les fournisseurs, les opérateurs et les autres institutions impliquées.
  • Des espaces institutionnels élargis dans lesquels les perspectives techniques, juridiques, éthiques et sociales peuvent évaluer conjointement les systèmes.

"Si nous ne sommes même pas assis à la table, comment ferons-nous entendre nos voix ?" Vous avez abordé ce point en vous basant sur votre propre expérience. Que faudrait-il pour que les équipes de développement de l'IA changent cela ?

Si les gens sont invités à la table, mais n'ont aucune influence sur ce qui y est servi, il n'y a pas eu de véritable inclusion. Pour que la table soit vraiment différente, il ne s'agit pas seulement de savoir qui est invité, mais aussi comment la table est structurée - qui décide de l'ordre du jour et qui compte pour les connaissances. Si ces conditions ne sont pas modifiées, la diversité restera plus symbolique que conséquente. Dans le contexte d'Apertus, je vois plusieurs changements structurels qui pourraient potentiellement avoir lieu :

  • Premièrement, de la simple représentation à une véritable prise de décision. Il ne suffit pas d'augmenter la présence de groupes sous-représentés dans les équipes si les décisions importantes concernant les ensembles de données, les objectifs des modèles ou les critères d'évaluation continuent d'être prises ailleurs. Pour que l'inclusion ait un sens, il faut que des voix multiples soient représentées aux endroits où des compromis sont faits - et pas seulement dans des rôles consultatifs ou en aval.
  • Deuxièmement, la redéfinition de ce qui est considéré comme expertise. Le développement de l'IA est toujours dominé par des qualifications techniques étroitement définies. Pourtant, de nombreuses questions parmi les plus difficiles, telles que les préjugés, la langue, la culture et l'impact social, nécessitent des connaissances interdisciplinaires et basées sur l'expérience. Un changement structurel impliquerait d'intégrer formellement des éthiciens, des spécialistes des sciences sociales et des perspectives issues de la communauté dans les processus centraux de développement - non pas en tant qu'évaluateurs externes, mais en tant que co-créateurs.
  • Troisièmement, il faut changer les structures d'incitation. Les environnements académiques et techniques récompensent la rapidité, la nouveauté et la performance. Le travail sur l'inclusion, la curation de données ou la réduction des préjugés est souvent sous-estimé, car il est considéré comme plus lent et moins visible. Si les institutions prennent le changement au sérieux, elles doivent aligner les incitations telles que le financement, les promotions et la reconnaissance sur la qualité et l'inclusivité des systèmes - et pas seulement sur leurs points de référence techniques.
  • Quatrièmement, institutionnaliser la contestabilité. Il est essentiel de savoir s'il existe des mécanismes permettant de contester les décisions sans subir de préjudice. Cela pourrait prendre la forme de procédures structurées pour la soumission d'objections (dissent), d'organes d'examen indépendants ou d'audits participatifs qui intègrent des voix extérieures à l'équipe de développement immédiate.

Le principe directeur pour l'introduction de ces changements structurels ne devrait pas simplement consister à "ajouter des voix", mais plutôt à "redistribuer l'autorité sur le savoir". Pour la Suisse, j'y vois d'une part une opportunité - sa tradition de pluralisme et de gouvernance négociée pourrait conduire à des processus de développement de l'IA plus participatifs et plus réflexifs que ceux qui sont purement guidés par une logique de taille ou de marché. D'autre part, cela exige de traiter la diversité non pas comme un problème de pipeline, mais comme une question de conception institutionnelle au cœur même du processus.

Apertus est une base, pas un produit fini. Toute adaptation est un point potentiel de divergence éthique. Quels mécanismes de gouvernance sont indispensables pour garantir que ses valeurs soient intégrées dans chaque nouvelle application ?

Certains défis éthiques pourraient être exacerbés si nous traitions les LLM comme des modèles de base - parce que nous décentralisons la responsabilité. Alors que le modèle de base peut incarner certains engagements, comme Apertus, chaque étape du réglage fin est un point de divergence potentiel. La question cruciale n'est donc pas de savoir à quel point le modèle de base est éthique, mais comment (et dans quelle mesure) ses caractéristiques éthiques se répercutent.

Cela signifie qu'un modèle de base n'est pas seulement une base technique, mais plutôt un point de départ normatif. Si ses obligations éthiques ne sont pas activement transmises à travers chaque couche d'adaptation, elles ne changeront pas d'échelle, mais s'éroderont au contraire. c'est pourquoi nous devrions établir une pratique qui

  • Traiterles LLM comme une infrastructure publique et pas seulement comme des produits commerciaux ;
  • orienter le développement vers des traditions de contrôle démocratique, en tant qu'avantage comparatif de la Suisse ;
  • en exportantnon seulement la technologie, mais aussi des modèles de gouvernance.

Là encore, je vois une réelle opportunité pour la Suisse - et la possibilité d'apporter une réelle contribution au monde - en traitant l'IA non seulement comme des produits techniques modulaires, mais aussi comme un écosystème de gouvernance intégré, dans lequel chaque extension du modèle reste liée à un ensemble commun de principes qui peuvent être mis en œuvre, plutôt que d'être rejetés comme des slogans pour "laver les fenêtres" ou "laver l'éthique".

Cela nécessite de passer de l'"IA made in Switzerland" à l'"IA stewarded like Switzerland". Car à l'ère de l'IA, la neutralité ne consiste plus à s'abstenir du pouvoir, mais à savoir comment le pouvoir est codé. La Suisse a une chance unique de passer de la "neutralité" au "sens des responsabilités" - et de développer des systèmes d'IA qui ne se contentent pas d'optimiser les performances, mais qui protègent l'intégrité du savoir en tant que bien public et non en tant que patrimoine privé.

Le Dr Ning Wang est directrice de groupe de recherche à l'Université de Zurich et membre de plusieurs groupes de travail sur l'éthique de l'IA auprès d'institutions de premier plan au niveau mondial, telles que le Forum économique mondial (WEF) et l'Organisation mondiale de la santé (OMS). Ses recherches portent sur les défis éthiques, sociaux, juridiques et réglementaires des technologies disruptives. Elle est joignable à l'adresse ning.wang@uzh.ch.

Contributeur·rice·s

Role Titel + Name
Texte par Esther Lombardini
Expertise Ning Wang