Traduit à l'aide d'un plugin de traduction automatique.
Apertus a été développé par l'ETH Zurich et l'EPFL dans le cadre de l'initiative suisse sur l'IA et est présenté comme un exemple d'IA conforme et transparente. Quelle est votre première réaction en tant qu'éthicien face à un modèle qui publie intégralement son code source, ses données d'entraînement et ses méthodes d'entraînement ?
Apertus fait un pas visionnaire vers des LLM ouverts et transparents. Mais ce n'est qu'un premier pas, car les systèmes d'IA comme Apertus ne reflètent pas simplement la réalité ; ils structurent ce qui est considéré comme savoir, quelles voix sont audibles et quelles perspectives gagnent en importance. Au lieu de la question traditionnelle "Le modèle est-il biaisé ?", nous devrions nous demander : "Qui a l'autorité pour définir, interpréter et contester ce que nous considérons comme le fondement informatif de la société ?" Dans ce contexte, la neutralité n'est plus une attitude passive - elle devient une décision de conception active. C'est un changement important, en particulier pour la Suisse, qui a une longue tradition de définition de la neutralité.
Dans le cas d'Apertus, la publication du code source, des données d'entraînement et des méthodes signale un engagement fort de la Suisse en faveur de l'ouverture procédurale. D'un point de vue éthique, cela est important pour deux raisons :
Toutefois, si l'on considère la question d'un point de vue moral plus fondamental, d'autres questions critiques se posent : la publication de données et de méthodes d'entraînement résout-elle en soi des questions de légitimité ? Qui décide quelles données sont considérées comme représentatives ? Quelles langues, quels dialectes ou quels systèmes de connaissances sont priorisés ou exclus ? Quelles hypothèses normatives entrent en ligne de compte dans le filtrage et l'ajustement ?
Ces questions ne sont pas seulement techniques, mais aussi politiques. La transparence peut certes les révéler, mais pas les résoudre. En ce sens, Apertus n'est pas tant le point final de l'IA éthique que le début d'un autre type de responsabilité - une fois que tout devient visible, le défi se résume à créer des institutions et des pratiques qui peuvent donner un sens à cette plus grande visibilité.
Vous avez fait valoir que les équipes de développement de l'IA ont tendance à donner la priorité aux objectifs techniques et économiques et à remettre à plus tard les préoccupations éthiques et sociétales. Quels sont les coûts pratiques de cette approche ?
Dans le cas d'Apertus, nous observons que les stéréotypes persistent malgré la transparence. Cela reflète un problème plus général d'ordre dans le développement de l'IA : les systèmes sont d'abord optimisés pour la performance et l'efficacité, tandis que les questions d'inclusion, de représentation et d'impact sociétal sont mises de côté, externalisant ainsi les dommages potentiels.
De mon point de vue, cet ordre a un certain nombre de conséquences concrètes et de grande portée :
Le véritable coût de cette séquence n'est pas un résultat biaisé ; c'est le retard institutionnalisé dans un système où les considérations éthiques ont toujours un temps de retard sur les possibilités technologiques. Une approche plus durable permettrait d'inverser cette séquence, non pas en ralentissant l'innovation, mais en redéfinissant ce qui est considéré comme une "fonctionnalité de base". Dans ce cadre, l'inclusivité, l'équilibre représentatif et l'impact social ne sont pas des composantes supplémentaires ; ils font partie des critères de performance du système dès le départ.
Contrairement à un être humain, qui prend peut-être quelques décisions biaisées par jour, un algorithme peut en prendre des milliers par seconde. Cette échelle de prise de décision de l'IA nécessite-t-elle une réaction éthique et juridique différente de celle que nous avons actuellement en Suisse ?
Oui - l'ordre de grandeur ne fait pas que renforcer les problèmes existants, il en change aussi la nature. Traiter l'IA comme si elle n'était qu'un décideur humain plus rapide, c'est méconnaître ce dont il s'agit réellement.
Avec les systèmes d'IA avancés, nous n'avons plus affaire à des décisions isolées, mais à des infrastructures décisionnelles. Ces systèmes n'agissent pas seulement à grande échelle ; ils standardisent les jugements au-delà du contexte, souvent de manière invisible. Si les décisions évoluent, la responsabilité doit évoluer en conséquence. Le défi éthique de l'IA n'est pas seulement qu'elle peut être partiale, mais qu'elle peut institutionnaliser des préjugés à une vitesse et à une échelle qui dépassent notre imagination éthique et juridique actuelle.
Comme le montre Apertus, la Suisse dispose des capacités institutionnelles pour y répondre. Ce qui est important, c'est que cela nécessite de passer d'une logique au cas par cas à une réflexion sur la gouvernance au niveau du système. Le type de réaction que cela suggère, à mon avis, n'est pas nécessairement une réglementation plus stricte, mais une autre façon de penser. Par exemple :
"Si nous ne sommes même pas assis à la table, comment ferons-nous entendre nos voix ?" Vous avez abordé ce point en vous basant sur votre propre expérience. Que faudrait-il pour que les équipes de développement de l'IA changent cela ?
Si les gens sont invités à la table, mais n'ont aucune influence sur ce qui y est servi, il n'y a pas eu de véritable inclusion. Pour que la table soit vraiment différente, il ne s'agit pas seulement de savoir qui est invité, mais aussi comment la table est structurée - qui décide de l'ordre du jour et qui compte pour les connaissances. Si ces conditions ne sont pas modifiées, la diversité restera plus symbolique que conséquente. Dans le contexte d'Apertus, je vois plusieurs changements structurels qui pourraient potentiellement avoir lieu :
Le principe directeur pour l'introduction de ces changements structurels ne devrait pas simplement consister à "ajouter des voix", mais plutôt à "redistribuer l'autorité sur le savoir". Pour la Suisse, j'y vois d'une part une opportunité - sa tradition de pluralisme et de gouvernance négociée pourrait conduire à des processus de développement de l'IA plus participatifs et plus réflexifs que ceux qui sont purement guidés par une logique de taille ou de marché. D'autre part, cela exige de traiter la diversité non pas comme un problème de pipeline, mais comme une question de conception institutionnelle au cœur même du processus.
Apertus est une base, pas un produit fini. Toute adaptation est un point potentiel de divergence éthique. Quels mécanismes de gouvernance sont indispensables pour garantir que ses valeurs soient intégrées dans chaque nouvelle application ?
Certains défis éthiques pourraient être exacerbés si nous traitions les LLM comme des modèles de base - parce que nous décentralisons la responsabilité. Alors que le modèle de base peut incarner certains engagements, comme Apertus, chaque étape du réglage fin est un point de divergence potentiel. La question cruciale n'est donc pas de savoir à quel point le modèle de base est éthique, mais comment (et dans quelle mesure) ses caractéristiques éthiques se répercutent.
Cela signifie qu'un modèle de base n'est pas seulement une base technique, mais plutôt un point de départ normatif. Si ses obligations éthiques ne sont pas activement transmises à travers chaque couche d'adaptation, elles ne changeront pas d'échelle, mais s'éroderont au contraire. c'est pourquoi nous devrions établir une pratique qui
Là encore, je vois une réelle opportunité pour la Suisse - et la possibilité d'apporter une réelle contribution au monde - en traitant l'IA non seulement comme des produits techniques modulaires, mais aussi comme un écosystème de gouvernance intégré, dans lequel chaque extension du modèle reste liée à un ensemble commun de principes qui peuvent être mis en œuvre, plutôt que d'être rejetés comme des slogans pour "laver les fenêtres" ou "laver l'éthique".
Cela nécessite de passer de l'"IA made in Switzerland" à l'"IA stewarded like Switzerland". Car à l'ère de l'IA, la neutralité ne consiste plus à s'abstenir du pouvoir, mais à savoir comment le pouvoir est codé. La Suisse a une chance unique de passer de la "neutralité" au "sens des responsabilités" - et de développer des systèmes d'IA qui ne se contentent pas d'optimiser les performances, mais qui protègent l'intégrité du savoir en tant que bien public et non en tant que patrimoine privé.
Le Dr Ning Wang est directrice de groupe de recherche à l'Université de Zurich et membre de plusieurs groupes de travail sur l'éthique de l'IA auprès d'institutions de premier plan au niveau mondial, telles que le Forum économique mondial (WEF) et l'Organisation mondiale de la santé (OMS). Ses recherches portent sur les défis éthiques, sociaux, juridiques et réglementaires des technologies disruptives. Elle est joignable à l'adresse ning.wang@uzh.ch.
| Role | Titel + Name |
|---|---|
| Texte par | Esther Lombardini |
| Expertise | Ning Wang |