Les enjeux éthiques de l’IA dans les appels d’offres publics

Les enjeux éthiques de l’IA dans les appels d’offres publics

Une transformation silencieuse mais profonde : l'IA dans les marchés publics

L’intelligence artificielle (IA) s’impose aujourd’hui comme un levier de transformation majeur dans les processus administratifs, et notamment dans les appels d’offres publics. Des algorithmes d’analyse des candidatures à l’automatisation de l’évaluation des offres, l’IA permet une plus grande efficience, une réduction des délais de traitement, et une objectivité accrue dans les choix. Cependant, cette révolution n’est pas dénuée d’enjeux éthiques, notamment lorsqu’elle s’applique dans un domaine aussi sensible que la commande publique.

Les appels d’offres publics, soumis à des règles strictes de transparence, d'équité et de non-discrimination, reposent sur une mission de service public. L’introduction de systèmes automatisés dans ces processus vient donc poser un certain nombre de questions d’ordre éthique, juridique et sociétal. Qui contrôle les algorithmes ? Sont-ils réellement impartiaux ? Protègent-ils les données personnelles des candidats ? Loin d’être anodines, ces interrogations méritent une réflexion approfondie pour accompagner de manière responsable l’usage croissant de l’IA dans le secteur public.

Transparence et responsabilité algorithmique

L’un des enjeux majeurs soulevés par l’usage de l’intelligence artificielle dans les appels d’offres est celui de la transparence des décisions prises par les algorithmes. Les soumissionnaires ont en effet le droit de comprendre sur quelles bases leur candidature a été acceptée ou rejetée. Or, le fonctionnement de certaines IA, notamment celles basées sur des technologies d’apprentissage profond (deep learning), est parfois si complexe qu’il devient difficile d’en expliquer les résultats.

On parle alors d’« opacité algorithmique », un phénomène qui entre en contradiction avec les principes de la commande publique. Dans une procédure d’appel d’offres classique, chaque étape est tracée, les critères sont publics, et les candidats peuvent demander des explications. Mais lorsque la décision repose en partie sur une évaluation automatisée opérée par une machine, à partir de données préalablement massées, le risque est de perdre cette traçabilité des choix.

C’est pourquoi il est essentiel que les algorithmes utilisés dans les appels d’offres publics soient non seulement audités, mais également soumis à un principe de transparence. Cela peut impliquer :

  • La publication des critères de notation utilisés par l’IA ;
  • Le droit pour les soumissionnaires de contester une décision automatisée et d’en obtenir une révision humaine ;
  • La traçabilité des données utilisées par l’algorithme ;
  • Des audits réguliers et indépendants sur les systèmes d'IA utilisés.

Prévention des biais et discriminations

Les algorithmes ne sont pas neutres. Même s’ils traitent de grandes quantités de données, ils peuvent reproduire, voire amplifier, des biais présents dans ces données. C’est particulièrement problématique dans les appels d’offres publics, qui doivent respecter le principe fondamental d’égalité d’accès à la commande publique.

Par exemple, si un algorithme de sélection est alimenté à partir d’historiques de marchés précédemment attribués majoritairement à de grandes entreprises, il pourrait favoriser indirectement de nouveaux candidats avec des profils similaires — au détriment des PME ou des acteurs innovants. De même, des biais géographiques, linguistiques ou sectoriels peuvent influer sur l’analyse automatisée des propositions.

Pour limiter ces risques, il convient de :

  • S’assurer que les jeux de données utilisés pour entraîner les algorithmes sont diversifiés et représentatifs ;
  • Mettre en place des mécanismes de contrôle pour détecter et corriger les biais éventuels ;
  • Intégrer des phases d’analyse humaine pour valider ou nuancer les résultats produits par l’IA.

Protection des données des candidats

L’utilisation de l’intelligence artificielle dans l’analyse des candidatures et offres collectées dans le cadre de marchés publics pose également des défis importants en matière de protection des données personnelles. Les entreprises soumissionnaires fournissent en effet des informations parfois sensibles, sur leurs finances, leur personnel, voire des contenus techniques ou stratégiques.

Ainsi, il est crucial de garantir que l’ensemble des données traitées par les systèmes d’IA le soient en conformité avec le RGPD (Règlement général sur la protection des données). Cela suppose non seulement une sécurisation technique des plateformes utilisées, mais également une politique de gouvernance des données claire et respectueuse des droits fondamentaux des sociétés candidates.

Des pratiques recommandées incluent :

  • Un encadrement strict sur la durée et la finalité du traitement des données ;
  • L’anonymisation ou la pseudonymisation systématique des dossiers analysés ;
  • La désignation de délégués à la protection des données (DPO) dans les entités publiques utilisatrices d’IA ;
  • Une information complète et compréhensible des soumissionnaires sur le traitement automatisé appliqué à leurs dossiers.

Souveraineté numérique et dépendance technologique

Autre volet éthique : le risque de dépendance technologique vis-à-vis de fournisseurs privés, souvent étrangers, dans un domaine pourtant stratégique comme les marchés publics. Les solutions IA utilisées par certaines administrations peuvent être développées par des sociétés américaines ou chinoises, avec des logiques de traitement et de collecte de données qui échappent aux normes européennes.

Ce phénomène soulève des questions en termes de souveraineté numérique et de maîtrise de l’outil technologique. Il devient alors important d’encourager, au sein des institutions publiques, le recours à des solutions souveraines, open source lorsque cela est possible, et basées sur un développement éthique et contrôlable.

Des initiatives comme Gaia-X au niveau européen, ou les lignes directrices promues par la CNIL, constituent des jalons importants pour accompagner cette mutation numérique de manière responsable.

Redéfinir les rôles humains dans les appels d’offres

L’automatisation croissante des procédures via l’IA pourrait également entraîner une déshumanisation de certaines fonctions dans les marchés publics. La tentation existe parfois de confier entièrement le tri et l’analyse des candidatures aux algorithmes, pour gagner en temps et efficacité. Mais réduire le rôle des agents humains à une simple validation de résultat pose la question du rôle de discernement et de jugement dans ces processus.

Les agents publics doivent conserver leur capacité à évaluer les projets selon des dimensions qualitatives que l’IA peut difficilement cerner : originalité, adaptabilité au contexte local, innovation ou impact social. De plus, la présence humaine assure une certaine équité dans le traitement des cas dits « atypiques » ou non normés, que les algorithmes ont tendance à pénaliser.

Pour garantir un équilibre sain, il faut donc accompagner l'usage de l’IA d’une politique de « centaure » : une collaboration intelligente entre automatisation et intervention humaine, où chacun tire parti des forces de l’autre.

Vers une IA éthique dans les marchés publics

Face à ces nombreux enjeux, certains cadres de régulation commencent à apparaître. Au niveau européen, le projet de règlement sur l’intelligence artificielle (AI Act) prévoit d’encadrer plus strictement l’usage de systèmes à haut risque, dont pourraient faire partie ceux utilisés dans les procédures d’appels d’offres publics. Ces dispositifs devront prouver leur fiabilité, leur transparence et l’absence de biais discriminatoires.

En parallèle, des guides de bonnes pratiques émergent pour accompagner les acheteurs publics dans l’utilisation responsable de ces technologies. Ils visent à intégrer des exigences éthiques dès la conception des outils et à former les agents aux enjeux posés par l’intelligence artificielle.

Vous pouvez d’ailleurs en savoir plus sur l’intégration de l’IA dans les marchés publics et les conseils associés en consultant des ressources spécialisées dans le domaine.

Il ne s’agit pas de freiner l’innovation, mais de l’encadrer intelligemment, dans le respect des valeurs et principes portés par la puissance publique. Étendre les compétences des institutions sur l’IA, promouvoir la transparence, inclure les parties prenantes dans la conception et l’évaluation des outils : autant d’éléments clés pour favoriser une adoption éthique et responsable de ces nouvelles technologies dans le secteur public.

Un équilibre à rechercher en permanence

Les enjeux éthiques de l'intelligence artificielle dans les appels d’offres publics nous invitent à une vigilance permanente. Derrière les promesses d'efficacité, se cachent des risques bien réels de perte de contrôle, d'injustice ou de discrimination, si les outils sont mal conçus ou mal utilisés. À l’inverse, une IA bien régulée et correctement intégrée peut renforcer la transparence, accélérer les délais de traitement, et lutter contre les pratiques opaques.

Ce double visage de l’IA rend indispensable une approche critique et proactive de la part des décideurs publics comme des prestataires technologiques. Les appels d’offres ne sont pas de simples contrats : ils incarnent la puissance publique, ses valeurs, sa mission d’équité. À l’heure de la révolution numérique, garantir l’éthique de l’intelligence artificielle est donc un chantier essentiel pour construire un service public moderne et responsable.

Comment les formations à l’entrepreneuriat durable préparent les leaders de demain Previous post Comment les formations à l’entrepreneuriat durable préparent les leaders de demain
Comment l’essor du travail hybride transforme les stratégies RH et les besoins en formation Next post Comment l’essor du travail hybride transforme les stratégies RH et les besoins en formation