Le Retour du Pilote : De l’Optimisation à l’Insubordination 

Avec cet article, nous bouclons une série en quatre volets sur le futur de la Supply Chain. Dans le premier, nous avons posé une idée inconfortable : la Supply Chain doit accepter sa propre destruction créatrice pour innover. Dans le deuxième, nous avons reconnu que le monde est devenu un champ de mines géopolitique. Dans le troisième, nous avons imaginé une architecture “système nerveux” capable de sentir et d’agir comme un organisme vivant.

Mais un organisme, aussi sophistiqué soit-il, reste une coquille vide sans conscience pour le guider. Alors que l’IA s’impose dans les comités de direction, promettant d’automatiser la décision, une question stratégique s’impose : l’IA est-elle le nouveau pilote de la supply chain, ou le début de la fin du pilotage ?

Cette question dépasse la technologie. Elle touche le cœur du mandat d’un directeur supply chain et d’un COMEX : la responsabilité sur la décision finale.

Ce que l’IA sait faire… et ce qu’elle ne fera pas pour vous

Dans les faits, l’IA apporte déjà une valeur considérable : meilleure lecture de la demande, détection de signaux faibles, recommandations d’optimisation sur les stocks, les transports, les achats, la planification. Beaucoup d’équipes ont gagné en fiabilité de prévision, en productivité planning, en réactivité face aux aléas.

Mais ces systèmes restent, dans l’immense majorité des déploiements, des machines à corrélations. Ils apprennent du passé, extrapolent le futur et supposent une relative stabilité des règles du jeu – précisément ce qui fait défaut dans un monde de ruptures géopolitiques, climatiques et réglementaires. L’IA n’intègre ni la politique, ni la réputation, ni la régulation future : elle optimise dans le cadre qu’on lui donne, pas dans le monde tel qu’il va devenir.

Le risque stratégique de la “dictature de l’optimum”

Vu d’un COMEX, la promesse est attirante : réduire les stocks, lisser les flux, gagner quelques points sur les coûts d’achats et de transport. Or, la recherche et les retours d’expérience convergent : les supply chains les plus performantes ne sont pas celles qui sont “minces” partout, mais celles qui combinent efficience et redondance ciblée.

Le vrai risque aujourd’hui n’est plus d’avoir une organisation “trop grasse”, mais d’avoir une supply chain optimisée à l’extrême pour les phases stables… incapable d’encaisser la prochaine crise. Pour un COMEX, la question devient très concrète : dans vos modèles, où est pris en compte le coût d’un rappel produit, d’une fermeture brutale de frontière, d’une cyberattaque, d’un fournisseur critique défaillant ? Si la réponse est “nulle part”, vous ne pilotez pas un système intelligent, mais une illusion de maîtrise.

Prédiction vs décision : qui a vraiment « joué sa peau » ?

L’IA opère dans le domaine de la prédiction : elle calcule des probabilités, propose des scénarios, optimise des fonctions objectif. L’Humain opère dans le domaine de la décision : il doit arbitrer entre ces scénarios, assumer les conséquences économiques, sociales, juridiques, d’image.

Un algorithme peut recommander d’affréter un avion-cargo pour éviter une rupture, de couper 20% de SKUs pour optimiser le BFR, ou de basculer vers un fournisseur 3% moins cher. Mais c’est le COMEX qui expliquera aux actionnaires, aux régulateurs, aux salariés et aux clients pourquoi cette décision était la bonne… ou la mauvaise.

C’est cela, le « jouer sa peau » : l’IA calcule le risque, mais ne le porte jamais. Tant que la responsabilité restera humaine, la décision finale ne peut pas être déléguée intégralement à une boîte noire. Les modèles les plus performants en 2025 sont d’ailleurs ceux qui institutionnalisent le “human in the loop” : l’IA propose, l’humain dispose, avec des gains supérieurs au tout-automatique.

 Le nouveau mandat du directeur supply chain

Dans un environnement piloté par l’IA, le directeur supply chain ne peut plus être seulement “chef d’orchestre opérationnel”. Son rôle devient celui d’architecte de la décision : définir quelles décisions sont automatisées, lesquelles restent humaines, lesquelles sont hybrides, et avec quelles règles de bascule.

Ce mandat repose sur trois compétences clés : 

  • Alphabétisation data/IA : comprendre ce que fait un modèle (et ce qu’il ne fait pas), lire une probabilité de rupture, challenger un optimum proposé, exiger de la transparence sur les hypothèses.
  • Jugement stratégique sous incertitude : arbitrer coût / service / risque / résilience, intégrer les signaux géopolitiques, climatiques, réglementaires dans les décisions de réseau, de sourcing, d’implantation.
  • Design de la gouvernance de décision : définir qui décide quoi, à quel niveau, avec quelles données, quels seuils d’alerte et quels droits de désobéissance argumentée face à la machine.

L’enjeu n’est donc pas d’être “pour” ou “contre” l’IA, mais de décider où l’IA s’arrête. Là se niche la véritable responsabilité managériale.

Le coût assumé de la résilience : la “désobéissance” comme investissement

La plupart des algorithmes optimisent ce qu’on leur demande d’optimiser : le coût logistique, le niveau de stock, le taux de service moyen. Ils éliminent ce qui ressemble à du “gras” : stock de sécurité, fournisseurs alternatifs plus chers, capacités excédentaires.

Or, ce “gras” est souvent une assurance déguisée. Les études sur la résilience montrent qu’un surplus de capacité, quelques redondances intelligentes et un portefeuille fournisseur diversifié réduisent drastiquement les pertes en cas de choc. Ce surcoût apparent n’est pas une anomalie, c’est une prime d’assurance : le coût de la résilience.

La “désobéissance” intelligente, pour un directeur supply chain, consiste à dire non à une recommandation localement optimale lorsque celle‑ci détruit de la valeur stratégique globale. Cela peut vouloir dire : 

  • Maintenir un fournisseur historique plus cher, parce qu’il a démontré sa loyauté en période de pénurie.
  • Préserver des stocks stratégiques sur quelques produits vitaux, malgré la pression sur le cash.
  • Garder des “produits bizarres” dans la gamme, parce qu’ils portent l’image de marque ou ouvrent des relais de croissance.

Ce ne sont pas des anomalies opérationnelles, ce sont des choix d’investissement stratégique que les modèles, seuls, n’optimiseront jamais correctement.

COMEX : trois décisions non délégables

Pour transformer l’IA en avantage compétitif, le COMEX doit assumer trois décisions structurantes.

  1. Définir la “constitution” opérationnelle de l’entreprise.

Quels segments clients sont “intouchables” ? Quels produits sont stratégiques même s’ils sont peu rentables à court terme ? Quels niveaux de service sont non négociables, y compris en crise ? Cette constitution doit être codée dans les objectifs, dans les modèles, dans la gouvernance – sinon l’IA optimisera mécaniquement contre vos priorités réelles.

  1. Fixer la frontière entre optimisation et résilience.

Quel niveau de risque systémique êtes‑vous prêts à accepter ? Quel budget de “prime de résilience” (stocks, redondance, nearshoring, capacités) légitimez-vous ? Sans ce cadrage, les projets IA iront spontanément vers la réduction de coûts, parce que c’est plus simple à mesurer. 

  1. Organiser la gouvernance de la décision augmentée.

Quels types de décisions peuvent être automatisés sans validation ? Lesquels exigent une revue managériale ? Lesquels relèvent du COMEX ? Avec quels seuils, quels rituels (S&OP/S&OE augmentés, war rooms, comités risques) et quels droits explicites de “désobéissance” face à la recommandation machine ?

 2030 : la technologie sera banale, le courage ne le sera pas

D’ici 2030, les briques technologiques – analytics avancés, IA générative, agents autonomes, orchestrateurs de décision – seront largement disponibles et relativement standardisées. La véritable différenciation ne viendra plus de l’outil, mais du courage managérial : la capacité à prendre des décisions difficiles en s’appuyant sur l’IA, sans se cacher derrière elle.

La compétence clé du directeur supply chain, et du COMEX, ne sera pas de “parler IA”, mais de tracer la ligne : quelles décisions on laisse aux machines, lesquelles on garde pour soi, et quelles conséquences on accepte d’assumer. Autrement dit, maintenir au cœur de la Supply Chain du futur un pilote humain capable de désobéir, de protéger la logique du vivant dans un monde de plus en plus régi par la logique des algorithmes.