7 avril 2026

« Human-Machine Teaming », quand décider devient plus critique que prédire

Le Human Machine Teaming cherche à construire un espace décisionnel plus lisible, plus robuste et plus lucide entre l’humain et la machine. La valeur d’un système intelligent ne réside alors plus uniquement dans la qualité de ses prévisions, mais dans sa capacité à rendre visibles les incertitudes, les limites et les compromis qui structurent toute situation réelle. Dans un monde instable, la performance ne procède donc plus de la promesse illusoire d’une maîtrise totale, mais de l’aptitude collective à décider, à apprendre et à s’ajuster sous contrainte.

L’un des éléments fondateurs de la maintenance 5.0 vient d’une rupture nette avec le paradigme prédictif hérité de l’industrie 4.0. Le mythe de la maîtrise totale, incarnée par la promesse du « zéro panne » et de la prévision parfaite, a produit des systèmes techniquement performants mais cognitivement fragiles. Dans ce nouveau paysage naissant, l’humain retrouve un rôle central d’interprète, d’arbitre et de garant du sens. Au cœur de cette nouvelle approche se trouve probablement la plus importante traduction organisationnelle concrète. Elle répond à une question désormais incontournable. Comment humains et machines travaillent-ils ensemble lorsque la décision ne peut plus être gouvernée par la seule prédiction ?

Quand la prédiction atteint ses limites, la décision redevient humaine et collective.

C’est dans ce questionnement essentiel que le concept de « Human Machine Teaming » permet d’imaginer un régime de travail spécifique dans lequel humains et systèmes intelligents agissent comme des coéquipiers fonctionnels au sein d’une même boucle d’action. Il ne s’agit ni d’une automatisation avancée ni d’une simple assistance algorithmique. C’est une forme organisée de coopération dans laquelle la machine contribue activement à la perception, à l’analyse et à la préparation de la décision. L’humain conserve en toutes circonstances l’autorité sur l’arbitrage, le sens et la responsabilité. Dans le cadre de la maintenance 5.0, le « Human Machine Teaming » constitue alors la forme opérationnelle que prend le travail industriel lorsque l’aléa n’est plus abordé comme un déficit d’informations à résorber par le calcul. Cela devient une indétermination irréductible de la situation qui exige un partage explicite des fonctions cognitives entre humains et machines.

Quand l’aléa domine, le travail est une affaire d’équipe entre humains et machines.

Dans les architectures industrielles contemporaines, l’intelligence artificielle prendra une place croissante ne se contentera plus de mesurer, de détecter ou de prédire. Cette évolution est largement documentée par les travaux sur le « Human Machine Teaming » issus des communautés de recherche en facteurs humains, en robotique cognitive et en ingénierie des systèmes complexes. Les cadres proposés par la NASA, par des équipes de chercheurs ou encore par le NIST montrent que, dès lors que les systèmes opèrent dans des environnements « observables », dynamiques et à forts enjeux, la décision ne peut plus être ni entièrement automatisée ni strictement humaine. Elle s’opèrera de manière distribuée.

Dans les systèmes complexes, la décision n’est plus ni entièrement automatisable ni totalement humaine.

Un premier exemple concret est celui de la maintenance aéronautique. Dans les programmes de maintenance conditionnelle des moteurs d’avion, tels que développés par Rolls Royce ou Safran, les modèles prédictifs identifient des dérives de comportement mais ne concluent jamais automatiquement les actions à mener. Les algorithmes proposent des scénarios d’évolution, estiment des plages de risque et suggèrent des fenêtres d’intervention. La décision finale reste prise par des ingénieurs experts qui intègrent des éléments non modélisables, comme le contexte opérationnel, la disponibilité des flottes ou les contraintes réglementaires. Il ne s’agit pas d’une supervision a posteriori, mais bien d’un travail conjoint dans lequel la machine structure l’incertitude et l’humain arbitre. Dans le secteur de l’énergie, les centres de conduite de réseaux électriques offrent un second exemple éclairant. Lors d’événements climatiques extrêmes, les systèmes d’aide à la décision basés sur l’IA simulent des cascades de défaillances possibles et proposent des stratégies de délestage. Les opérateurs humains ne suivent pas mécaniquement ces recommandations. Ils les confrontent à leur connaissance du terrain, à des informations qualitatives non intégrées dans les modèles et à des priorités sociétales comme la protection d’infrastructures critiques ou de populations spécifiques. Cette interaction correspond exactement à un « Human Machine Teaming » orienté pour intégrer l’incertitude systémique. Elle influence directement les arbitrages, hiérarchise les priorités, propose des scénarios et oriente les actions. La maintenance 5.0 marque alors un déplacement conceptuel décisif. La machine n’est pas là pour décider à la place de l’humain, mais pour structurer le champ des possibles, rendre lisibles les compromis et exposer les incertitudes sur lesquelles le jugement humain doit s’exercer.

La valeur ne réside plus dans la justesse d’un modèle, mais dans la qualité de l’espace décisionnel qu’il rend visible et possible.

Dans cette perspective, la décision devient un objet sociotechnique à part entière. Dans un système automatisé, la machine exécute des règles, optimise des paramètres ou applique des modèles, tandis que l’humain se limite à superviser, corriger ou intervenir en dernier recours. La logique est hiérarchique, asymétrique et orientée vers la réduction maximale de l’intervention humaine et la maximisation de la performance. À l’inverse, un système en « Human Machine Teaming » repose sur une interdépendance assumée. La machine ne remplace pas l’humain et l’humain ne surveille pas la machine. Chacun dispose d’un rôle propre dans la construction de la décision. La machine explore, alerte, simule et explicite. L’humain interprète, hiérarchise, arbitre et assume. Le système ne vise pas l’autonomie, mais la participation maximale de l’humain et la robustesse collective face à l’incertitude. Elle n’est plus un acte individuel ni un automatisme algorithmique, mais un processus distribué dans lequel humains et systèmes artificiels contribuent selon des rôles différenciés et complémentaires. L’IA agrège des signaux, explore des scénarios, évalue des probabilités et simule des conséquences. L’humain, quant à lui, conserve une autorité normative irréductible. Il arbitre entre sécurité, continuité, coût, responsabilité et contexte. Cette approche formalise cette répartition non comme un principe abstrait, mais comme une ingénierie explicite de la co-décision.

L’automatisation vise la performance, le Human Machine Teaming vise la robustesse.

Cette ingénierie repose sur un élément longtemps sous-estimé dans les projets industriels, la confiance algorithmique. Les travaux de Lee et See sur la confiance dans l’automatisation, prolongés récemment par les recherches en Human AI Teaming, montrent que la performance maximale est atteinte non lorsque l’humain fait confiance à la machine, mais lorsque sa confiance est correctement calibrée. Des expérimentations menées sur des cobots industriels et sur des systèmes de maintenance assistée démontrent que l’absence d’explicitation des limites algorithmiques conduit soit à une délégation excessive, soit à un rejet pur et simple des recommandations. Il s’agit d’une configuration récurrente, largement décrite dans la littérature scientifique et dans les retours industriels sur la maintenance assistée par IA, notamment dans les secteurs automobile, chimique et de process continu. Dans certaines usines fortement automatisées, des systèmes de maintenance prédictive ont continué à recommander des reports d’intervention malgré des signaux faibles perçus par les techniciens. Les incidents survenus ont montré que le problème n’était pas la précision des modèles, mais l’absence de mécanismes permettant aux opérateurs de contester, d’interroger et de contextualiser les recommandations. À l’inverse, les sites ayant mis en place des interfaces explicatives, affichant les niveaux d’incertitude, les hypothèses et les données manquantes, ont observé une amélioration mesurable de la qualité des décisions et une réduction des incidents non anticipés. Ce type de situation est documenté par des rapports industriels du World Economic Forum et de McKinsey analysant les limites opérationnelles de la maintenance prédictive déployée sans mécanismes de contestation humaine. Dans le discours dominant, la confiance est souvent présentée comme une finalité souhaitable. Or les travaux récents montrent que la confiance est une variable instable, contextuelle et potentiellement dangereuse lorsqu’elle est mal calibrée. Une confiance excessive dans les recommandations algorithmiques conduit à la perte de vigilance, à l’effacement progressif de l’expertise humaine et à l’automatisation des biais. Une confiance trop limitée, à l’inverse, neutralise toute valeur d’usage et transforme l’IA en infrastructure coûteuse et ignorée. La maintenance 5.0 impose donc une rupture conceptuelle forte. La confiance n’est ni acquise ni permanente. Elle doit être conçue, mesurée et entretenue en intégrant continuellement toutes les situations d’évolution.

La confiance n’est pas une vertu à maximiser mais un paramètre de décision à calibrer et à adapter de manière continue.

Dans un système de « Human Machine Teaming » mature, la machine ne cherche pas à inspirer une adhésion aveugle mais à rendre visibles ses limites. Elle expose ses marges d’erreur, ses conditions de validité et ses zones d’ignorance. Ces explications ne pas des suppléments pédagogiques, mais forment un dispositif complet de sécurité. Elles permettent à l’humain de savoir quand s’appuyer sur la recommandation, quand la questionner et quand s’en écarter. La confiance devient alors un mécanisme de régulation dynamique, au service de la résilience opérationnelle. Un autre point critique concerne l’allocation des rôles et des responsabilités. L’un des risques majeurs des systèmes automatisés contemporains réside dans le désalignement croissant entre autorité et responsabilité. Les machines exécutent, recommandent ou orientent des actions, tandis que la responsabilité juridique, éthique et opérationnelle demeure portée par les humains. Cette dissymétrie crée une zone de fragilité cognitive et organisationnelle. La maintenance 5.0 ne peut s’accommoder de cette ambiguïté. Elle exige des contrats d’autonomie explicites, contextualisés et réversibles.

La sécurité naît quand la machine expose ses limites et que l’autorité reste alignée avec la responsabilité.

Ces contrats définissent qui fait quoi, quand et dans quelles conditions. En situation nominale, la machine peut proposer, prioriser et simuler. En situation dégradée, elle doit alerter, expliquer et solliciter une validation humaine. En situation critique, elle se limite à la détection et au guidage procédural, laissant l’arbitrage final à l’opérateur. Cette répartition n’est pas figée. Elle évolue avec le contexte, le niveau de risque et l’état du système. Le « Human Machine Teaming » devient ainsi une grammaire de la responsabilité partagée, indispensable à toute maintenance orientée souveraineté et continuité. Au-delà de la décision instantanée, il transforme la maintenance en dispositif d’apprentissage collectif. Cette idée rejoint les travaux d’Argyris sur l’apprentissage en double boucle, ainsi que les recherches contemporaines sur les organisations à haute fiabilité. Dans les environnements industriels complexes, la valeur d’un système ne réside pas uniquement dans sa capacité à éviter les pannes, mais dans sa faculté à apprendre de ce qu’il n’avait pas prévu. Dans le domaine ferroviaire, par exemple, plusieurs opérateurs européens utilisent désormais des plateformes combinant retours d’expérience terrain, données capteurs et analyses algorithmiques pour rejouer des incidents passés. La Deutsche Bahn, à travers son programme DB Intelligent Maintenance, exploite des plateformes de diagnostic et de simulation pour croiser données d’infrastructure, historiques d’incidents et expertise métier dans une logique d’aide à la décision. La SNCF développe depuis plusieurs années des systèmes de maintenance prédictive et de retour d’expérience outillés, notamment au sein de SNCF Réseau, afin d’analyser les incidents complexes sur la voie et la signalisation et d’améliorer la prise de décision en situation dégradée. Network Rail au Royaume Uni s’appuie sur des plateformes d’asset management et d’analyse avancée pour rejouer des scénarios d’incident, confronter hypothèses techniques et retours terrain, et entraîner les équipes à la gestion de situations non nominales, comme documenté dans ses rapports publics sur la digitalisation de la maintenance et de la sécurité ferroviaire.

La maintenance devient performante lorsqu’elle apprend systématiquement de ce qu’elle n’avait pas prévu.

Les modèles ne servent donc plus à établir une vérité unique, mais à confronter différentes interprétations possibles d’un même événement. Les équipes humaines utilisent ces simulations pour entraîner leur capacité de décision en situation dégradée. L’IA devient alors un partenaire d’apprentissage plutôt qu’un oracle prédictif. Les systèmes techniques ne sont plus seulement entretenus pour fonctionner, mais pour apprendre. Chaque événement, chaque dérive, chaque panne devient une donnée d’entraînement cognitif pour l’organisation. L’IA ne sert pas uniquement à prédire des défaillances futures, mais à rejouer des situations passées, à révéler des biais décisionnels et à simuler des scénarios alternatifs. La maintenance devient un entraînement permanent à l’incertitude. Dans ce cadre, les jumeaux numériques et les plateformes collaboratives deviennent des espaces de réflexivité. Ils permettent de confronter les modèles aux situations réelles, de documenter les écarts et de nourrir une mémoire vivante du système. L’humain et la machine apprennent ensemble. L’un affine son jugement, l’autre ajuste ses modèles. Cette boucle d’apprentissage est au cœur de la maintenance 5.0, qui cesse d’être une fonction de réparation pour devenir une fonction de lucidité organisationnelle. Enfin, le « Human Machine Teaming » introduit une dimension souvent absente des projets industriels, celle du langage commun. Un système ne peut être véritablement collaboratif que s’il permet une coordination intelligible. Or trop souvent, les machines parlent en indicateurs, en scores ou en probabilités, tandis que les humains raisonnent en situations, en contraintes locales et en responsabilités concrètes. La maintenance 5.0 échoue lorsque ces langages restent disjoints. Elle réussit lorsque les systèmes sont conçus pour produire un langage de coordination, fait de scénarios compréhensibles, d’incertitudes explicites et de marges de manœuvre claires.

Les modèles n’expliquent plus le réel, ils entraînent les humains et les organisations à évoluer dans le réel.

Le « Human Machine Teaming » n’est donc ni une utopie humaniste ni une sophistication technologique. Il constitue la condition opératoire de la maintenance 5.0. Il permet de passer d’une industrie obsédée par la prédiction à une industrie capable de décider sous incertitude. En redonnant à l’humain un rôle central dans l’arbitrage, sans le laisser seul face à la complexité, il ouvre la voie à des systèmes techniques plus lucides, plus responsables et profondément plus résilients.

Dans un monde d’incertitudes irréductibles, la performance résulte de la capacité collective à décider, apprendre et arbitrer sous contraintes. Le « Human Machine Teaming » propose une architecture de travail pour exposer les dilemmes, entraîner le jugement et rendre possible des décisions humaines responsables, situées et continuellement révisables.

Mustapha Derras

Articles qui pourraient vous intéresser