top of page

#4-Design organisationnel et IA — Garder sa place à l’intelligence du travail

Dans les précédents articles de cette série, j’ai tenté d’explorer une idée partagée mais peu explorée concrètement : l’intelligence artificielle ne vient pas seulement modifier nos outils de travail mais nous conduit à revoir en profondeur notre manière de concevoir les organisations.

J’ai regardé cette transformation sous l’angle qui nous fait progressivement passer d’une organisation pensée par fonctions à une organisation pensée par flux, sans plus seulement se demander qui fait quoi, dans quel service, avec quelle responsabilité fonctionnelle, mais comment une demande, une information, une décision, une ressource ou une capacité circule dans l’organisation, se transforme, se bloque parfois, puis produit — ou non — de la valeur.

Cette lecture par les flux me semble féconde. Elle permet de rendre visibles des discontinuités que les organisations fonctionnelles ont longtemps appris à compenser : pertes d’information, passages de relais approximatifs, hand-overs fonctionnels, délais, arbitrages locaux, complexité de coordination, dilution de la responsabilité. L’IA, parce qu’elle fonctionne elle-même par traitement de flux d’information, révèle ces fragilités avec une acuité nouvelle.

Mais, comme me le rappelait @Jean-Luc Estournel, si l’organisation devient progressivement un système de flux hybridé homme machine, que deviennent les personnes qui y travaillent ? Que devient leur autonomie ? Leur capacité à comprendre ce qu’elles font ? Leur pouvoir de jugement ? Leur possibilité de discuter les critères du travail bien fait ? Leur fierté professionnelle ?

Autrement dit, l’enjeu n’est pas seulement de concevoir des organisations plus fluides, plus rapides ou plus intelligentes techniquement, mais de savoir quelle place l’Homme a dans ces organisations, de savoir si ces organisations seront encore capables de laisser du pouvoir d’agir aux personnes et aux collectifs.

La notion d’organisation "capacitante" doit donc se discuter si nous ne voulons pas devenir les esclaves des algorithmes.

 

L’IA ne rend pas mécaniquement les organisations "capacitantes"

Le vocabulaire de « l’augmentation » est aujourd’hui omniprésent pour justifier l’usage de l’IA. On parle de collaborateur augmenté, de manager augmenté, de fonction augmentée, d’entreprise augmentée. Elle suggère que la technologie viendrait naturellement accroître nos capacités, nous libérer de tâches répétitives, nous rendre plus disponibles pour des activités à plus forte valeur ajoutée.

C’est en partie vrai, mais n’est-ce pas une illusion ?

Une organisation peut être très équipée technologiquement sans être réellement capacitante. Elle peut déployer des outils d’IA, automatiser certains traitements, produire davantage d’indicateurs, accélérer les décisions, sans pour autant donner plus de pouvoir d’agir aux personnes. Elle peut même faire l’inverse : prescrire plus finement le travail, réduire les marges d’interprétation, rendre les décisions plus opaques, intensifier les rythmes, et transformer les professionnels en simples validateurs de recommandations produites ailleurs.

C’est pourquoi il me semble important de distinguer plusieurs formes d’intégration de l’IA de l’organisation outillée à l’organisation "capacitante".

Une organisation outillée ajoute des moyens techniques auxquels se conformer. Une organisation automatisée délègue certaines opérations à des systèmes. Une organisation augmentée améliore certaines capacités d’action. Mais une organisation "capacitante" cherche à développer la capacité des personnes et des collectifs à comprendre, décider, débattre, apprendre et agir sur leur propre travail.



Il est essentiel de percevoir ces distinctions comme les 2 faces positive et négative de tout outil. Et de fait, l’IA ne porte pas en elle-même une conception du travail ! elle peut soutenir l’autonomie ou renforcer le contrôle. Elle peut ouvrir des espaces d’apprentissage ou appauvrir les gestes professionnels. Elle peut rendre le travail plus intelligible ou le rendre plus opaque. Elle peut libérer du temps ou accélérer sans fin les exigences de production.

Ce sera donc du côté humain de cette hybridation que viendra la réponse pour savoir et définir quel type d’organisation voulons-nous construire avec l’IA et non l’inverse.


Le risque d’une organisation plus fluide, mais moins humaine

Dans une organisation orientée flux, l’IA promet beaucoup. Elle permet de traiter des volumes considérables d’information, de détecter des ruptures, de formuler des recommandations, d’automatiser certaines étapes, d’optimiser des arbitrages et d’accélérer la circulation de la valeur. L’IA est incommensurablement plus forte que l’humain sur ces tâches.


Mais ..


Toute friction n’est pas nécessairement un dysfonctionnement. Si évidemment certaines lenteurs sont inutiles, si certains délais ne sont que les symptômes d’une mauvaise organisation, si certaines interfaces produisent de la complexité sans valeur, il faut évidemment les traiter. La carte doit être revue.

Mais Le territoire, ce n’est pas la carte ! d’autres formes de ralentissement sont constitutives du travail humain. Le temps de comprendre une situation. Le temps de discuter un cas difficile. Le temps d’ajuster une règle à une réalité singulière. Le temps de transmettre un savoir-faire. Le temps de construire un désaccord professionnel. Le temps de sentir qu’un résultat est techniquement correct, mais qu’il ne correspond pas encore à ce que le métier considère comme du bon travail.

Une organisation obsédée par la fluidité pourrait être tentée de supprimer indistinctement toutes ces résistances. Elle pourrait confondre le débat avec une perte de temps, l’ajustement avec une anomalie, la prudence avec de la lenteur, le jugement professionnel avec une subjectivité gênante.

Mais le travail réel se loge précisément dans ces écarts. Il ne consiste jamais à appliquer mécaniquement une prescription. Il suppose d’interpréter, d’arbitrer, de composer avec des contraintes contradictoires, de faire tenir ensemble ce qui, dans les procédures, ne tient pas toujours.

À l’heure de l’IA, le risque n’est donc pas seulement que la machine remplace l’humain mais que l’humain reste présent, dans un espace de décision de plus en plus étroit : Présent pour superviser, valider, corriger à la marge, absorber les exceptions, mais de moins en moins en capacité de discuter les finalités, les critères et les règles du système.

Le risque, pour les organisations, est de devenir techniquement plus performantes tout en devenant humainement moins « capacitantes ».


La tentation sera grande, la dérive probable et le risque réel. Et c’est sans doute l’un des grands choix organisationnels (et plus encore) des prochaines années : conduire les entreprises vers un horizon presque entièrement technologique, où l’humain ne serait plus qu’un point de contrôle dans des systèmes optimisés, ou faire le choix inverse, celui d’organisations qui laissent encore une place pleine et entière à l’intelligence du travail humain. Mon choix, mon espérance, vous l’aurez compris, porte sur la deuxième option : penser l’IA non pas contre l’humain, ni à sa place, mais comme une occasion de redonner à l’humain toute sa place dans les organisations.


Revenir aux conditions du travail bien fait

Pour penser une organisation "capacitante" à l’heure de l’IA, il me semble utile de repartir d’une question simple : qu’est-ce qui permet aux personnes de bien travailler ?

Les travaux sur le travail bien fait et le beau travail (cahier de l’ISPI) nous rappellent que la qualité du travail ne se réduit pas à la conformité à une procédure ou à l’atteinte d’un indicateur. Elle engage un rapport subjectif, sensible, professionnel et collectif à l’activité. Le travail bien fait ne se décrète pas de l’extérieur. Il se construit dans l’activité, dans les arbitrages locaux, dans les discussions entre pairs, dans la reconnaissance par ceux qui savent apprécier la qualité du geste, du raisonnement, de la relation ou du résultat.

Bien faire son travail suppose au moins trois pouvoirs.


Le pouvoir de penser, d’abord. C’est-à-dire la possibilité de comprendre son activité, ses contraintes, ses effets, ses finalités. Il ne suffit pas d’exécuter. Il faut pouvoir se représenter ce que l’on fait, pourquoi on le fait, pour qui on le fait, et à quelles conditions cela mérite d’être considéré comme un travail de qualité.


Le pouvoir de débattre, ensuite. Le travail bien fait n’est jamais évident une fois pour toutes. Il donne lieu à des désaccords, des controverses, des tensions de critères. Faut-il aller vite ou prendre le temps ? Faut-il satisfaire immédiatement une demande ou préserver une exigence de qualité ? Faut-il appliquer strictement la règle ou l’adapter à la situation ? Ces questions ne peuvent pas être abandonnées à des procédures silencieuses. Elles doivent pouvoir être discutées.


Le pouvoir d’agir, enfin. Comprendre et débattre ne suffisent pas si les personnes n’ont aucune marge de manœuvre pour ajuster leur travail. Le pouvoir d’agir renvoie à la possibilité concrète de décider, d’expérimenter, de corriger, de proposer, de transformer localement les conditions de l’activité.

Ces trois pouvoirs — penser, débattre, agir — constituent une boussole pour l’hybridation homme machine, soit les renforcer, soit les réduire.


Rendre l’IA intelligible

La première condition est celle de l’intelligibilité.

Les personnes ne peuvent pas agir sur un système qu’elles ne comprennent pas. Or l’IA introduit souvent une couche supplémentaire d’opacité dans les organisations. Les décisions viendront de modèles, de scores, de recommandations, de tableaux de bord, de règles intégrées dans des outils que peu d’acteurs comprennent réellement.

Dans ce contexte, concevoir une organisation "capacitante" suppose de rendre les systèmes suffisamment lisibles pour ceux qui travaillent avec eux.

Sans devenir expert en algorithmie chacun doit pouvoir comprendre comment le système fonctionnel ! Quelles données sont utilisées ? Quels critères sont privilégiés ? Quels arbitrages sont incorporés dans l’outil ? Qu’est-ce que l’IA voit bien ? Qu’est-ce qu’elle ne voit pas ? Où sont ses limites ? Dans quelles situations faut-il lui faire confiance, et dans quelles situations faut-il reprendre la main ?

On ne peut pas demander à des personnes de répondre d’un travail dont les règles effectives leur échappent, question de respect de l’intelligence humaine.

Une organisation "capacitante" doit donc produire de la compréhension partagée autour des systèmes IA : rendre visibles les flux, les critères, les dépendances, les effets, permettre aux professionnels de ne pas être seulement utilisateurs d’un outil, mais interprètes de ce qu’il transforme dans leur activité.


Rendre les critères discutables

La deuxième condition est celle de la discussion.

L’un des risques majeurs de l’IA est de figer des critères de qualité dans des modèles sans que ces critères aient été suffisamment débattus. Ce qui est mesurable n’est pas toujours ce qui compte le plus. Et ce qui est optimisable n’est pas toujours ce qui mérite d’être poursuivi.

Dans une organisation capacitante, les critères portés par l’IA doivent devenir des objets de discussion professionnelle.

Qu’est-ce qu’un bon résultat ?Qu’est-ce qu’une bonne décision ?Qu’est-ce qu’un bon arbitrage ?Qu’est-ce qu’un bon accompagnement ?Qu’est-ce qu’une réponse juste, et pas seulement rapide ?Qu’est-ce qu’un travail acceptable du point de vue du client, du métier, du collectif, de l’éthique ?

Ces questions ne peuvent pas être tranchées uniquement par les concepteurs des outils, les directions métiers ou les experts de la donnée. Elles doivent associer ceux qui font le travail, parce qu’ils connaissent les situations, les écarts, les subtilités, les effets réels des décisions.

La dispute professionnelle devient ici une condition de bon usage de l’IA. Une nouvelle forme de dispute professionnelle : celle de la rencontre entre deux formes d’intelligence : celle des systèmes, qui traitent, calculent, comparent, recommandent ; et celle du travail, qui contextualise, interprète, hiérarchise, assume et donne sens.

L’hybridation est "capacitante" lorsqu’elle nourrit la discussion sur le travail au lieu de s’y substituer.


Préserver des marges de manœuvre

La troisième condition est celle de l’action.

On peut comprendre le système. On peut discuter ses critères. Mais encore faut-il pouvoir agir sur lui.

Une organisation capacitante ne peut pas se contenter d’expliquer l’IA aux collaborateurs sans leur donner des droits d’intervention. Pouvoir corriger une recommandation. Pouvoir signaler un effet pervers. Pouvoir documenter une exception. Pouvoir proposer une évolution de règle. Pouvoir suspendre une automatisation lorsque la situation l’exige. Pouvoir dire : “dans ce cas précis, le système nous conduit vers une décision qui n’est pas juste.”

Ces marges de manœuvre ne doivent pas être vues comme des imperfections du dispositif, mais une condition de sa qualité.

Car le travail réel confronte toujours les personnes à des situations qui excèdent les modèles. L’IA ne sait pas toujours reconnaître ce qui, dans une situation, relève du détail essentiel, de l’exception signifiante, du signal faible ou du conflit de valeurs.

Le professionnel, lui, peut le faire, à condition qu’on ne l’ait pas réduit à un rôle d’exécutant.

C’est pourquoi le design organisationnel de l’IA ne doit pas viser seulement la standardisation des bonnes pratiques. Il doit organiser la capacité de reprise humaine sur le système. Non pas comme un recours exceptionnel et héroïque, mais comme une composante normale du fonctionnement.

Une organisation capacitante n’est pas celle où l’humain intervient seulement quand la machine échoue, mais quand l’humain reste capable d’orienter, d’ajuster et d’enrichir le système en continu.


Apprendre avec le travail réel

La quatrième condition est celle de l’apprentissage.

On parle beaucoup de systèmes apprenants. Si l’IA ou les algorithme apprennent à une vitesse folle, est-ce que l’organisation apprend aussi ?

Que fait-on des écarts entre la recommandation et la décision finale ?Que fait-on des corrections apportées par les professionnels ?Que fait-on des résistances exprimées par les équipes ?Que fait-on des contournements, des usages inattendus, des refus, des alertes faibles ?Sont-ils considérés comme des freins au déploiement, ou comme des informations précieuses sur le travail réel ?

Une organisation non capacitante cherchera à faire adopter l’outil. Elle interprétera les écarts comme des problèmes d’appropriation, de formation ou de conduite du changement.

Une organisation "capacitante" fera l’inverse. Elle regardera les écarts comme des matériaux d’apprentissage. Si les équipes contournent l’outil, peut-être est-ce parce que l’outil ne comprend pas suffisamment le travail. Si elles contestent une recommandation, peut-être est-ce parce qu’un critère important n’a pas été intégré. Si elles ralentissent l’automatisation, peut-être est-ce parce qu’une dimension relationnelle, éthique ou professionnelle est en jeu.

Dans cette perspective, le déploiement de l’IA ne devrait jamais être pensé comme une simple diffusion d’outil. Il devrait être conçu comme une exploration continue sur le travail.


Clarifier les responsabilités

La cinquième condition est celle de la responsabilité.

Plus les décisions deviennent assistées, recommandées ou partiellement automatisées, plus la responsabilité risque de se diluer. Le manager dira qu’il a suivi l’outil. L’utilisateur dira que la recommandation venait du système. Le concepteur dira que le modèle s’appuie sur les données disponibles. La direction dira que la décision finale restait humaine.

Si tout le monde a contribué à la décision sans que personne ne puisse vraiment en répondre, l’organisation devient irresponsable.

Concevoir une organisation capacitante à l’heure de l’IA suppose donc de clarifier les responsabilités dans les systèmes hybrides.

Qui définit les critères ?Qui valide les règles ?Qui peut modifier les paramètres ?Qui arbitre en cas de conflit entre performance, équité, qualité et soutenabilité ?Qui répond des effets produits sur les personnes ?Qui décide quand la recommandation de l’IA entre en tension avec le jugement professionnel ?

Ces questions seront au cœur du design organisationnel des nouvelles organisations.

Une organisation capacitante ne laisse pas la responsabilité se dissoudre dans une architecture technique. Elle accepte de dire où se situe la décision, qui la porte, qui peut la contester et comment elle peut être révisée.

 

Le rôle renouvelé du management

Dans cette perspective, le rôle du management évolue profondément.

Le manager ne peut plus être seulement celui qui distribue le travail, suit les indicateurs et veille à l’atteinte des objectifs. Dans une organisation hybridée par l’IA, il devient aussi un régulateur du travail réel dans des systèmes de plus en plus instrumentés.

Son rôle est de rendre les flux compréhensibles, sans réduire le travail à ces flux, soutenir l’usage de l’IA, sans en faire une nouvelle prescription indiscutable,  piloter la performance, sans laisser les indicateurs définir seuls la qualité, encourager l’autonomie, tout en garantissant la cohérence collective, protéger les espaces de débat, même lorsque l’organisation cherche à accélérer.

C’est peut-être l’un des grands paradoxes managériaux de l’IA : plus les systèmes deviennent puissants, plus le management doit redevenir attentif au travail concret : Pour écouter ce qui se joue dans les usages, les tensions, les hésitations, les désaccords, les arbitrages silencieux.

Le management capacitant n’est pas un management qui demande aux personnes de s’adapter plus vite aux outils, mais una management qui crée les conditions pour que les outils soient mis au service d’un travail que les personnes peuvent comprendre, discuter et transformer.


Vers une boussole de l’organisation "capacitante"

Une organisation "capacitante" à l’heure de l’IA est une organisation qui ne se demande pas seulement si l’IA produit des gains de productivité, mais quels effets elle produit sur le travail.

Augmente-t-elle la compréhension ou l’opacité ?Augmente-t-elle l’autonomie ou la dépendance ?Augmente-t-elle le débat professionnel ou le silence devant la recommandation ?Augmente-t-elle la qualité du travail ou seulement la vitesse du flux ?Augmente-t-elle la responsabilité ou sa dilution ?Augmente-t-elle le collectif ou l’individualisation face à l’outil ?Augmente-t-elle la capacité d’apprendre ou seulement la capacité du système à optimiser ses propres paramètres ?

Ces questions pourraient former une première boussole.

Pour devenir autre chose qu’un outil d’accélération et de venir une levier de développement des personnes, des métiers et des collectifs, l’IA se doit être appropriée, discutée, ajustée, parfois contestée, et finalement intégrée dans une organisation qui reste capable de penser son propre travail.



Conclusion — Augmenter le pouvoir d’agir sur les flux

L’intelligence artificielle nous oblige à repenser le design organisationnel. Elle nous pousse à regarder les flux, les interfaces, les capacités, les systèmes de décision, les formes nouvelles de coordination.

Mais on ne doit pas oublier, dans cette course à la productivité, l’essence même d’une organisation d’un groupe humain : que permettons-nous aux personnes de faire de leur travail ?

L’enjeu n’est donc pas de ralentir l’IA, ni de la tenir à distance du travail, car elle est belle et bien là. Il est de la concevoir dans des organisations qui ne réduisent pas le pouvoir de comprendre, de débattre, d’agir, d’apprendre et de répondre.

À l’heure de l’IA, concevoir une organisation "capacitante", c’est permettre aux personnes et aux collectifs de rester auteurs de leur travail, capables d’en discuter les critères, d’en ajuster les formes et d’en assumer le sens.


Le beau travail de demain ne sera pas celui que la machine aura parfaitement optimisé mais plutôt, celui dans lequel l’intelligence technique aura permis à l’intelligence du travail de mieux se déployer. Enfin, c’est mon souhait et mon espérance.

 

Commentaires

Noté 0 étoile sur 5.
Pas encore de note

Ajouter une note
bottom of page