Le paradoxe des organisations intelligentes

Le paradoxe des organisations intelligentes

Il existe une idée très répandue.

Si les personnes autour de la table sont intelligentes, expérimentées et bien informées, la décision qui sortira sera forcément bonne.

C’est rassurant. Cela peut s'avérer totalement faux.

Les organisations ne prennent pas de mauvaises décisions uniquement parce que les personnes seraient incompétentes.

Elles en prennent parce que le contexte dans lequel elles décident altère leur lucidité.

Psychologie et sociologie des organisations décrivent très bien ces situations.

Ce ne sont pas seulement des erreurs individuelles. Ce sont des contextes qui déforment la perception, le jugement et l’action.

Et ces contextes sont très fréquents.

 

L’urgence rétrécit la pensée

Sous pression, la manière de réfléchir change.
Le cerveau simplifie brutalement la situation.
Il réduit les options.
Il se tourne vers ce qu’il connaît déjà.

On croit accélérer.
En réalité, le champ de vision se rétrécit.

Ce qui en ressort est rarement une décision stratégique.
C’est souvent une décision de protection immédiate.

 

L’illusion de l’accord

Il existe des réunions où tout semble simple.

Personne ne contredit vraiment.
Les objections disparaissent.
Les silences ressemblent à des validations.
La décision paraît évidente.

C'est ce que le psychologue Irving Janis a nommé la pensée de groupe .

Dans ces moments-là, nul n’est stupide, nul ne manipule.

Mais chacun protège quelque chose de très puissant dans les groupes humains : l’harmonie.

Et parfois, l’harmonie coûte cher.

 

Le moment où l’on sait… mais où l’on continue

Dans certains projets, un étrange moment apparaît.
On ne le formule pas toujours. Mais beaucoup le sentent.

Le projet ne tient plus vraiment. Pourtant, on continue.

Parce qu’il y a déjà du temps investi, de l’argent engagé, de l’énergie dépensée, une réputation en jeu.

Revenir en arrière est plus difficile psychologiquement que continuer. C'est l'escalade d'engagement, décrite notamment par Barry M. Staw .

On ne poursuit plus un projet parce qu’il est bon.
On le poursuit parce qu’admettre l’erreur serait trop coûteux.

 

Lorsque les chiffres deviennent la réalité

Les organisations adorent les indicateurs.
Les tableaux de bord donnent l’impression de piloter.
Les KPI structurent l’action.
Mais il arrive parfois que les chiffres cessent d’être des outils, et deviennent la réalité elle-même.

On optimise les ratios.
On améliore les indicateurs.
On atteint les objectifs mesurés.
Et l’on oublie ce que ces chiffres étaient censés représenter.

L’économiste Charles Goodhart l’a résumé simplement : " Quand une mesure devient un objectif, elle cesse d’être une bonne mesure. »

 

Le silence collectif

Parfois, un problème est visible.
Plusieurs personnes le voient.
Certaines s’en inquiètent.
Et pourtant rien ne se passe.

Chacun pense qu’une autre personne va intervenir.

Ce mécanisme — étudié par le psychologue social Bibb Latané — s'appelle la diffusion de responsabilité .

Plus il y a de monde… plus il devient facile de rester immobile.

 

Une réalité déformée

Dans certaines organisations, les mauvaises nouvelles remontent mal.

À chaque niveau hiérarchique, l'information est légèrement adoucie.
Reformulée. Atténuée. Simplifiée.
Non pour tromper. Souvent simplement pour éviter les tensions.

Mais à force de filtrage, les décideurs finissent parfois par voir une version arrangée de la réalité .

Décider sur une réalité arrangée est toujours risquée.

 

Le poids de l’expertise

L'expertise est indispensable. Cependant, elle peut parfois produire un effet inattendu.

Lorsque l'autorité d'un expert devient trop forte, certaines hypothèses cessent d'être interrogées.

Or les travaux du chercheur Philip Tetlock sur la prévision ont montré quelque chose d’inconfortable : les experts peuvent se tromper largement.

L’expertise éclaire une décision. Mais lorsqu’elle devient incontestable, elle peut aussi réduire la vigilance collective.

 

Les signaux faibles ignorés

Les grandes crises arrivent rarement sans avertissement.

Avant elles, il y a presque toujours :
- une anomalie
- une incohérence
- un incident.

Pris isolément, ces signaux semblent mineurs.

Ce phénomène a été observé dans la catastrophe de la navette Challenger. Il porte un nom précis : la normalisation de la déviance.

On finit par considérer comme normal ce qui aurait dû inquiéter.

 

L’épuisement de décider

Décider fatigue.
Après une succession d’arbitrages, le cerveau simplifie.
Il tranche plus vite.
Il analyse moins.

On parle de fatigue décisionnelle.

Dans cet état, on ne prend pas nécessairement de mauvaises décisions. 
Mais on prend rarement les meilleures possibles.


Les décisions identitaires 

Certaines décisions ne sont pas difficiles parce qu'elles sont complexes.
Elles le sont parce qu'elles touchent quelque chose de beaucoup plus sensible : l'identité.

Remettre en cause :
-
une stratégie passée
- une croyance collective
- une manière de se définir
peut être profondément déstabilisant.

Les travaux du chercheur Dan Kahan montrent que lorsque l’identité est menacée, même les faits deviennent difficiles à accepter.

 

Le mécanisme en arrière-plan

Les mauvaises décisions ne viennent pas seulement :
-
d'un manque d'intelligence
- d'un manque d'information. 

Elles apparaissent souvent lorsque le système dans lequel on décide de modifier la manière de voir la situation .

Quand la pression augmente.
Quand la contradiction disparaît.
Quand les signaux deviennent difficiles à entendre.

À ce moment-là, la question n'est plus seulement : Quelle est la bonne décision ?

La vraie question devient :
Dans quel état humain — et dans quel système — cette décision est-elle prise ?

Retour au blog

Laisser un commentaire

Veuillez noter que les commentaires doivent être approuvés avant d'être publiés.