Cours Theorie Organisations

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 89

1

Pr Odilon GAMELA NGINU

THEORIE DES ORGANISATIONS


NOTES DE COURS

Année Académique 2023-2024


2

0. INTRODUCTION

01. Origine de la théorie des organisations

En tant que regroupement formel d’individus qui s’assignent des buts et des
objectifs en mettant en œuvre des ressources spécifiques, toute organisation, quelle
qu’en soit la nature, doit impérativement viser la performance. La performance est
généralement mesurée à travers deux dimensions que sont l’efficacité (atteindre les
objectifs fixés) et l’efficience (atteindre les objectifs fixés au coût le plus bas en
termes de ressources), auxquelles s’ajoute désormais celle de l’effectivité (atteindre
les objectifs fixés en intégrant ceux des parties prenantes de l’organisation).

De la multitude des typologies des organisations, on peut retenir celle qui distingue
les organisations à but non lucratif des organisations à but lucratif. Ces dernières,
qui intéressent le plus les étudiants en sciences de gestion/sciences commerciales,
se sont caractérisées par un gigantisme croissant depuis la Première Révolution
Industrielle (1770-1850) qui a été marquée par l’invention de la machine à vapeur
avec le charbon (comme source d’énergie), le fer et le développement de l’industrie
légère (textile, alimentation).

Ce gigantisme s’est considérablement accru avec la Seconde Révolution


Industrielle qui a débuté en 1880 et qui a été marquée par l’utilisation des nouvelle
sources d’énergie (pétrole et gaz) : elle a permis un développement fulgurant de
l’électricité, de la mécanique (moteur à explosion et automobile), de la chimie, des
moyens de communication (télégraphe et téléphone), des moyens de transport
(chemin de fer et bateau), du transport urbain (bus, tramway, métro) et de
l’industrie lourde (mines, métallurgie).

Ce gigantisme a créé un réel et impérieux besoin d’organisation du travail dans les


entreprises. Surtout que ce gigantisme a fait apparaitre de nombreux problèmes
internes totalement nouveaux qui nécessitaient leur maîtrise, tout comme il a
entrainé des risques financiers de plus en plus élevés au regard du recours à des
capitaux sans cesse croissants (capitaux propres, épargne publique, emprunts
bancaires).

Par ailleurs, du fait de l’accélération de la technologie (avec des nombreux


phénomènes de rupture), de l’exacerbation de la concurrence (qui a culminé sur la
mondialisation) et de la multiplication tant des crises que des catastrophes
anthropiques (économiques, financières, sociales, diplomatiques, armées,
écologiques), l’environnement externe des organisations est devenu de plus en plus
changeant et de moins en moins prévisible, accroissant encore plus le niveau
général des risques pour les organisations.
3

D’où, la nécessité et la naissance d’un corpus de connaissances spécifiques ayant


pour objectif de permettre aux organisations de mieux maitriser leur
environnement tant interne qu’externe à travers l’identification de l’ensemble des
problèmes et des risques auxquels elles sont confrontées ainsi que l’adoption des
solutions et des mesures de mitigation appropriées en vue de leur garantir un
niveau minimum de performance. C’est ainsi qu’est donc née la « Théorie des
Organisation », une discipline scientifique autonome et multidisciplinaire. En effet,
ce corpus des connaissances est issu des différentes disciplines, particulièrement
des sciences sociales (économie, gestion, psychologie, sociologie, science politique,
anthropologie, philosophie, mathématique, statistique) avec différentes écoles qui
traduisent ainsi les rapides évolutions des sciences, des sociétés et des économies.

02. Contenu du cours

Ce cours de « Théorie des Organisations » va donc passer en revue les grands


courants de pensée qui ont marqué cette discipline et qui, tout naturellement, ont
chacune privilégié une approche particulière des organisations. Comme en toute
discipline scientifique, il apparaitra ainsi que chacun de ces courants a pris pied sur
celui ou ceux qui l’ont précédé en les amendant ou en les complétant. L’objectif de
tous ces courants de pensée est bien évidemment de mieux maitriser
l’environnement tant interne qu’externe des organisations et de leur garantir ainsi
un niveau minimum de performance.

Dans ce cours, nous avons opté pour une présentation chronologique de ces
différents courants de pensée, au lieu d’une approche thématique. Ce choix nous
parait plus adapté sur le plan pédagogique. Pour ce faire, nous allons nous baser
sur le classement qui en a été fait par Richard Scott en 1978 et qui reste encore
d’une très grande actualité (Figure n° 1).

Comme on le voit, R. Scott a classé en quatre phases principales (correspondant à


quatre quadrants) l’évolution de la Théorie des Organisations à partir de 1900, et
ce, en utilisant deux axes.

Le premier axe ou axe horizontal, subdivise les approches et donc les théories et les
écoles selon qu’elles considèrent que l’organisation est un système fermé ou au
contraire un système ouvert :

• le « système fermé » correspond à une approche qui considère l’organisation


comme un système centré sur lui-même et donc sans interaction avec son
environnement externe, approche qui aboutit ainsi à un modèle d’application
4

universelle et quasi immuable tourné sur les paramètres internes à


l’organisation ;
• le « système ouvert » correspond à une approche qui considère l’organisation
comme un système ouvert sur son environnement externe et donc dépendante
de ses différentes composantes (politique, économique, sociale, technique,
écologique et légale) dont la plus grande caractéristique est leur constante
évolution, approche qui aboutit ainsi à un modèle en adaptation constante.

Figure n° 1 : Classement des grandes écoles de la théorie des organisations

Approche rationnelle

1900 – 1930 1960 – 1980

Organiser pour
Adapter la
produire
structure
efficacement

Ecole classique Ecole de la contingence


Système Système
fermé 1930 - 1960 1980 et suivants ouvert

Motiver Mobiliser et
l’individu faire participer

Ecole sociologique et économique


Ecole des relations humaines

Approche
sociale

Source : R. Aïm, L’essentiel de la Théorie des Organisations, 11ème édition, Edition Gualino,
Paris, 2018, p. 20

Le deuxième axe ou axe vertical, subdivise les approches et donc les théories et les
écoles selon qu’elles sont rationnelles ou sociales :

• l’approche « rationnelle » recherche la rationalisation du travail dans le but


d’aboutir à un modèle axé sur l’efficacité et l’efficience, modèle qui se fonde
essentiellement sur une démarche basée sur la logique et la rigueur ;
• l’approche « sociologique » recherche plutôt le consensus au sein de
l’organisation et la motivation du personnel dans le but d’aboutir aussi à
l’efficacité et à l’efficience, mais en prenant en compte d’abord des facteurs
humains.
5

En partant du schéma de R. Scott, les différents courants de pensée peuvent ainsi


être classées chronologiquement en huit écoles réparties sur les quatre quadrants :
classique, des relations humaines, de la prise de la décision, néo-classique,
sociotechnique, de la contingence, sociologique et économique. Ce sont donc ces
huit courants qui vont constituer les huit chapitres de notre cours. La figure n° 2
résume l’articulation de ces différentes écoles de la Théorie de l’Organisation.

Figure n° 2 : Articulation des différentes écoles de la Théorie des Organisations

Ecole des Ecole de la Ecole Ecole


relations prise de la socio- sociologique
humaines décision technique
(1930) (1950) (1980)
(1940)

Ecole Ecole néo- Ecole de la Ecole


classique classique contingence économique
(1900) (1945) (1960) (1980)

Source : Adapté de R. Aïm, op. cit., p. 26

Cependant et comme cela apparait dans cette figure n° 2, la subdivision temporelle


de ces différentes écoles n’est ni aussi tranchée, ni totalement linéaire puisque nous
voyons qu’il y a des boucles qui démontrent ainsi des chevauchements et des
allersretours dans le temps avec des théories qui ont des lointaines origines.

De même, nous n’allons pas, dans nos développements, donner la même


importance à toutes les écoles et à tous les auteurs : cette importance dépendra de
la façon dont chaque école a marqué la pensée managériale et de l’apport de chaque
auteur à son école. C’est aussi ce dernier élément qui explique que certains auteurs,
pourtant importants, ne feront pas l’objet de notre attention, un choix parfaitement
subjectif que nous assumons au regard du nombre important des chercheurs que
nous ne pouvions tous retenir compte tenu du volume horaire de ce cours.

03. Objectif du cours

Ce cours est destiné à deux publics : d’une part, les étudiants du premier cycle
universitaire des sciences économiques et de gestion ainsi que ceux des écoles de
commerce, et, d’autre part, les apprenants du troisième cycle.
6

Pour les étudiants du premier cycle, l’objectif est de les initier au contenu et à la
logique de ces différents courants, ce qui leur permettra de se familiariser avec
certaines notions indispensables à la bonne compréhension d’un certain nombre de
cours de gestion inscrits dans leur programme.

Pour les apprenants du troisième cycle qui n’ont pas pu bénéficier de cet
enseignement dans leur cursus antérieur, l’objectif est de leur donner, en tant que
futurs doctorants, différentes grilles d’analyse des organisations dans toute leur
complexité. Ces grilles d’analyse leur serviront ainsi de soubassement théorique
sur lequel ils devront impérativement adosser leurs recherches doctorales comme
c’est le cas en sciences de gestion.

04. Méthode pédagogique

Pour les étudiants du premier cycle, le cours se donnera essentiellement sous la


forme magistrale.

Il en sera de même pour les apprenants du troisième cycle, mais avec une grande
place réservée à la discussion à travers les exemples puisés dans l’expérience
professionnelle de l’enseignant et suscités auprès des apprenants en les appelant à
mettre aussi en exergue leur propre vécu professionnel.
7

CHAPITRE 1 : L’ECOLE CLASSIQUE

1.1. Origines et postulats de l’Ecole Classique

L’Ecole Classique date des années 1900. Elle a eu comme pionniers les
ingénieurs, ce qui était tout à fait normal du fait du progrès scientifique
fulgurant issu de deux phases de la Révolution Industrielle. On a ainsi assisté
au passage du travail artisanal au travail en usine, ce qui explique qu’ils se
soient essentiellement intéressés à l’organisation du travail en ateliers pour
proposer différents modèles analytiques, empiriques et normatifs. Ces
ingénieurs ont été complétés par les spécialistes de la gestion non plus des
ateliers, mais des entreprises.

Les principaux auteurs de cette école sont : Adam Smith, Frederick W. Taylor,
Franck et Liliane Gilbreth, Henry Gantt, Henry Ford, Henri Fayol et Max
Weber.

Ces auteurs de l’Ecole Classique se sont inspirés des deux institutions les mieux
organisées et les plus efficaces de l’époque, l’Eglise et l’armée, institutions
fondées sur une forte hiérarchisation des fonctions et un respect strict de
l’autorité pyramidale. Plus précisément, ils vont partir de la division du travail,
concept fondateur de cette école, avec deux postulats sous-jacents :

• le postulat mécaniste selon lequel les travailleurs ne sont que des rouages de
la mécanique qu’est l’entreprise ;
• le postulat rationaliste selon lequel les travailleurs et les équipements de
l’entreprise peuvent être agencés rationnellement de façon à atteindre la
plus grande efficience dans la production.

Comme suggéré ci-haut, l’Ecole Classique est représentée par deux grands
courants ayant des préoccupations différentes :

• le courant dit du « Management Scientifique » ou de l’« Organisation


Scientifique du Travail » (OST) : préoccupé par l’accroissement de la
productivité des ouvriers, il a été animé principalement par Frederick
Taylor, Henry Ford, Franck Gilbreth, Lilian Gilbreth et Henry Gantt ;
8

• le courant dit de la « Théorie Administrative » ou de l’« Organisation


Administrative du Travail » (OAT) : préoccupé par l’organisation globale de
l’entreprise ainsi que par les moyens de la rendre plus efficace, il a été animé
principalement par Henri Fayol et Max Weber.
Nous allons donc survoler l’œuvre des principaux auteurs de l’Ecole Classique,
en commençant par ceux du courant du management scientifique et en
terminant par ceux du courant de théorie administrative.

Nous allons ainsi commencer cette ronde des auteurs par Adam Smith du fait
qu’il est sans conteste le géniteur du concept de la division du travail, et qu’il
doit dès lors être considéré comme le précurseur de cette Ecole Classique bien
qu’il ait vécu au 18ème siècle, c’est-à-dire bien avant la Seconde Révolution
Industrielle.

1.2. Adam Smith

Comme dit plus haut, A. Smith est le fondateur du concept de la division du


travail. C’est un économiste libéral qui prône le « laisser faire » : l’économie doit
être régie par un ordre naturel, celui qui est déterminé par le marché. Ainsi,
c’est le marché, « main invisible » en opposition à la main trop visible de l’Etat,
qui se charge de faire les arbitrages entre agents économiques et de réguler ainsi
le fonctionnement de l’économie d’un pays. Or, le marché ne peut jouer
convenablement ce rôle que s’il est libre de toute intervention publique.

Dans son ouvrage intitulé « Recherche sur la Nature et les Causes de la Richesse
des Nations » (1776), il a montré que la croissance économique d’une nation
était imputable à deux causes majeures : l’accumulation du capital et la division
du travail. Concernant cette deuxième cause, elle permet, pour lui, d’améliorer
la productivité du travail, et donc l’efficience, du fait qu’elle permet de tirer
profit de la différence des aptitudes caractérisant les ouvriers d’une entreprise.

A cet effet, il a pris l’exemple d’une manufacture d’épingles. Il a constaté qu’en


subdivisant en 18 opérations différentes la fabrication d’un produit aussi simple
qu’une épingle et en confiant à chaque ouvrier une partie seulement de ces 18
opérations, une petite manufacture mal équipée de 10 ouvriers, était parvenue
à produire 48.000 épingles/jour, contre une moyenne de 200
épingles/jour/ouvrier seulement si chacun de ces 10 ouvriers avait continué à
exécuter seul les 18 opérations pour chaque épingle fabriquée.

1.3. Frederick Taylor (1856-1915)


9

Son ouvrage publié en 1911 est considéré comme l’acte de naissance du


management moderne 1 . Ainsi, Taylor est considéré comme le père du
Management Scientifique que l’on peut définir comme l’utilisation d’une
méthodologie scientifique pour définir la manière optimale de réaliser une
tâche donnée. C’est le fameux « One Best Way », c.à.d. « La Seule Meilleure Façon
» (de réaliser une tâche donnée). Notons que le Management Scientifique est
plus connu sous la dénomination « Organisation Scientifique du Travail »
(O.S.T.).

Cet ingénieur mécanicien américain a fait ses recherches dans les entreprises
sidérurgiques « Midvale & Bethlehem » (Etat de Pennsylvanie). Il a constaté que
les ouvriers utilisaient chacun sa méthode pour réaliser une même tâche, avec
comme conséquences l’impossibilité d’atteindre les objectifs fixés (inefficacité)
et une grande perte de temps (inefficience). C’est pourquoi, il va décider
d’étudier de façon scientifique comment le travail des ouvriers devait être fait.
Autrement dit, il va substituer la connaissance scientifique des différents
aspects du travail de chaque individu à l’empirisme ouvrier qui était jusque-là
la règle, il va codifier les méthodes du travail industriel et donc tourner le dos à
cet empirisme.

L’O.S.T., qui est en fait la structuration rationnelle du travail ouvrier, va se baser


sur quatre grands principes :

a. Le principe de la division verticale du travail

Ce principe consiste à séparer le travail de conception à confier aux


ingénieurs ou « cols blancs », du travail de simple exécution à confier aux
ouvriers ou « cols bleus ». Ainsi, les ingénieurs du « Bureau des Méthodes »
analysent le travail à faire pour déterminer le « One Best Way » qui cherche
à éviter le gaspillage du temps et des efforts des ouvriers par la
rationalisation de chaque poste du travail à travers :

• la subdivision du travail en tâches élémentaires ;


• la détermination de la façon dont chaque tâche doit être exécutée
;
• la fixation de l’ordre d’exécution de ces tâches ;
• la fixation des temps impartis aux ouvriers pour exécuter les
différentes tâches leur assignées, les temps standard ou temps
alloués, en utilisant différentes méthodes de chronométrage.

1
Taylor F., Principes de l’organisation scientifique des usines, Dunod, Paris, 1911.
10

De leur côté, les ouvriers doivent exécuter la ou les tâches leur assignées en
suivant scrupuleusement les instructions des ingénieurs et dans les temps
leur impartis par ces derniers.

Selon ce principe, chacun des deux groupes doit se charger des tâches pour
lesquelles il se montre plus compétent que l’autre, à savoir la conception
pour la direction et l’exécution pour les ouvriers. Ceci est donc une rupture
totale avec le passé où la quasi-totalité du travail et la majorité des
responsabilités incombaient aux seuls ouvriers, dans la mesure où ces
derniers concevaient et exécutaient le travail leur assigné chacun à sa façon.

b. Le principe de la division horizontale du travail

Ce principe se base sur la division des tâches, mieux, sur la parcellisation


des tâches. Ainsi, le travail à faire est décomposé en tâches élémentaires qui
impliquent également des gestes élémentaires pour leur exécution. Cette
division horizontale du travail permet à l’ouvrier de maîtriser très
rapidement les tâches lui assignées du fait de leur simplicité et de leur
nombre très réduit, ce qui permet d’avoir des gains importants de
productivité et donc d’aboutir à une plus grande efficience par la réduction
du temps d’exécution des différentes tâches et donc du temps d’exécution
de l’ensemble du travail.

Ce principe implique également qu’il faut sélectionner, former et


perfectionner les ouvriers qui ne doivent plus être seuls à choisir leurs
métiers et qui ne doivent plus exercer leurs métiers sur la seule base de leurs
connaissances empiriques.

c. Le principe du salaire au rendement

Ayant constaté que les meilleurs ouvriers calquaient leur vitesse d’exécution
des tâches (et donc leur rendement) sur celle de leurs collègues les moins
productifs, ce qui était tout à fait normal du fait qu’ils avaient tous un salaire
journalier identique, F. Taylor va remédier à cette anomalie en introduisant
le salaire différentiel basé sur le rendement de chaque ouvrier. Ainsi, le
salaire de chaque ouvrier sera calculé désormais par comparaison entre ses
temps réels et les temps alloués ou temps standard.

d. Le principe du contrôle du travail et de la hiérarchie fonctionnelle


11

Pour s’assurer que les différentes tâches sont exécutées par les ouvriers
conformément aux principes scientifiques établis par les ingénieurs, F.
Taylor va prôner une coopération franche entre la direction et les ouvriers
en préconisant que les contremaîtres puissent opérer les contrôles
nécessaires. Etant donné que chaque contremaître doit aussi être un
spécialiste dans son domaine pour augmenter sa productivité à l’instar des
ouvriers, chacun de ces derniers dépendra de plusieurs contremaîtres
contrôleurs qui vont l’aider, chacun dans son domaine de spécialisation, à
résoudre les différents problèmes auxquels il fait face. Ainsi, chaque ouvrier
est soumis à l’autorité fonctionnelle d’autant de contremaîtres qu’il y aura
des fonctions différentes impliquées dans l’exécution des tâches lui
assignées.

Par conséquent, l’unité de commandement chère à H. Fayol (comme nous


le verrons ci-dessous) est rompue du fait que l’ouvrier est soumis à la fois à
l’autorité de son chef hiérarchique (autorité hiérarchique en ligne exercée
par le line manager) et à l’autorité fonctionnelle d’une équipe de contrôleurs
spécialistes (autorité fonctionnelle de conseil exercée par le staff manager).
Autrement dit, la ligne hiérarchique de commandement qui relie chaque
ouvrier à son chef direct, est doublée par une deuxième ligne fonctionnelle
qui le relie à différents spécialistes. Ainsi, F. Taylor prône une organisation
de type « staff and line », c’est-à-dire de type « hiérarchique et fonctionnel »
ou « hiérarchico-fonctionnel ».

L’application de ces quatre principes a effectivement permis d’augmenter les


gains de productivité dans des proportions très notables. C’est ainsi que la
quantité de fonte chargée sur des chariots par un ouvrier, est passée de 12,5
T/jour à 48 T/jour suite à une meilleure combinaison de postures, de
procédures, de techniques et d’outils ainsi qu’à l’adoption du salaire au
rendement. Cet accroissement de la productivité du travail a ainsi profité aux
deux parties en permettant aux employés d’accroitre leur rémunération et aux
employeurs d’accroitre leurs profits.

Il faut souligner ici le caractère réellement révolutionnaire des innovations


introduites par F. Taylor, car il n’existait à l’époque aucune norme pour mesurer
l’efficacité du travail. Ainsi, les ouvriers faisaient exprès de travailler lentement,
tandis que les dirigeants prenaient des décisions basées sur leur intuition, c.à.d.
sans base rationnelle : il ne pouvait en être autrement du fait que rien n’étant
fait pour savoir si le poste auquel un ouvrier était affecté, correspondait bien à
ses capacités et aptitudes. Par conséquent, chacun des partenaires estimait que
ce que l’un avait gagné l’avait été à son détriment (équation à sommes nulles).
12

Il faut aussi souligner que F. Taylor a eu constamment à l’esprit l’objectif de


concilier le patron (dirigeant d’entreprise) et l’ouvrier (exécutant). Cependant,
force est de reconnaitre que ses principes n’ont pas intégré les aspects sociaux
et psychologiques de l’ouvrier, sauf en ce qui concerne le salaire qui était, grosso
modo, lié au rendement de l’ouvrier.

C’est ainsi que les conséquences psychologiques et sociales de l’application de


ses principes de l’O.S.T., en termes notamment de manque d’initiative des
ouvriers et de monotonie du travail, ont conduit à déshumanisation, à la
déqualification et à l’aliénation du travail.

Taylor a eu quatre principaux disciples qui ont étudié, chacun, un aspect


particulier du Management Scientifique pour mettre au point leurs propres
méthodologies : Henry Ford, les époux Franck et Lilian Gilbreth, et Henry
Gantt.

1.4. Henry Ford (1863-1947)

Henry Ford est un industriel qui a fondé la société automobile Ford Company en
1903. En 1908, il a lancé la Ford T, un modèle économique qui deviendra vite le
symbole de la société de consommation de masse naissante aux Etats-Unis : il
va le fabriquer en si grande série qu’il va représenter la moitié des véhicules
circulant aux Etats-Unis en 1918. Pour arriver à cette performance inouïe, il a
combiné les principes de l’O.S.T. de F. Taylor avec ses propres innovations
technologiques et salariales connues sous le nom de « Fordisme »2, à savoir :

• Le travail à la chaîne ou ligne de montage qui lui a permis de diviser par 9


le temps de montage de la Ford T en l’espace de 12 ans : il est ainsi passé de
12 h en 1908 à 1h20’ seulement en 1920. Ce travail à la chaîne comporte les
deux principaux aspects ci-après :

- l’utilisation d’un convoyeur qui transporte les pièces d’un poste à un


autre et qui réduit ainsi les temps morts (ce ne sont plus les ouvriers
qui se déplacent vers les pièces, mais les pièces vers les ouvriers) ;
- l’introduction du travail à la chaîne (dont il est l’inventeur et non F.
Taylor) qui impose un rythme de travail aux ouvriers et qui permet
donc d’augmenter les cadences.

2
Ford H., Ma vie et mon œuvre, Payot, Paris, 1925.
13

• La standardisation par la fabrication d’un même modèle (la Ford T) d’une


même couleur (le noir). D’où, réduction importante du coût des intrants, du
coût unitaire total et donc aussi du prix de vente.

• La production de masse qui permet de faire des économies d’échelle et donc


de réduire encore plus le coût unitaire et donc le prix de vente.

• L’augmentation très sensible des salaires (5$/jour contre une moyenne de


2$/jour dans le reste de l’industrie automobile de l’époque) suite à
l’augmentation de la productivité, afin de permettre à tout le monde de
s’acheter sa propre voiture, c.à.d. la Ford T. C’est ainsi qu’en 1921, la Ford T
ne coûtait que 415 $ alors que le salaire d’un ouvrier de Ford atteignait 480
$/mois (120 $/semaine).

1.5. Franck B. Gilbreth (1868-1924) et Lilian Gilbreth (1878-1972)3

Franck Gilbreth, ingénieur en bâtiment, et son épouse Liliane Gilbreth,


psychologue, ont dirigé leurs études vers deux objectifs : (i) éliminer les gestes
inutiles (notamment dans la briqueterie) ; (ii) concevoir et utiliser les outils les
mieux adaptés pour maximiser les performances des ouvriers. A cet effet :

• ils ont été parmi les premiers à utiliser des films d’animation pour étudier
les mouvements du corps et des membres ;
• ils ont inventé le micro-chronomètre capable de mesurer les temps à 2
microsecondes près : en plaçant l’appareil dans le champ de l’ouvrier
photographié pour pouvoir déterminer le temps exact qu’il consacre à
chacun de ses mouvements, ils ont pu identifier et donc éliminer les gestes
inutiles, invisibles à l’œil nu ;
• ils ont élaboré un système répertoriant 17 mouvements élémentaires du
corps qu’ils ont baptisé THERBLIGS (anagramme de Gilbreth), ce qui a
facilité la mesure des temps (mesure des temps des mouvements ou motions
times measurement) et l’allocation des temps aux ouvriers pour l’exécution
des tâches (temps alloués ou temps standards).

1.6. Henry Gantt (1861-1919)

3
Gilbreth F., Motion study, D. Van Nostrand, New York, 1911) ; Gilbreth F. et Gilbreth
L., Applied motion study, Sturgis & Walton Co, New York, 1917; Gilbreth F. et Gilbreth
L., Time and motion study as fundamental factors in planning and control, The Mountain
Press, New Jersey, 1921.
14

Ce collaborateur de Taylor chez « Midvale et Bethlehem » a spécifié sa pensée


dans deux ouvrages4. On retiendra qu’il est surtout connu pour :

• avoir mis au point une méthode de motivation consistant à accorder une


prime, d’une part, aux ouvriers qui achèvent leur tâche avant le temps
imparti, et, d’autre part, au contremaître pour chaque ouvrier ayant respecté
les délais lui impartis ainsi qu’une bonification si toute son équipe y arrive ;
• avoir inventé un graphique à barres comme outil de planification et de
contrôle du travail, plus connu sous le nom de « Diagramme de Gantt ».

1.7. Henri Fayol (1841-1925)

Alors que F. Taylor et ses disciples sont des scientifiques qui s’intéressent au
management des ateliers, le français H. Fayol, Directeur Général d’une grande
entreprise charbonnière dénommée « Compagnie de Commentry », s’intéresse
à la direction des entreprises. Ainsi, H. Fayol est à la direction ce que F. Taylor
est à l’atelier, le premier en tant que fondateur du courant de la « Théorie
Administrative » ou de l’« Organisation Administrative du Travail » (OAT) et
le second en tant que fondateur du « Management Scientifique » ou de l’«
Organisation Scientifique du Travail » (OST).

a. Fonctions et activités de l’entreprise


H. Fayol a ainsi classé les activités de l’entreprise en six groupes de
fonctions correspondant à un certain nombre d’activités 5 , comme
l’indique le tableau ci-après.
Tableau n° 1 : Fonctions et activités de l’entreprise selon H. Fayol
FONCTIONS ACTIVITES
Administrative Prévoir, organiser, commander, coordonner et contrôler
= Direction
Technique Produire, transformer
Commerciale Acheter, vendre
Financière Rechercher et gérer les capitaux
Comptable Calculer le prix de revient, faire les inventaires et établir les
bilans

4
Gantt H., Work, wages and profits, Engineering Magazine Co, New York, 1916 ; Gantt
H., Organizing for work, Harcourt, Brace and Howe, New York, 1919.
5
Fayol H., Administration Générale et Industrielle, Dunod, Paris, 1918. Administration
Générale et Industrielle, Dunod, Paris, 1918.
15

Sécurité Assurer la sécurité du personnel et des biens


Source : Bussenault C. et Pretet M., Economie et Gestion de l’Entreprise,
3ème édition, Librairie Vuibert, Paris, 2002, p. 29

Pour H. Fayol, le management correspond à la fonction administrative


ou direction et il le définit comme un ensemble de cinq fonctions, à savoir
:

• Prévoir : « scruter l’avenir et dresser le programme d’action » ;


• Organiser : « constituer le double organisme, matériel et social, de
l’entreprise » ;
• Commander : « faire fonctionner le personnel » ;
• Coordonner : « relier, unir, harmoniser tous les actes et tous les efforts
»;
• Contrôler : « veiller à ce que tout se passe conformément aux règles
établies et aux ordres donnés ».
H. Fayol précise par ailleurs que :

• le management est donc un métier que l’on doit apprendre sur les
bancs de l’université au même titre qu’on apprend à devenir médecin,
ingénieur, chimiste, géologue, biologiste, comptable, psychologue ou
avocat ;
• le management est différent des cinq autres fonctions de l’entreprise
(production, achat/distribution, finances, comptabilité et sécurité) ;
• le management est une fonction universelle, car commune à toutes les
activités humaines, de la tenue d’une maison à l’administration d’un
Etat.

b. Les principes de management d’H. Fayol

Pour permettre au manager de s’acquitter correctement des cinq


fonctions managériales, H. Fayol définit les quatorze principes du
management ci-après, principes qui, pour la plupart, renforcent la
centralisation pour respecter l’unité de commandement :

• la division du travail : elle permet de produire plus avec la même


quantité d’effort ;

• l’autorité : c’est le droit reconnu au manager de donner des ordres et


de se faire obéir ;
16

• la discipline : elle est constituée de l’obéissance aux ordres des


supérieurs, de l’assiduité au travail, de la tenue, des signes extérieurs
de respect envers les supérieurs ;

• l’unité de commandement : un subalterne ne doit recevoir des ordres


que d’un seul supérieur pour exécuter les tâches lui assignées ;

• l’unité de direction : tous les supérieurs doivent être unis en termes


d’instructions à donner et des actions à mener pour atteindre les
objectifs de l’entreprise ;

• la subordination des intérêts individuels à l’intérêt général :


l’intérêt d’un agent ou d’un groupe ne doit pas primer sur celui de
l’entreprise, de même que celui d’un membre de la famille ne doit pas
passer devant celui de la famille, au même titre que l’intérêt d’un
citoyen ou d’un groupe de citoyens doit s’effacer devant celui de
l’Etat ;

• la rémunération : en tant que prix du service rendu par l’agent à


l’entreprise, le salaire doit être équitable et donner satisfaction tant à
l’agent qu’à l’entreprise ;
• la centralisation : seul l’intérêt de l’entreprise (objectifs, performance)
doit être pris en compte pour déterminer le degré de la centralisation
(importance du rôle donné au supérieur) et de la décentralisation
(importance du rôle donné aux subalternes) ;

• la hiérarchie : c’est la ligne de commandement qui va du sommet à la


base de l’entreprise ;

• l’ordre : (i) l’ordre matériel implique qu’une place ait été réservée à
chaque objet et que chaque objet soit à sa place ; (ii) l’ordre social
implique qu’une place ait été réservée à chaque agent en fonction de
ses capacités et que le bon agent soit à la bonne place (The right man in
the right place) ;

• l’équité : pour encourager le personnel à donner le meilleur de


luimême dans l’exécution des tâches lui assignées, il doit être traité
avec équité, c’est-à-dire en combinant bienveillance et justice ;
17

• la stabilité du personnel : il faut tout mettre en œuvre pour assurer


la stabilité du personnel, car l’instabilité est à la fois cause et
conséquence d’un mauvais fonctionnement de l’entreprise ;

• l’initiative : il faut encourager les supérieurs à donner de l’initiative


à leurs subalternes, initiative comprise comme la liberté de proposer
ou d’appliquer tant dans la conception que dans l’exécution, étant
donné que cela accroit les performances de l’entreprise ;

• l’union du personnel : il faut promouvoir et encourager l’harmonie


et la cohésion au sein de l’équipe dirigeante, entre les exécutants et
entre les dirigeants et les exécutants, car « L’union fait la force ».

1.8. Max Weber (1864-1920)

Ce grand érudit allemand (juriste, économiste, historien, philosophe) est


considéré comme le fondateur de sociologie.

Après avoir étudié l’Administration Publique de la Prusse, il va remettre en


cause l’autorité basée sur la tradition et le charisme pour une autorité basée sur
la « bureaucratie » c’est-à-dire sur le droit et la rationalité. En effet, il distingue
les deux modèles d’organisation de son époque ci-après et propose le sien :

a. Le modèle de la légitimité traditionnelle

C’est le modèle où l’autorité du leader est basée sur la tradition. Appliqué


aux entreprises, la légitimité du leader est donc basée sur les coutumes
et les habitudes héritées de l’histoire de l’entreprise telle que forgée par
son fondateur et ses successeurs. Tel est le cas notamment avec les
entreprises familiales.

b. Le modèle de la légitimité charismatique

C’est le modèle où l’autorité du leader est basée sur le « charisme ». Le


charisme est une combinaison, dans le chef du leader, des qualités
personnelles extraordinaires et d’un pouvoir de séduction tout aussi
extraordinaire qui provoquent l’attachement des foules. Le charisme
d’une personne l’élève au niveau d’un héros et lui confère un caractère
quasi sacré. Ainsi, les suiveurs du leader charismatique acceptent de se
soumettre à son autorité en reconnaissance de ses qualités
extraordinaires.
18

Cependant, une organisation qui repose sur la soumission totale et le


dévouement quasi sacré à une personne, reste instable et peut même
disparaitre avec la disparition du leader.

Comme leaders charismatiques dans la sphère politiques, on peut citer


Théodore Roosevelt, Adolf Hitler, Mahatma Gandhi, Mao Tsé Toung,
Charles De Gaulle, Winston Churchill, John Kennedy, Martin Luther
King, Nelson Mandela et Lech Walesa. Dans le monde des affaires, on
peut prendre les cas des grands capitaines d’industries qui ont été
souvent des innovateurs dans leurs secteurs respectifs tels qu’André
Citroën des Automobiles Citroën, Marcel Dassault de Dassault Aviation,
Bill Gates de Microsoft, Steve Jobs d’Apple, Richard Branson de Virgin
et Carlos Ghosn de Renault-Nissan.

c. Le modèle de la légitimité rationnelle ou légale

C’est un modèle où l’autorité du leader est basée sur le droit et la


rationalité, c’est-à-dire sur des textes juridiques opposables à tous et qui
constituent donc la règle applicable à tous (statuts et règlement intérieur).
Ainsi, c’est la fonction qui est investie d’une autorité et non la personne :
on n’obéit pas à une personne, mais à une personne investie d’une
légalité. C’est donc le modèle « bureaucratique » ou « gouvernement des
bureaux » qui allie le droit à la raison.

Pour M. Weber, ce modèle doit être reposer sur deux piliers pour donner
les résultats attendus :

• le pilier de la compétence qui est censé garantir l’efficacité dans la


mesure où c’est le seul critère qui est pris en compte pour nommer
une personne à une fonction et donc pour lui conférer une quelconque
autorité ;
• le pilier de la rigueur qui est censé garantir l’égalité de tous dans la
mesure où les règles communes sont appliquées indistinctement en
éliminant toutes sortes de subjectivités (népotisme, clientélisme,
faveurs).

Pour M. Weber, ce modèle doit par ailleurs se conformer aux grands


principes ci-après :

• la division du travail ;
• la hiérarchisation claire du pouvoir ;
19

• la définition stricte de chaque emploi avec des tâches claires et


explicites ;
• la sélection formelle des candidats sur base de leurs qualifications
professionnelles telles qu’attestées par leurs diplômes ;
• la fixation des salaires selon le rang hiérarchique de chaque agent et
les responsabilités assumées par lui ;
• les règles et les normes formellement définies ;
• l’évolution professionnelle en fonction de l’ancienneté ou du
jugement des prestations par le supérieur6.

Le modèle de M. Weber a subi des très nombreuses critiques du fait des


effets négatifs imputables à sa rigidité, au point que le mot « bureaucratie
» est devenu synonyme de lenteur morbide et d’inefficacité totale.

CHAPITRE 2 : L’ECOLE DES RELATIONS HUMAINES

2.1. Origines et postulats de l’Ecole des Relations Humaines

Les insuffisances de l’Ecole Classique, la grande crise de 1929 et l’influence de


la psychologie appliquée (issue des travaux de Sigmund Freud), ont entrainé la
contestation de la pensée classique et de son rationalisme. C’est ainsi qu’est née
l’Ecole des Relations Humaines qui date des années 1930.

Cette école a comme point de départ un constat et de ce constat découle un


principe fondamental :

• Constat : les résultats obtenus par les managers sont en grande


partie tributaires de la collaboration qu’ils obtiennent ou qui
s’établit avec leurs agents.

6
Weber M., The social and economic organizations, Free Press, New York, 1947.
20

• Principe fondamental : il faut humaniser les méthodes de


management pour la satisfaction des employés, car un
employé satisfait devient automatiquement plus productif.

Cette école a permis d’asseoir nos connaissances actuelles sur la gestion des
ressources humaines à travers des nombreuses notions et techniques, dont :

• le leadership ;
• la motivation ;
• la détection des profils psychologiques ;
• la définition des postes et des organigrammes ;
• le travail en équipe ;
• l’évaluation des performances ;
• la gestion des conflits ;
• les enquêtes sur les attitudes ;
• l’orientation professionnelle ;
• la formation des cadres ;
• la participation ;
• les systèmes de rémunération par équipe ; les techniques de
négociation.

Comme on le voit à travers l’ensemble du corps de connaissances mis au point,


cette école compte de très nombreux tenants, principalement des psychologues
et des sociologues, dont nous retenons les principaux ci-après : Robert Owen,
Mary Parker Follet, Hugo Münsterberg, Elton Mayo, Chester Barnard, Kurt
Lewin, Abraham Maslow, David McClelland, Frederick Herzberg, Douglas
Mac Gregor, Dale Carnegie, Richard Hackman & Greg Odham, John Adams.

2.2. Robert Owen (1771-1858)

Ce chef d’entreprise écossais peut être considéré comme le précurseur de cette


école. En effet, il a été révolté par les conditions de travail de son époque (travail
des enfants de moins de 10 ans, journées de 13 heures de travail, mauvaises
conditions de travail,….), reprochant ainsi aux industriels de « mieux traiter
leurs équipements que leurs ouvriers ». Il s’est donc rangé du côté des
réformistes, en améliorant les conditions de travail des ouvriers, ce qui devait
avoir comme conséquence directe l’accroissement du profit des entreprises.
21

C’est ainsi que dès 18257, il va favoriser les horaires réglementés, la pause repas
payée, la législation sur le travail des enfants, la promotion de l’instruction
publique, la fourniture des outils de travail par l’entreprise et les projets d’utilité
publique.

2.3. Mary Parker Follett (1868-1933)

Elle soutient que l’organisation des entreprises peut être étudiée du point de
vue des comportements individuels et collectifs8. Elle donne ainsi une vision
humaniste de l’entreprise en estimant notamment que la gestion des entreprises
doit se fonder sur une éthique collective plutôt que sur l’individualisme, le
potentiel de chacun ne pouvant s’exprimer qu’à travers le groupe.

Elle en conclut que le travail du manager doit consister à harmoniser les efforts
individuels pour arriver à les coordonner dans un effort collectif impliquant
l’exercice du pouvoir avec les employés. Ainsi, managers et travailleurs sont
des partenaires au sein d’un même groupe. Ce qui implique que les managers
doivent diriger les employés en s’appuyant sur leur expertise et leurs
connaissances, et non sur l’autorité formelle liée à leur position.

2.4. Hugo Munsterberg (1863-1916)

Il est considéré comme le père de la psychologie industrielle9. Celle-ci peut se


définir comme l’étude scientifique des individus au travail en vue d’optimiser
leur productivité et leur adaptation professionnelle. Il recommande notamment
:

7
Owen R., A new view of society, E. Bliss & White, New York, 1825.
8
Follett M., The new state : group organization, the solution of popular government,
Longman Green, Londres, 1918.
9
Munsterberg H., Psychology and industrial efficiency, Houghton Mifflin, New York,
1913.
22

l’adoption des tests psychologiques pour améliorer la sélection des


employés ;
• l’apprentissage comme moyen de formation ;
• l’étude du comportement humain pour déterminer les techniques de
motivation les plus efficaces.

Ce faisant, il a établi un lien entre deux disciplines, le management scientifique


et la psychologie industrielle : il veut donc améliorer l’efficacité des entreprises
industrielles par l’analyse scientifique et par un meilleur ajustement des
compétences industrielles aux exigences des différents emplois.

A ce titre, il doit être considéré comme le précurseur des connaissances actuelles


en matière de sélection, de formation professionnelle, de définition des postes
et de motivation.

2.5. Elton Mayo (1880-1949)

Ce professeur de Harvard est le fondateur du « Mouvement des Relations


Humaines » et de la sociologie du travail. Il a réalisé beaucoup d’enquêtes et
d’expériences sur la psychologie industrielle dont la plus connue est celle qu’il
a conduite, à partir de 1927, dans les usines Hawthorne de Western Electric Co à
Chicago avec ses collaborateurs de la Harvard Business School10.

Dans cette expérience, il a voulu étudier l’effet des variations de


l’environnement physique du travail et des conditions de travail et de
rémunération (éclairage, définition des postes, horaires et aménagement du
temps de travail quotidien et hebdomadaire, introduction du temps de repos,
primes et grilles des salaires individuelles et collectives) sur la productivité d’un
groupe expérimental d’ouvriers dans un atelier de bobinage. On peut ainsi
résumer les résultats de cette expérience :

• la productivité du groupe expérimental a augmenté avec l’amélioration des


conditions de travail et de rémunération par rapport à celle du groupe
témoin : c’était l’effet attendu ;
• la productivité a continué à augmenter dans le groupe expérimental même
si on détériorait les conditions de travail et de rémunération : c’était l’effet
inattendu appelé « Effet Hawthorne ».

10
Mayo M., The human problems of an industrial civilization, McMillan, New York, 1933.
23

Il en a tiré plusieurs conclusions dont les trois principales ci-après :

L’augmentation de la productivité n’était pas seulement due à


l’amélioration des conditions de travail et de rémunération, mais au
changement des relations sociales : (i) au sein du groupe expérimental
devenu homogène ; (ii) entre le groupe expérimental et la Direction (du fait
notamment de l’attention leur apportée par leurs chefs).

• Le comportement humain ne s’explique pas seulement par la motivation


économique (l’argent), mais aussi par des facteurs de groupes que sont les
normes, les sentiments et la sécurité du groupe.

• La nécessité de mettre en place des structures d’autorité donnant plus de


responsabilité aux travailleurs.

2.6. Chester Barnard (1886-1961)

Contrairement à M. Weber qu’il a beaucoup lu, cet homme d’affaires américain


qui a été Président de Bell Telephone Cy New Jersey, ne considère pas l’entreprise
comme un système impersonnel, mais plutôt comme un système composé
d’êtres humains et donc reposant sur l’ensemble des interactions sociales.

Par conséquent, la principale fonction du manager, pour lui, consiste à


communiquer avec ses collaborateurs et à les stimuler pour obtenir d’eux un
effort plus important. Ainsi, la réussite d’une entreprise dépend en grande
partie de la capacité du manager à entretenir de bonnes relations avec ses
employés et à obtenir leur soumission à son autorité11.

La réussite de l’entreprise dépend aussi de la qualité des relations que le


manager pourra nouer avec les individus et les institutions que l’entreprise est
appelée à côtoyer régulièrement (actionnaires, fournisseurs, banquiers, clients,
pouvoirs publics,…). Par conséquent, le manager se doit d’abord d’examiner
l’environnement externe de son entreprise pour, dans un deuxième temps,
adapter ses méthodes de gestion.

2.7. Kurt Lewin (1890-1947)

11
Chester I. Barnard, The function of Executive, Harvard Business Press, Cambridge,
Ma, 1938.
24

Il est à l’origine de la dynamique des groupes 12 , notion qui s’applique


notamment aux champs ci-après :

la décision du groupe comme procédure de changement : il est plus facile


de changer les individus appartenant à un groupe que de changer chacun
d’eux séparément ;
• les styles de leadership et leur influence tant sur l’atmosphère du groupe que
sur le fonctionnement du groupe ;
• les processus d’émergence des structures de groupes en relation avec les
processus d’influence.

2.8. Abraham Maslow (1908-1970)

Ce psychologue a classé les besoins de l’homme en cinq catégories et, à partir


de cette classification, il a élaboré une théorie de la motivation connue sous le
nom de « Théorie des Besoins de Maslow » ou la « Hiérarchie des Besoins de
Maslow »13. C’est parmi les théories de la motivation les plus connues.

a. La hiérarchie des besoins de Maslow

Pour A. Maslow, les besoins humains sont au nombre de cinq


:

• les besoins physiologiques : ce sont les besoins fondamentaux de survie


et qui sont relatifs à l’alimentation (eau, nourriture), aux soins de santé,
à l’abri (contre le froid, la chaleur, les intempéries), à l’habillement, au
sommeil et à la satisfaction sexuelle ;
• les besoins de sécurité : ce sont les besoins de se mettre à l’abri des
dangers physiques et de la crainte de ne plus pouvoir satisfaire les
besoins physiologiques ;
• les besoins sociaux d’affiliation, d’acceptation ou d’appartenance : ce
sont les besoins d’affection, d’amitié, d’acceptation par les autres et
d’intégration au sein d’un ou plusieurs groupes, besoins découlant du
fait que l’homme un être social ;

12
Lewin K., A dynamic theory of personality, Selected papers, Lewin Press, 2013 (première
publication en 1935).
13
Maslow A., A theory of human motivation, in Psychological Review, Juillet 1943, pp.
370-396.
25

• les besoins d’estime : ce sont les besoins d’estime interne (estime et


respect de soi-même par l’indépendance et la réussite) et d’estime
externe (estime et respect des autres par le statut social, la considération,
le prestige et l’attention dont on est l’objet) ;
• les besoins d’autoréalisation : ce sont les besoins de développement
personnel et de réalisation de soi par l’utilisation de tout son potentiel.
26

Figure n° 3 : Pyramide des besoins de Maslow

5. Besoins
d’autoréalisation

4. Besoins’estime
d

3. Besoins sociaux

2. Besoins de sécurité

1. Besoins physiologiques

Source : Terry G. & Franklin S., Les principes du management, 8ème édition,
Tendances Actuelles, Economica, 1985, p. 352.

b. Principales conclusions de Maslow


A partir de cette échelle des besoins de l’homme, A. Maslow tire trois
importantes conclusions :

• un individu ne songera à satisfaire les besoins supérieurs que si les


besoins inférieurs sont totalement ou en grande partie satisfaits ;
• dès qu’un groupe de besoins est satisfait, il cesse d’être une source de
motivation, ce qui oblige à passer au groupe suivant pour continuer à
motiver l’individu ;
• par conséquent, pour motiver une personne, il faut d’abord la situer sur
cette échelle des besoins et satisfaire le groupe de besoins qui correspond
à sa situation particulière.

c. Principales critiques de la théorie de Mslow


La hiérarchisation des besoins d’A. Maslow n’a été validée par aucune étude
empirique et a été l’objet de beaucoup de critiques, notamment les trois
suivantes :

• les besoins dits fondamentaux ne sont pas immuables, mais varient d’une
personne à l’autre, d’une époque à l’autre, d’un lieu à l’autre (cas de
l’habillement, de la nourriture ou du logement) ;
• des recherches ont démontré que même l’ouvrier le plus modeste a aussi
des besoins d’estime et d’autoréalisation, même si l’idée que l’on se fait
27

du statut social et de la fierté du devoir accompli variera d’une personne


à une autre ;
• certains besoins se chevauchent sur cette échelle et sont parfois difficiles
à classer (cas du besoin relatif aux vacances).
Cependant, il n’en reste pas moins vrai que cette théorie a connu beaucoup
de succès et a été à la base des théories de motivation beaucoup plus
élaborées.

2.9. David McClelland

Il est l’auteur de la théorie des trois besoins essentiels14 selon laquelle il existe
trois besoins essentiels qui servent de moteurs à l’activité professionnelle, à
savoir :

• Le besoin d’accomplissement ou de réussite. C’est le désir de se surpasser,


d’aller au-delà des normes fixées et de se battre pour réussir. Autrement dit,
c’est le désir de travailler mieux et plus efficacement. Ce besoin est plus
prégnant chez les individus entreprenants qui se différencient par leur désir
de mieux faire, qui acceptent d’assumer totalement la responsabilité de leurs
actes (et non de se défoncer sur les autres ou sur la malchance pour expliquer
leurs échecs) et qui aiment se fixer des objectifs raisonnablement exigeants
(et non des objectifs trop faciles ou trop difficiles à atteindre).

• Le besoin de pouvoir. C’est le désir d’imposer aux autres un comportement


qu’ils n’auraient pas adopté si cela ne dépendait que d’eux, d’avoir un
impact et d’exercer une influence sur les autres, d’assumer la direction des
évènements. Ceux chez qui ce besoin est le plus important, préfèrent des
emplois concurrentiels et prestigieux.

• Le besoin d’affiliation. C’est le désir d’établir des relations


interpersonnelles amicales et intenses, d’être aimé et accepté. Ceux chez qui
ce besoin est le plus important, préfèrent le travail en équipe plutôt que la
compétition.

2.10. Frederick Herzberg (1923-2000)

Ce professeur de psychologie a fait beaucoup de recherches sur la motivation


de l’homme au travail et l’adéquation des méthodes d’organisation du travail
aux besoins de l’homme au travail. Il est l’auteur de la « Théorie des deux

14
Mc Clelland D., The Achieving Society, The Free Press, 1961.
28

facteurs »15 qui part du principe que l’attitude d’un employé vis-à-vis de son
travail peut être déterminante pour sa réussite ou pour son échec.

a. Facteurs extrinsèques et facteurs intrinsèques


C’est ainsi qu’il a réalisé une grande enquête dans laquelle il a demandé
aux employés de décrire les situations dans lesquelles ils se sentaient très
satisfaits et très insatisfaits de leur travail. Ceci lui a permis de dégager
deux types de facteurs :

• Facteurs extrinsèques, d’hygiène ou de maintenance. Ils sont liés


essentiellement aux besoins physiologiques et de sécurité (besoins les
plus bas dans l’échelle de Maslow). Ces facteurs extrinsèques se
réfèrent à tout ce qui touche au travail et à son environnement : la
surveillance, la politique du travail, les relations avec les supérieurs,
les relations avec les collègues, les relations avec les subalternes, les
conditions du travail, les salaires et la sécurité. En cas de
nonsatisfaction de ces besoins, ces facteurs augmentent
l’insatisfaction du travailleur et donc sa démotivation.

• Facteurs intrinsèques ou moteurs. Ils sont liés essentiellement aux


besoins d’estime et d’autoréalisation (les besoins les plus élevés dans
l’échelle de Maslow). Ces facteurs intrinsèques se réfèrent au contenu
même du travail, à savoir l’accomplissement, la reconnaissance, la
responsabilité, la promotion et le développement personnel. En cas
de satisfaction de ces besoins, ces facteurs intrinsèques ou moteurs
augmentent la satisfaction du travailleur et donc sa motivation.

b. Satisfaction et insatisfaction

Pour Herzberg, la satisfaction n’est donc pas le contraire de


l’insatisfaction. Par conséquent, quand on élimine les facteurs
d’insatisfaction, on n’augmente pas pour autant la satisfaction et donc la
motivation. Il suggère donc d’opposer « satisfaction » à « absence de
satisfaction » et « insatisfaction » à « absence d’insatisfaction ».

Ainsi, pour augmenter la motivation, il faut augmenter la satisfaction en


jouant sur les facteurs intrinsèques ou moteurs, tandis que pour
diminuer la démotivation, il faut diminuer l’insatisfaction en jouant sur
les facteurs extrinsèques ou d’hygiène. Il en conclut donc que les

15
Herzberg F., Work and the nature of man, World Publishing, 1966.
29

méthodes d’organisation du travail doivent apporter satisfaction à ces


deux types de besoins et donc être de nature à :

• réduire l’insatisfaction du travailleur en améliorant


l’environnement du travail, les conditions du travail et la
rémunération du travail ;
• augmenter la satisfaction du travailleur en faisant la démarche
inverse à celle de Taylor qui a consisté à appauvrir le travail (par
la rationalisation et la simplification), c.à.d. en densifiant le
contenu du travail par le recours aux techniques de
restructuration du travail que nous verrons plus loin ;

c. Critiques du modèle

Cette théorie a été l’objet de deux principales critiques portant


respectivement sur :

• la méthode utilisée pour recueillir les informations ;


• la non prise en considération des variables situationnelles.

Malgré ces critiques, cette théorie a connu un grand succès, car elle est à
la base notamment de la restructuration du travail (élargissement des
tâches, enrichissement des tâches et groupes semi-autonomes).

2.11. Douglas Mac Gregor (1906-1964)

Il est l’auteur de la Théorie X et la Théorie Y16. En observant le comportement


des managers, a conclu que ces derniers sont répartis en deux catégories qui
correspondent à deux profils différents décrivant ainsi deux types de préjugés
correspondant l’un à la Théorie X et l’autre à la Théorie Y.

a. La Théorie X

Les partisans de cette théorie ont une vision négative de l’homme et


considèrent que ce dernier :

• déteste naturellement le travail et fait tout pour l’éviter ;


• doit par conséquent être contraint ou menacé de représailles pour
qu’il atteigne les objectifs lui assignés ;

16
McGregor D., The human side of enterprise, McGraw Hill, New York, 1960.
30

• n’aime pas les responsabilités et préfère être surveillé de près ;


• place la sécurité en tête de ses préoccupations et n’a aucune ambition.

b. La Théorie Y

Par contre, les partisans de cette théorie ont une vision positive de
l’homme et considèrent que :

• le travail représente pour l’homme une activité aussi innée ou


naturelle que le jeu ou le repos ;
• l’employé est capable de se gérer et de s’auto-discipliner s’il se sent
concerné par les objectifs de l’entreprise ;
• l’individu moyen peut assumer, voire rechercher, les responsabilités
;
• la capacité de prendre de bonnes décisions n’est pas seulement
l’apanage des managers, mais on la retrouve également chez
l’individu moyen.
• Du point de vue de la motivation, les partisans de la Théorie X
supposent donc que ce sont les besoins les plus bas de l’échelle de
Maslow (besoins physiologiques et de sécurité) qui dominent chez
l’homme, lequel n’obéit donc qu’à la « carotte » ou au « bâton ».

c. Les conséquences du point de vue de la motivation

Du point de vue de la motivation, les partisans de chaque théorie vont


tirer des conséquence différentes :

• Les partisans de la Théorie X supposent donc que ce sont les besoins


les plus bas de l’échelle de Maslow (besoins physiologiques et de
sécurité) qui dominent chez l’homme, lequel n’obéit donc qu’à la «
carotte » ou au « bâton ».
• Quant aux partisans de la Théorie Y, ils supposent au contraire que
les besoins les plus élevés dans l’échelle de Maslow (besoins d’estime
et d’autoréalisation) sont prédominants chez l’homme au travail.

d. Les conséquences du point de vue du style de direction

La même différence va se rencontrer en termes de styles de direction


entre les partisans des deux théories.
31

• Les partisans de la Théorie X ont un style de direction centré sur le


supérieur et sont donc partisans d’une forte centralisation.
• Par contre, les partisans de la Théorie Y ont un style de direction
centré sur les subalternes et sont donc partisans d’une forte
décentralisation.

e. Point de vue de D. Mc Gregor

Pour sa part, McGregor estime que les hypothèses de la Théorie Y sont


plus valables que celles de la Théorie X. Par conséquent, il conclut que
pour mieux motiver l’homme au travail, il faut le faire participer à la
prise de la décision, lui confier un travail stimulant, lui donner des
responsabilités et améliorer les relations au sein du groupe dans lequel il
travaille.

2.12. Dale Carnegie (1888-1955)

Cet écrivain et conférencier a eu une forte influence entre 1930 et 1950 sur des
millions de lecteurs comme sur des milliers de managers assistant à ses
séminaires. Il explique que pour réussir, il faut notamment :

• faire en sorte que les autres se sentent importants, en leur témoignant une
sincère reconnaissance de leurs efforts ;
• convertir les autres à ses propres vues en leur laissant la parole, en se
montrant compréhensif et en ne les accusant jamais d’avoir tort ;
• changer l’attitude des autres en mettant en valeur leurs bons côtés et en
permettant aux fautifs de sauver la face17.

2.13. Richard Hackman (1940-2013)et Greg Oldham (1955-2020)

R. Hackman, psychologue, et Greg Oldham, économiste, sont les auteurs du «


Modèle des caractéristiques de l’emploi »18.

a. La structuration du travail et caractéristiques de l’emploi

17
Carnegie D., How to win friends and influence people, Simon & Schuster, New York, 1936.
18
Hackman R. et Oldham G., Motivation through the design of work : Test of a theory, in
Organizational Behavior and Human Performance, n° 16.
32

Selon leur modèle, la structuration du travail a un impact sur la


motivation de l’employé. La structuration du travail (job design) est la
façon dont les tâches, au sein d’une organisation, s’articulent pour
former un emploi dans le cadre d’un poste. Ainsi, tout emploi est défini
par cinq caractéristiques principales, à savoir :

• la variété des compétences : c’est le degré de diversité du travail qui


permet ou non à l’employé d’exploiter ou d’utiliser pleinement la
multitude de ses compétences et talents ;
• l’identité de la tâche : c’est l’obligation d’accomplir une tâche
complète et définie ;
• l’importance de la tâche : c’est l’impact de la tâche sur la vie privée et
professionnelle des autres ;
• l’autonomie : c’est le degré de liberté et d’initiative laissé à l’employé
dans l’organisation de son temps de travail et dans le choix de ses
méthodes de travail ;
• le feed-back : c’est la possibilité pour l’employé d’avoir une information
de retour sur l’efficacité de son travail.

b. Caractéristiques de l’emploi et motivation

Sur base de ces cinq caractéristiques, le modèle stipule que :

• plus un travail implique variété des compétences, identité de la tâche


et importance de la tâche, plus il va susciter de l’intérêt pour l’agent
et plus il va constituer un facteur de motivation ;
• plus un travail implique autonomie professionnelle, plus il va induire
un sentiment de responsabilité de l’employé par rapport au résultat
obtenu et plus il va donc constituer un facteur de motivation ;
• plus un travail permet le feed-back, plus il va permettre à l’agent de
mesurer son efficacité et plus il va constituer donc un facteur de
motivation.

c. Rôle des caractéristiques personnelles des employés

Cependant, le modèle ajoute aussi qu’il faut tenir compte des


caractéristiques personnelles des employés, lesquelles caractéristiques
expliquent que :
33

• la motivation sera plus importante chez les employés qui ont un


besoin très élevé d’accomplissement de soi (estime de soi et
autoréalisation) que chez les employés dont ce besoin est faible ;
• la technique d’enrichissement des tâches a provoqué une
augmentation de la performance ou de la satisfaction chez certains
employés et non chez d’autres ;
• l’on suggère certaines structurations du travail pour influer sur ces
cinq caractéristiques telles que la création des canaux de feed-back,
l’enrichissement des tâches, l’élargissement des tâches ou les groupes
semi-autonomes.

2.14. John S. Adams (1925)

Ce psychologue est l’auteur de la « Théorie de l’équité » 19 dont nous allons


résumer le contenu, les conséquences du point de vue de la motivation et les
critiques.

a. Contribution, rétribution et référent


Selon cette théorie, chaque individu établit subjectivement un ratio entre
sa rétribution et sa contribution, puis compare ce ratio avec celui d’un
référent pertinent.

La rétribution pour l’individu est ce qu’il gagne (en termes de salaire,


d’avantages sociaux, de statut social ou de reconnaissance), tandis que sa
contribution est ce qu’il investit (ce qu’il apporte en termes d’efforts
fournis, de responsabilités assumées, et d’expérience, de formation et de
compétence exigées).

Quant au référent du travailleur, variable essentielle dans cette théorie, il


peut appartenir à trois catégories appelées « Autrui », « Soi » et « Système
»:

• le référent « Autrui » est constitué des autres personnes, en particulier


les collègues occupant un emploi similaire dans la même entreprise,
mais aussi des employés d’autres entreprises, des amis ou des voisins
(dont la rétribution peut être connue par le travailleur à travers

19
Adams J., Towards an Understanding of Inequity, in Journal of Abnormal and Social Psychology,
n° 63, Novembre 1963, pp. 422-436.
34

notamment le bouche-à-oreille, les journaux, les magazines ou les


conventions collectives) ;
• le référent « Soi » est le travailleur lui-même par rapport notamment
à des emplois antérieurs, à une période antérieure ou à ses obligations
familiales ;
• le référent « Système » est constitué de la politique salariale de
l’entreprise et de sa gestion (p.ex. les barèmes salariaux, la tension
salariale, les avantages sociaux,…).

b. Ratio contribution/rétribution et motivation


Ainsi, si l’individu constate une inégalité ou une iniquité en comparant son
ratio à celui du référent, il se crée en lui une tension qui le pousse à se battre
pour atteindre une situation qu’il considère comme juste et équitable. En cas
de tension, trois possibilités s’offrent à lui :

• corriger lui-même sa rétribution et/ou sa contribution qualitativement


ou quantitativement ;
• amener son employeur à corriger sa rétribution ; quitter l’entreprise.

Ainsi, s’il juge que son ratio est :

• pratiquement égal à celui du référent, il se sent en situation d’équité ;


• inférieur à celui du référent, il a un sentiment d’iniquité du fait d’être
sous-payé et cherche à corriger cette iniquité, soit en baissant sa
contribution (baisse de la quantité et/ou de la qualité s’il est payé au
temps), soit en augmentant sa rétribution (accroissement de la quantité
s’il est payé à la pièce) ;
• supérieur à celui du référent, il a le sentiment d’être favorisé du fait d’être
surpayé et cherche à corriger cette situation, soit en augmentant sa
contribution (augmentation de la quantité et/ou de la qualité s’il est payé
au temps), soit en baissant sa rétribution (baisse de la quantité produite
s’il est payé à la pièce).

Cette théorie établit donc que le niveau de la motivation est fortement


influencé par le niveau de la rétribution, plus particulièrement par le niveau
du salaire, qu’il soit absolu ou relatif.

c. Critiques du modèle

Les critiques sur ce modèle sont essentiellement au nombre de deux :


35

• le mode de définition des contributions et des rétributions par


l’employé ;
• le mode d’évolution dans le temps des facteurs pris en compte.
Malgré ces critiques, le grand avantage de ce modèle est d’avoir été
validé par de nombreuses études empiriques, son application ayant
effectivement permis d’accroître la motivation des travailleurs.

2.15. Victor Vroom

Il est l’auteur de la « Théorie des attentes ou de l’expectation »20. A ce jour, elle


apparait comme la théorie la plus exhaustive en matière de motivation. Cette
théorie s’articule en quatre étapes sous forme de questions qui tournent autour
de la rétribution que le travailleur attend de son travail et de la mesure de
l’intérêt que cette rétribution suscite en lui au regard de ses propres objectifs.

• Première question : Quelles rétributions l’employé associe-t-il à son


travail ?

Ces rétribution peuvent être, soit positives (salaire, sécurité, amitié,


autoréalisation, bonnes relations de travail,…), soit négatives (fatigue,
ennui, frustration, anxiété, stress, risque de perte d’emploi,…). Il faut
souligner que l’important n’est pas la réalité de la rétribution, mais la
perception subjective qu’en a l’employé. Ainsi, plus l’employé associe à son
travail une rétribution positive, plus il a des chances d’être motivé par son
travail.

• Deuxième question : Que représentent ces rétributions en termes d’attrait


ou d’intérêt pour l’employé ?

Cet attrait et cet intérêt sont jugés par l’employé en rapport avec ses propres
besoins. Par conséquent, plus la rétribution attendue de son travail peut
l’aider à satisfaire ses besoins, plus l’employé pourra être motivé. Ainsi, si
l’employé trouve les rétributions : (i) positives, il fera tout pour les obtenir ;
(ii) négatives, il fera tout pour les éviter ; (iii) neutres, il n’aura aucune
attitude particulière.

• Troisième question : Quel comportement l’employé doit-il adopter pour


obtenir cette rétribution ?

20
Vroom V., Work and motivation, Wiley, New York, 1964.
36

Même si l’employé juge positive la rétribution qu’il attend de son travail,


cette rétribution ne le motivera pas aussi longtemps qu’il ne sait pas ce que
cela implique pour lui comme effort pour le réaliser. Ainsi, plus son
supérieur pourra lui indiquer clairement comment il devra faire son travail
et lui préciser les critères qui seront utilisés pour apprécier son efficacité,
plus l’employé pourra être motivé.

• Quatrième question : Quelles sont les chances que l’employé s’accorde


pour pouvoir faire le travail qui lui est demandé ?

En effet, la rétribution attendue du travail, même si elle est positive, ne


pourra motiver l’employé que si ce dernier se croit être en mesure de faire
le travail qui est attendu de lui. Ainsi, plus l’employé est outillé pour faire
le travail attendu de lui, plus il pourra être motivé.

On peut donc ainsi résumer cette théorie en disant que la motivation d’un
employé sera d’autant plus élevée que :

• il perçoit positivement la rétribution de son travail ;


• cette rétribution lui permet de satisfaire ses besoins ;
• le supérieur lui indique clairement ce qu’il doit faire professionnellement
pour obtenir cette rétribution ;
• il est convaincu de disposer des capacités nécessaires pour faire ce qui est
attendu de lui afin d’obtenir cette rétribution.
37

CHAPITRE 3 : L’ECOLE DE LE PRISE DE LA DECISION

3.1. Origine et postulats de l’Ecole de la Décision

La pratique du management a vite révélé que la mise en œuvre du processus


managérial tel que défini par H. Fayol (prévoir, organiser, commander, coordonner
et contrôler) impliquait, dans le chef des managers, la prise constante des décisions.
Ainsi, le travail des managers consiste à prendre des décisions dans tous les
domaines de l’entreprise (R&D, approvisionnement, production, marketing,
finances, ressources humaines), décisions dont la qualité va déterminer le niveau
de la performance de leurs organisations. Ceci est particulièrement le cas pour les
décisions stratégiques du fait qu’elles engagent l’entreprise pour le très long terme.

C’est ainsi que certains chercheurs vont décider de se pencher sur l’étude du
processus de prise des décisions en essayant de faire une synthèse entre l’Ecole
Classique et l’Ecole des Relations Humaines. Ils vont ainsi faire passer la théorie
des organisations de la conception purement rationnelle de l’Ecole Classique à une
conception qui intègre le rôle du pouvoir et des acteurs qui l’exercent.

Les principaux auteurs de l’Eole de la Décision, qui date des années 1940, sont
Herbert Simon, les disciples de ce dernier qui ont effectué leurs recherches en deux
groupes (E.P. Learned, C.R. Christensen, K.R. Andrews et W.D. Guth pour le
premier groupe, Richard Cyert, James March, Michael Cohen et Johan P. Olsen
pour le second groupe) et Igor Ansoff.

Mais avant d’arriver à ces auteurs spécialement intéressés par la prise des décisions
stratégiques, nous allons d’abord commencer par l’approche dite quantitative qui
s’intéresse à la prise des décisions tactiques.

3.2. L’Approche Quantitative

Cette approche est souvent désignée sous le nom de « Recherche Opérationnelle »


(R.O.) ou de « Science du Management ». Elle s’est développée à partir des
38

méthodes mathématiques et statistiques mises au point pendant la II ème Guerre


Mondiale.

En effet, devant exploiter au mieux ses faibles moyens aériens face à ceux de
l’Allemagne, l’Angleterre a demandé à ses scientifiques de concevoir un modèle de
répartition optimale de ses ressources. De même, l’armée américaine avait
demandé à ses scientifiques de déterminer la puissance optimale des grenades
sous-marines que ses avions et ses navires devaient larguer sur les sous-marins
allemands afin d’augmenter les chances de survie de leurs convois pendant la
traversée de l’Atlantique Nord.

Une fois la guerre terminée, ces méthodes quantitatives seront transposées dans le
monde des affaires afin d’améliorer l’efficacité de la prise des décisions. De
nombreux officiers se reconvertiront ainsi dans les affaires dont l’un des plus
connus est Robert McNamara (qui fut successivement officier de l’armée
américaine, Président de Ford, Secrétaire à la Défense et Président de la Banque
Mondiale).

L’approche quantitative du management a pour objet de fournir au manager des


bases rationnelles à la prise de décisions dans divers domaines de gestion,
habituellement dans un but de contrôle ou d’optimisation (maximisation du profit,
minimisation des coûts, amélioration de l’efficacité,…). Elle sera surtout utilisée
dans les fonctions managériales de planification et de contrôle qui se prêtent le
mieux aux méthodes quantitatives.

A cet effet, elle recourt à des méthodes de modélisation des problèmes analysés et
à des techniques d’optimisation des résultats applicables à la résolution de certains
problèmes tels que les modèles de gestion des stocks, la programmation linéaire, la
théorie des jeux, les modèles des files d’attente ou la probabilité statistique.

Les modèles de gestion des stocks


Ils permettent de déterminer l’instant de passation de la commande ainsi que la
quantité à commander pour satisfaire aux exigences de la production (en
quantité et en délai) tout en minimisant les coûts totaux (coûts de commande,
d’acquisition, de transport, de conservation, de distribution et financiers). Pour
atteindre ce double objectif, la recherche opérationnelle permet d’apporter la
réponse aux deux questions suivantes : combien commander (quantités
économiques) et quand commander (délai).

La programmation linéaire
39

L’objectif poursuivi dans la résolution d’un programme linéaire est de


déterminer les différents niveaux d’activité à réaliser eu égard aux ressources
disponibles, de façon à optimiser une fonction économique de profit ou de coût,
selon le cas. C’est donc une méthode de modélisation des problèmes
d’allocation des ressources en établissant les relations entre, d’une part, les
ressources disponibles et les activités à entreprendre, et, d’autre part, ces
dernières et la performance recherchée.

C’est ainsi que la programmation linéaire va être utilisée pour optimiser la


répartition des ressources dans divers domaines de la gestion (gestion
commerciale, financière, de la production, du personnel ou des transports). On
peut prendre comme exemples le cas de la répartition géographique optimale
des usines de fabrication des pièces de rechange et de montage d’une
entreprise pour des produits destinés à des clients répartis sur une aire
géographique donnée, ou le cas du respect des délais pour l’exécution d’un
grand ouvrage par la détermination et la gestion du chemin critique.

La théorie des jeux

Elle représente un ensemble d’outils analytiques développés pour faciliter la


compréhension des situations d’interaction entre décideurs rationnels en
situation de concurrence.

Les académies militaires ont constitué les premiers terrains d’application de la


théorie des jeux avec les jeux de guerre au cours desquels on simule des
batailles. Ces jeux de guerre ont été ensuite adaptés aux entreprises quand le
problème consiste à mettre face à face des concurrents, puisqu’ils sont
réellement en situation de « guerre économique ».

Les modèles des files d’attente

Ils aident le manager à organiser le système d’attente de manière à minimiser à


la fois le temps d’attente des clients et les coûts de gestion de ce système.

La probabilité statistique

La théorie des probabilités peut être utilisée pour le calcul rationnel des
conséquences d’une décision donnée. En d’autres termes, il est possible de
calculer mathématiquement la vraisemblance de certains événements, et
d’estimer les gains ainsi que les pertes qui résulteront des différentes
40

alternatives en se basant sur des données statistiques adéquates décrivant le


comportement d’un phénomène donné.

3.3. Le modèle d’Harvard

Ce modèle est l’œuvre de quatre chercheurs (E.P. Learned, C.R. Christensen, K.R.
Andrews et W.D. Guth) qui l’ont baptisé de leur acronyme LCAG, mais qui est plus
connu sous la dénomination SWOT. C’est un modèle décisionnel classique qui vise
donc la rationalité à travers la recherche d’une solution optimale basée sur des
éléments objectifs et précis. C’est donc un modèle qui consiste essentiellement en
un traitement des informations objectives et précises en suivant les cinq phases
ciaprès :

• la phase du diagnostic qui consiste à identifier et à formuler le problème à


résoudre ;
• la phase des critères où l’on identifie les critères sur lesquels on va se baser pour
arrêter la solution optimale au problème posé ;
• la phase de la recherche où il s’agit d’identifier les différentes réponses
susceptibles de résoudre le problème posé ;
• la phase de l’évaluation où l’on compare les différentes solutions identifiées aux
critères préalablement définis ;
• la phase du choix qui n’est rien d’autre que la prise de la décision supposée être
optimale.

En partant de ces cinq phases, ils ont mis au point un modèle de prise de décision
stratégiques qui part d’une connaissance supposée exacte de l’environnement tant
interne qu’externe de l’entreprise, modèle SWOT (Strengths, Weaknesses, Opportunities,
Threats) ou modèle FFOM (Forces, Faiblesses, Opportunités, Menaces).
Figure n° 4 : Modèle d’Harvard d’analyse et de prise de décision stratégique

Analyse externe Analyse interne


ENVIRONNEMENT ENVIRONNEMENT

Menaces Opportunités Opportunités Opportunités

CHOIX STRATEGIQUE

Source : Adapté de R. Aïm, op. cit. p. 65


41

Il faut souligner que ce modèle est basé sur les postulats de la rationalité absolue
qu’A. Simon va remettre en cause (voir infra).

3.4. Le modèle de la rationalité limitée


Herbert Simon, économiste et sociologue américain, est l’initiateur de la théorie de
la décision21. Il a ainsi décrit le processus décisionnel sous le nom de modèle IMC,
soit les trois phases de ce processus :

• Intelligence ou Compréhension qui est l’identification et la délimitation du


problème, ainsi que la définition des facteurs à prendre en considération pour
résoudre le problème ;
• Modelisation ou Modélisation qui est l’identification, la formalisation et
l’évaluation des différentes solutions envisageables ;
• Choice ou Choix qui est la hiérarchisation des solutions et la sélection de celle
qui parait la plus optimale.
Ce modèle est plus explicité quand on le subdivise en huit phases (identification
du problème, identification des critères de décision, pondération des critères de
décision, développement des différentes options, analyse des différentes options,
sélection d’une option, mise en œuvre de la décision et évaluation de la décision)
plutôt qu’en trois comme cela apparait dans la figure 4 ci-dessous :
Figure 5 : Etapes du processus décisionnel

Identification Identification Pondération Développement Analyse Sélection d ’une Mise en


du des critères de des critères des différentes des option = prise œuvre de
décision de décision options différentes de décision la
problème
options décision

Evaluation de
la décision

Source : O. Gamela Nginu, Introduction au management. Manuel d’initiation à la gestion


des entreprises, Editions Universitaires Africaines, Kinshasa, 2015, p. 81

21
Simon H., Administration et processus de décision, Economica, Paris, 1984.
42

Pour H. Simon, le processus de la prise de décision doit nécessairement être


rationnel pour permettre à l’organisation d’être efficace, c.à.d. d’atteindre ses
objectifs. Cependant, il distingue deux types de modèles de rationalités.
3.4.1. Le modèle rationnel ou le modèle de la rationalité absolue

Idéalement, la prise de la décision doit être totalement rationnelle, c.à.d. basée


sur des choix cohérents, logiques, objectifs et maximisant leur utilité par
rapport à l’objectif à atteindre. Ceci suppose les hypothèses ci-après :

• le décideur dispose d’une information complète ; le décideur poursuit des


objectifs clairs et précis ;
• le décideur ne retient, à chaque étape du processus décisionnel, que l’option
la plus adaptée à l’objectif à atteindre, la décision ne relevant que de lui seul
;
• les décisions sont prises dans l’unique intérêt de l’entreprise.

L’information étant complète, le décideur doit donc agir rationnellement, c.à.d.


dans le seul intérêt de l’entreprise et en toute connaissance de cause. Ainsi, les
conséquences de ses décisions sont d’ores et déjà connues, l’avenir étant aussi
certain que le présent.

3.4.2. Le modèle de la rationalité limitée

Cependant, ce modèle de la rationalité absolue relève d’une construction


abstraite au regard de ses hypothèses. C’est ainsi que H. Simon a mené des
études empiriques sur les conditions réelles de la prise de la décision. Ces
études lui ont permis de remettre en cause les hypothèses du modèle rationnel
au regard des réalités du terrain : le manager doit donc intégrer ces dernières
et agir le plus rationnellement possible.

D’où, la notion de rationalité limitée qui implique que le manager cherche à


prendre des décisions rationnelles dans les limites de sa capacité à gérer
l’information disponible ou en tenant compte d’autres facteurs dont il va être
fait état ci-dessous.

Le modèle de la rationalité limitée (en lieu et place du modèle de la rationalité


absolue) s’explique par les cinq facteurs et éléments ci-après.
43

a. Le choix entre solution satisfaisante et solution optimale

L’expérience montre que le manager s’arrête généralement au


premier choix qu’il juge satisfaisant étant donné qu’il est dans
l’incapacité :

• soit d’obtenir toutes les informations dont il a besoin ;


• soit d’analyser toutes les informations disponibles sur toutes les
options possibles faute de moyens de les appréhender, faute de
temps au regard de ses autres activités ou du fait de l’urgence des
problèmes à résoudre ;
• soit d’être totalement objectif du fait qu’il a ses propres intérêts à
défendre, son propre pouvoir à conserver ou à renforcer et qu’il
est donc aussi partie prenante des conflits au sein de
l’organisation.

Le manager s’arrête donc à la première solution satisfaisante, même


s’il est parfaitement conscient que cette solution n’est pas optimale.
Ainsi, la notion de « solution optimale » cède la place à la notion de «
solution satisfaisante ».

b. La multiplicité des acteurs

Cette rationalité limitée est aussi imputable au fait que, contrairement


au modèle de la rationalité absolue, la décision n’est pas le fait d’un
seul acteur, mais de multiples autres acteurs internes ou externes
(parties prenantes) ayant chacun des statuts et des intérêts différents.

D’où, toute grande décision relève d’un processus de négociation et


d’une recherche de compromis. Ceci renforce donc la réalité d’une
rationalité limitée, la décision ne pouvant faire l’économie d’une
multi-rationalité (rationalité des multiples acteurs ou somme des
rationalités partielles des différents acteurs), multi-rationalité qui
remplace la rationalité d’un seul acteur de la décision.

c. La non objectivité de l’information

Cette rationalité limitée est aussi renforcée par la non objectivité de


l’information, du fait qu’il a été observé que ce sont les acteurs qui
décident de l’information.

En effet, l’information étant le véhicule du pouvoir, les acteurs vont


la produire, la transformer ou la retenir en fonction de la décision
qu’ils veulent prendre. D’où, l’information n’est plus un élément
44

objectif pour fonder la décision, mais plutôt une variable affectée par
le déroulement du processus de décision.

d. L’escalade d’engagement

Cette rationalité limitée est également due au phénomène dit «


d’escalade d’engagement » ou des « coûts irrécupérables ». On parle
d’escalade d’engagement quand un engagement est poursuivi ou
renforcé malgré des informations négatives sur sa pertinence ou des
résultats non satisfaisants.

Ceci s’explique par le fait qu’il est parfois difficile d’admettre que la
décision initiale n’était pas la bonne au regard des enjeux, notamment
des enjeux économiques et financiers (budgets déjà dépensés, usines
déjà construites, emplois à sacrifier,…) : on préfère alors assumer le
choix initial malgré ses inconvénients, car on estime, à tort ou à
raison, que les conséquences de l’abandon du choix initial seront
encore plus coûteuses.

3.5. Les décisions programmées et les décisions non programmées


Pour H. Simon, les problèmes peuvent être classés en deux types : les problèmes
structurés et les problèmes non structurés. A ces deux types de problèmes,
correspondent deux types de décisions : les décisions programmées et les décisions
non programmées.
3.5.1. Problèmes structurés et décisions programmées

Les problèmes structurés sont des problèmes connus, familiers, simples et


faciles à cerner. Par exemple : un consommateur non satisfait d’un produit
fabriqué ou vendu par l’entreprise, un fournisseur qui n’a pas livré dans les
délais.

Pour résoudre ce type de problème, on va recourir à des décisions


programmées, c.à.d. à des décisions routinières et répétitives basées sur des
procédures standard à suivre, découlant des règles et des modèles d’action
inspirées des décisions antérieures. Les décisions programmées n’impliquent
donc pas la nécessité de parcourir toutes les cinq étapes du processus
décisionnel précédant la prise de la décision, du fait que l’information est
considérée comme suffisante et les conséquences comme certaines. Autrement
dit, ce sont des décisions « par précédent », c.à.d. basées sur des solutions déjà
appliquées avec succès par le passé. Selon H. Simon, ces décisions peuvent donc
être informatisées en utilisant la panoplie des méthodes mathématiques
analysées dans l’approche quantitative.
45

Ainsi, le recours à une décision programmée implique que le manager doit se


contenter d’appliquer une politique (règle de décision à suivre pour résoudre
un problème telle que maximiser le rapport Qualité/Coût pour tout achat à
faire) ou de suivre une procédure (affinement d’une politique avec une série
d’étapes ou d’opérations séquentielles à effectuer dans un ordre donné tel que
la procédure d’embauche ou de la dépense publique).

3.5.2. Problèmes non structurés et décisions non programmées


Ce sont des problèmes nouveaux ou inhabituels pour lesquels les informations
disponibles sont incomplètes, difficiles à obtenir et/ou à interpréter, tels que
entrer sur un nouveau marché, acquérir un concurrent ou fusionner avec lui,
investir dans une nouvelle technologie, vendre une activité non rentable ou
restructurer l’entreprise : ce sont là des cas pour lesquels l’entreprise ne peut
prendre une décision « par précédent » étant donné que le problème posé est à
chaque fois différent et donc spécifique.

Pour résoudre ce type de problème, on va recourir à des décisions non


programmées, c.à.d. à des décisions spécifiques du fait que l’information
disponible est considérée comme insuffisante et que les conséquences se placent
donc sur le plan du probable et non du certain.

Ces types des décisions ne peuvent être informatisés : elles restent le propre de
l’homme, car le facteur humain est prépondérant dans le processus de la
décision. Ils requièrent donc beaucoup de créativité de la part du décideur,
c.à.d. la capacité de développer des idées nouvelles, originales et inédites à
même de résoudre le problème posé.

3.5.3. Le niveau hiérarchique et les types des problèmes

Plus on est haut dans la hiérarchie de l’entreprise, plus on est confronté à des
problèmes non structurés, complexes, uniques, et donc plus on doit par
conséquent déléguer les problèmes routiniers aux niveaux hiérarchiques plus
bas pour se concentrer plus sur ces problèmes non structurés.

A contrario, plus on est bas dans la hiérarchie de l’entreprise, plus on a affaire à


des problèmes simples, familiers, fréquents, et donc plus on recourt à des
solutions programmées.

Ceci ne veut nullement dire que les niveaux hiérarchiques les plus élevés ne
devraient être confrontés qu’à des problèmes non structurés ou que les niveaux
hiérarchiques les plus bas ne devraient avoir affaire qu’à des problèmes
46

structurés : c’est une question de fréquence comme le montre le schéma n° 3


cidessous

Figure n° 6 : Niveau hiérarchique, type de problèmes et type de décisions

Mal structuré Haut


Type de problème P.S. = D.P. P.N.S. = D.N.P. Niveau hiérarchique

Bien structuré Bas

Légende : P.S. = problèmes structurés ; P.N.S. = problèmes non structurés ;


D.P. = décisions programmées ; D.N.P. = décisions non programmées.

Source : O. Gamela Nginu op. cit. p. 90

3.5.4. Le niveau hiérarchique et le niveau d’incertitude

La question du niveau hiérarchique est aussi liée à celle du niveau de risque


inhérent à chaque situation impliquant une décision à prendre. Ainsi, on peut
classer les décisions en trois catégories selon ce critère, à savoir :

• la certitude : c’est le contexte idéal pour le manager, car il connaît à l’avance


le résultat de chaque option possible, ce qui lui permet donc de ne choisir
que l’option qui correspond au résultat désiré ;
• le risque : c’est le contexte dans lequel le manager ne peut qu’estimer la
probabilité liée à chacune des options possibles (sur base notamment des
données historiques), ce qui lui permet de choisir l’option dont la probabilité
se rapproche le plus du résultat désiré ;
• l’incertitude : c’est le contexte dans lequel le manager ne peut estimer, pour
chacune des options en présence, ni le résultat, ni la probabilité, ce qui
implique que le processus décisionnel sera influencé par l’information
disponible et par l’orientation psychologique du manager.

Il apparaît dès lors que :

• plus le contexte est caractérisé par l’incertitude (décisions non programmées


et impliquant des conséquences très graves), plus la décision va relever des
niveaux hiérarchiques les plus élevés ;
• plus le contexte est caractérisé par la certitude (décisions routinières
programmées), plus elle va relever des niveaux hiérarchiques les plus bas.
47

3.6. Le modèle du comportement de l’entreprise

Il est l’œuvre de Richard Cyert(1921-1998) et James March (1928-2018)22, deux


disciples de H. Simon. Ils vont mettre en évidence certains cas de prise
irrationnelle de la décision. C’est ce qui arrive notamment en cas de désaccord
sur les objectifs entre plusieurs groupes ayant des intérêts différents : la décision
va relever plus d’une démarche consensuelle que d’un processus rationnel.
Cette théorie du comportement de l’entreprise est basée sur quatre grands
concepts.

3.6.1. La quasi-résolution des conflits

Pour résoudre les inévitables conflits au sein de l’entreprise, celle-ci va recourir


à deux moyens :

a. La rationalité locale. Elle consiste à faire prendre les décisions au niveau


local c.à.d. au niveau de chaque service (R&D, production, marketing,
finances, RH,...). Ceci suppose une délégation du pouvoir à ce niveau
local sur la base des objectifs précis. Ainsi, la résolution des problèmes à
la fois nombreux et complexes de l’entreprise est déportée vers l’échelon
local où ils deviennent des problèmes simples.

b. Le traitement séquentiel des problèmes. Au lieu de traiter en une seule


fois l’ensemble des problèmes posés, l’entreprise va les résoudre les uns
après les autres.

3.6.2. L’élimination de l’incertitude


Pour éliminer les difficultés inhérentes à la prise des décision dans un contexte
d’incertitude inséparable de toute perspective de long terme, l’entreprise va
avoir tendance à se limiter au court terme pour pouvoir prendre des décisions
sur des bases moins incertaines.

3.6.3. La recherche d’une problématique

Au lieu de baser son choix sur l’analyse de toutes les causes d’un problème et
l’examen de toutes les solutions qui en découlent, l’entreprise va opter pour la
solution qui lui a permis de résoudre ce problème dans un passé récent.

22
Richard Cyert & James March, A behavioral theory of the firm, Prentice-Hall Inc., New Jersey, 1963.
48

3.6.4. L’apprentissage organisationnel

L’entreprise apprend du passé à partir des résultats auxquels ont conduit les
décisions prises antérieurement.

3.7. Le modèle de la décision stratégique d’Igotr Ansoff (1928-2022)

En tant que pionnier de la stratégie des entreprises, I. Ansoff a mis au point


deux outils de prise de la décision, à savoir la typologie des décisions selon la
durée et la matrice produits/marchés.

3.7.1. Typologie de prise de décisions selon la durée

Il a distingué les trois types de décisions ci-après :

• Les décisions stratégiques qui ont les caractéristiques ci-après :

- elles engagent l’entreprise sur le long terme (plus de 5 ans) ;


- elles ont pour objet l’adaptation de l’entreprise à son environnement
externe ;
- elles portent notamment sur le choix des produits à fabriquer et des
marchés à desservir.

• Les décisions tactiques qui ont les caractéristiques ci-après :

- elles engagent l’entreprise sur le moyen terme (1 à 5 ans) ;


- elles portent sur la gestion des ressources ;
- elles concernent chaque fonction de l’entreprise (R&D,
approvisionnement, production, marketing, vente, finances, RH,...).

• Les décisions opérationnelles qui ont les caractéristiques ci-après :

- elles engagent l’entreprise à court terme (moins d’un an) ;


- elles ont pour objet la mise en œuvre ou l’exécution des décisions
stratégiques et tactiques ;
- elles s’appliquent à un poste de travail ou à une opération.

3.7.2. Matrice de croissance produits/marchés


49

Cette matrice fait le croisement entre les produits (actuels et nouveaux de


l’entreprise) et ses marchés (actuels et nouveaux) pour dégager quatre types de
stratégies de croissance parmi lesquelles l’entreprise est appelée à choisir.

Tableau n° 2 : Matrice de croissance d’I. Ansoff


PRODUITS
Actuels Nouveaux
MARCHES Actuels Stratégie de Stratégie de
Pénétration Développement
Nouveaux Stratégie d’ Stratégie de
Extension Diversification

Ansoff distingue ainsi quatre stratégies possibles :

• la stratégie de pénétration du marché ou de consolidation qui consiste à


augmenter la quantité des produits actuels vendus sur les marchés
actuels en vue d’accroitre sa part de marché ;
• la stratégie d’extension du marché qui consiste à conquérir des marchés
nouveaux pour y vendre ses produits actuels ;
• la stratégie de développement qui consiste à vendre, en plus des produits
actuels, des produits nouveaux sur les marchés actuels en vue
d’atteindre des nouveaux segments de marché ;
• la stratégie de diversification qui consiste à proposer des produits
nouveaux sur des marchés nouveaux pour permettre à l’entreprise de
placer l’ensemble de ses ressources disponibles et d’atteindre ainsi une
croissance plus forte.

CHAPITRE 4 : L’ECOLE NEO-CLASSIQUE

4.1. Origine et postulats de l’Ecole Néo-Classique


L’Ecole Néoclassique date des années 1945, c’est-à-dire de la fin de la IIème Guerre
Mondiale. Elle coïncide avec l’arrivée aux commandes des entreprises de la «
technostructure » selon J. Galbraith, c’est-à-dire les « managers professionnels » qui
prennent de plus en plus la place des « managers propriétaires ».

Cette école a comme particularité de combiner l’empirisme, le pragmatisme et le


darwinisme dans la mesure où :

• elle part des expériences effectivement vécues par les praticiens du management
que sont les dirigeants d’entreprises et leurs conseils ou consultants (aspect
empirique) ;
50

• elle tente de couler sous la forme de théories des principes simples qui se veulent
d’application universelle (aspect pragmatique) ;
• elle se fonde sur la concurrence et l’individualisme d’où ne survivent que les
meilleurs en termes de performances, et ce, dans une sélection impitoyable (aspect
darwinisme social).

Les principaux postulats de cette école, qui sont au nombre de six, essaient de faire une
synthèse entre l’Ecole Classique et l’Ecole des relations Humaines :

• l’objectif de la maximisation du profit qui est poursuivi par toutes les organisations
(principe classique) ;
• la décentralisation des responsabilités et des décisions comme mode d’organisation
du travail pour atteindre plus facilement cet objectif ;
• la direction par les objectifs (DPO) et la direction participative par les objectifs
(DPPO) comme moyens d’assurer cette décentralisation ;
• le triangle réduction des coûts de production – réduction des délais – accroissement
de la qualité comme paramètres qui mesurent concrètement la compétitivité ;
• la motivation pour pousser à la compétitivité les individus qui se trouvent en
situation de concurrence ;
• le contrôle comme moyen de s’assurer de l’atteinte de l’objectif que l’on s’est
assigné.

Les grands auteurs de cette école sont notamment Alfred Sloan, Peter Drucker, Octave
Gélinier, William Deming, Joseph Juran, Shigéo Shingo, Taichi Ohno et William Ouchi.

4.2. Peter F. Drucker (1909-2005)


Consultant et professeur de management, il est considéré comme le « Pape du
Management »23 et le fondateur de l’Ecole Néo-classique.

Pour lui, le management est la fonction la plus importante au sein de l’entreprise,


fonction qui doit assumer les tâches ci-après :

• la définition de la mission de l’entreprise ;

23
Peter F. Drucker, The practice of management, Ed. PAN, London, 1968.
51

• la mise en place d’une organisation à la fois efficace en termes de production et


satisfaisante au regard des attentes des travailleurs ;
• la prise en compte à la fois des effets de l’entreprise sur son environnement et des
influences de cet environnement sur ses orientations stratégiques ;
• la fixation des objectifs de l’entreprise et l’établissement des normes de
performance ;
• la motivation et la formation des travailleurs ; la communication avec les
travailleurs.

Concernant la mise en place d’une organisation à la fois efficace et motivante, il a


proposé la notion de « management by objectives » (MBO) qui se traduit en français par
« management par les objectifs » (MPO), « gestion par les objectifs » (GPO) ou «
direction par les objectifs » (DPO), notion qui découle en fait de la « théorie Y » de D.
Mac Gregor.

Le MBO est un processus de décentralisation impliquant le chef ainsi que ses


subalternes, et qui consiste à :

• fixer ensemble les objectifs qui seront assignés aux subalternes, les stratégies (voies
et moyens) pour atteindre ces objectifs et les critères pour mesurer les résultats par
rapport à ces objectifs ;
• contrôler ensemble les résultats atteints par rapport aux objectifs, analyser les
causes des éventuelles contreperformances et reprendre le cycle du MBO.

Ainsi, le MBO comporte trois avantages principaux :

• il suscite la mobilisation et la responsabilisation des subalternes à travers leur


participation, d’où encouragement à la recherche de la qualité totale et à
l’excellence ;
• elle facilite le dialogue entre la Direction et les différents échelons subalternes, d’où
amélioration du climat social et consolidation des liens entre les chefs et leurs
subalternes ;
• elle permet de mieux resserrer le lien entre la planification et le contrôle, car elle
permet au contrôle de disposer des repères nécessaires pour mesurer la
performance et à la planification d’avoir la bonne information (rétroaction) pour
apporter les éventuelles corrections nécessaires.

Les résultats du MBO seront encore améliorés si :

• le chef a de très bons éléments comme subalternes à travers un bon système de


recrutement et/ou de formation ;
52

• le chef apporte le meilleur soutien à ses subalternes en cas de difficultés rencontrées


dans l’exécution de leurs tâches ;
• une politique de motivation (salaire, carrière...) adéquate est mise en place pour
récompenser ceux qui atteignent effectivement les objectifs leur assignés.

Il faut cependant souligner que le problème du MBO se situe surtout au niveau de la


définition des objectifs, lesquels doivent avoir les caractéristiques ci-après :

• être coordonnés entre eux et être compatibles ;


• respecter la continuité dans le temps ;
• porter uniquement sur les aspects majeurs de l’activité ; être à la fois ambitieux
et réalistes.

4.3. Alfred Sloan (1875-1966)

Pendant 33 ans, il a été à la tête de la General Motors Company (GMC) où il a assumé


successivement les fonctions de Directeur Général et de Président . Il est connu pour
sa « Théorie de la décentralisation coordonnée »24 qui a été appliquée avec succès dans
des très nombreuses grandes entreprises (entreprises multidivisionnelles).

Cette théorie de la décentralisation coordonnée repose sur les six grands de principes
ci-après :

• la séparation entre les fonctions de politique générale qui sont réservées à la


Direction Générale et les fonctions d’exploitation qui sont l’apanage des divisions ;
l’autonomie laissée aux grandes divisions de l’entreprise avec comme corollaires :

- l’adoption de la structure divisionnelle ;


- la transformation de chaque division en centre de profit ;
- la fixation d’un objectif de rentabilité des capitaux investis à chaque division ;
- l’émulation entre les différentes divisions et donc l’accroissement du profit de
l’entreprise comme conséquences de cette autonomie ;
• la centralisation de certaines fonctions et services notamment les finances, le service
juridique ou la publicité ;
• la coordination des différentes divisions assurée par un comité composé des
représentants de toutes les divisions ;
• l’instauration des passerelles pour permettre à chaque division d’être représentée
dans toutes les autres divisions avec voix consultative et de renforcer ainsi la
coordination des différentes divisions ;

24
Alfred P. Sloan, Mes années à la General Motors, Ed. Hommes & Technique, Paris, 1967.
53

• l’uniformisation des méthodes et des outils de prévision, de gestion et de calcul.

4.4. William Deming (1900-1993)

Ce professeur de statistiques et chercheur en mathématiques a remis en cause les


principes tayloriens basés sur la division du travail. Il a plutôt insisté sur la contrôle de
la qualité et c’est au Japon qu’il a pu appliquer, à partir des années 1950, le résultat de
ses recherches. Adopté massivement par l’industrie japonaise, le contrôle de qualité va
permettre à cette dernière de conquérir le marché américain, à partir des années 1960,
avec des produits au rapport Qualité/Coût imbattable. Ce n’est que dans les années
1980 qu’il sera sollicité par les industriels américains, dont les performances étaient
très inférieures à celles de leurs concurrents japonais, pour de nombreuses conférences
qui vont contribuer au changement profond de leur style managérial.

Pour ce faire, il va mettre au point une méthode pour améliorer constamment la qualité
et introduire sept outils pour améliorer cette qualité.

4.4.1. La méthode PDCA ou « Roue de Deming »

La méthode PDCA ou « Roue de Deming » est un processus circulaire en quatre étapes


ou thèmes (Plan, Do, Check, Act/Adjust) visant à établir un cercle vertueux de la qualité.
Ces quatre étapes sont subdivisées en quatorze points.

a. P comme Plan

Dans cette première étape, on va préparer et planifier (ce que l'on va faire). Elle va
consister ainsi à :

• se fixer des objectifs clairs et précis comme moyen d'améliorer le


produit/service et de devenir ainsi plus compétitif, de rester sur le marché ou
de créer des emplois ;
• adopter une nouvelle philosophie tenant compte des défis/menaces de
l'environnement (telle que l'émergence des "Quatre Dragons" asiatiques ou
l’intrusion de la robotisation dans l’industrie automobile dans les années 1980),
apprendre ses responsabilités et conduire le changement.

b. D comme Do

Dans cette deuxième étape, on va développer, réaliser, mettre en œuvre ce que l’on
a préparé et planifié. Elle va consister ainsi à :

• généraliser la formation sur le tas ;


54

• instituer un programme volontariste de formation et de développement du


personnel ;
• améliorer le leadership par un meilleur coaching des cadres (supérieurs,
intermédiaires et subalternes) afin d'aider le personnel à mieux travailler ;
• chasser toutes les sources de crainte et de stress pour que chacun puisse
travailler plus efficacement pour l'entreprise ;
• mettre chaque collaborateur à l'œuvre pour accomplir la transformation
recherchée, c’est-à-dire atteindre les objectifs fixés.

c. C comme Check

Dans cette troisième étape, on va contrôler, vérifier, auditer. Elle va consister à :

• améliorer sans cesse le système de production des biens/services pour


augmenter la qualité et la productivité, et ainsi continuer à baisser les coûts ;
• éliminer les besoins en contrôles systématiques en fabriquant la qualité ;
• tourner le dos à la politique d'achat au moins disant et adopter plutôt une
politique visant à minimiser le coût total, à choisir un fournisseur unique pour
chaque produit sur la base d'une relation loyale, confiante et de long terme.

d. A comme Act ou Adjust

Dans cette quatrième étape, on va agir, ajuster, réagir, corriger (actions correctives).
Elle va consister ainsi à :

• supprimer les cloisonnements et les barrières interservices pour que tous les
services (R&D, méthodes, fabrication, vente, finances, RH,...) travaillent en
équipe afin d'anticiper les problèmes (adoption de l’ingénierie concourante) ;
• éliminer tout ce qui relève des slogans (par exemple « zéro faute ») ou des
exhortations (par exemple la fixation de nouveaux seuils de productivité) ;
• éliminer la DPO, les standards de production et les remplacer par une meilleure
qualité managériale ;
• supprimer les barrières qui frustrent les ouvriers du droit à la fierté de leur
savoir-faire en faisant en sorte que le contrôle de l'encadrement puisse porter
sur la qualité et non sur les chiffres, et supprimer les barrières qui frustrent les
cadres du droit à la fierté de leur savoir-faire en abolissant les notations
annuelles et la DPO.

Comme on le voit, la vision de Deming se place dans le cadre du « Knowledge


Management » (KM) que l’on traduit par « Gestion du Savoir » ou « Gestion des
Connaissances ». C’est ainsi qu’il est aussi connu pour sa vision de l'entreprise qui met
55

la performance et l'homme au cœur du système avec un discours centré sur l'humain


(human centric). En effet, la démarche KM doit reposer sur la prééminence de l'homme,
source de création, de collecte et de transmission des connaissances. D'où, la nécessité
d'instaurer un climat de confiance et de coopération, surtout que dans cette démarche
KM, les membres du personnel travaillent pour le rayonnement de leur entreprise.

4.4.2. Les sept outils de Deming

En plus de cette méthode PDCA, Deming va introduire sept outils pour améliorer
constamment la qualité et faire baisser les coûts.

Tableau n° 3 : Les 7 outils de Deming


Outil Objectif
Diagramme de C’est la règle de 20/80 qui établit que 80 % des conséquences sont
Pareto imputables à 20 % des causes.
Diagramme Il permet d’établir un lien de cause à effet entre un problème donné et
d’Ishikawa des causes possibles.
Feuille des C’est une fiche qui permet de collecter des données précises, fiables et
relevés facilement exploitables.
Histogramme C’est une visualisation graphique de la fréquence d’un évènement, de
la répartition des données et de l’allure de la loi de distribution qui
régit un phénomène. Ce qui permet de mettre en évidence les
anomalies et de les analyser.
Maitrise C’est une méthode de maîtrise de la production fondée sur l’analyse
Statistique des statistique. Elle permet de garantir le niveau de qualité optimum à
Procédés chaque étape de la fabrication grâce à une démarche préventive qui
(MSP) consiste à : (i) évaluer l’aptitude du procédé par rapport aux
spécifications ; (ii) analyser en permanence ses performances par
rapport à une situation de référence ; (iii) intervenir dès qu’une dérive
est constatée.
Brainstorming C’est une technique qui permet à un groupe de générer des idées
créatives et novatrices pour résoudre un problème donné en donnant
libre cours à l’imagination de ses membres. Elle se base essentiellement
sur les associations que chaque membre peut faire en rebondissant sur
les idées des autres membres.
Diagramme de C’est une représentation graphique des scores ponctuels obtenus par
corrélation deux variables. Il permet ainsi d’identifier une relation possible entre
ces deux variables.
Source : adapté de R. Aïm, op. cit. p. 79.
56

4.5. Joseph Juran (1904-2008)

Cet ingénieur électricien est considéré comme le principal fondateur des démarches
qualité par le contrôle statistique. Il est ainsi connu particulièrement à travers le
concept de « Management par la Qualité Totale » et son adaptation de « La Loi de
Pareto ».

4.5.1. Management par la Qualité Totale

Il a publié un ouvrage 25 dans lequel il expose les concepts, outils et démarches à


appliquer pour l’amélioration de la qualité de la production, laquelle repose sur la
trilogie ci-après :

• l’amélioration technique permanente ; la planification ; les contrôles.

Il exercera ainsi une très grande influence sur l’industrie japonaise qui sera la première
à adopter la notion de « Management par la Qualité Totale » ou « Company Wide Quality
Management » qu’il a inventée. Il a aussi joué un très grand rôle dans la mise en place
des « cercles de contrôle de qualité ».

Il publiera un autre ouvrage26 dans lequel il va exposer, en huit points, la démarche


pour l’amélioration de la qualité de la production :

• identifier la preuve de l’amélioration ;


• identifier le projet d’amélioration ;
• organiser la gestion du projet ;
• organiser un diagnostic ;
• améliorer la connaissance ;
• intégrer la culture de l’organisation ;
• améliorer la performance ;
• maintenir l’amélioration par le contrôle.

4.5.2. Adaptation de la loi de Pareto

En étudiant la répartition de la richesse dans son pays, l’économiste italien Vilfredo


Pareto a constaté que 80 % de ces richesses étaient détenus par 20 % seulement de la
population. D’où la loi de Pareto, puisque ce phénomène a été constaté dans beaucoup
d’autres pays.

25
Juran Joseph, Quality Control Handbook, McGraw-Hill, New York, 1951.
26
Juran Joeph, Managerial Breakthrought : a new concept of the manager, , McGraw-Hill, New York, 1964.
57

J. Juran a repris cette loi pour énoncer que 20 % des causes produisaient 80 % des effets.
C’est ainsi qu’il va appliquer cette loi de Pareto à la répartition des défauts de
fabrication d’un produit.

4.6. Shigéo Shingo (1909-1990)

Responsable de la formation pour l’Association Japonaise du Management, cet


ingénieur japonais a créé par la suite l’Institut pour l’Amélioration du Management. Il
est l’un des fondateurs du contrôle qualité pour « zéro défaut ». Ses méthodes ont ainsi
contribué notablement à la compétitivité des entreprises japonaises et ont été adoptées
dans des nombreux pays industrialisés.

a. Le système anti-erreur

Partant du principe selon lequel « Vaut mieux prévenir que guérir », il a mis au
point le « Poka-Yoké » (de yokeru = éviter et poka = erreur) qui peut se traduire
par « système anti-erreur ».

Cette méthode implique « zéro faute » et « zéro contrôle » dans la mesure où il


s’agit d’une démarche qualité ayant pour objectif de supprimer à la source les
causes des défauts de fabrication. Plus concrètement, cette méthode consiste à
instaurer un contrôle continu à chacune des étapes du processus de production,
avec un détrompeur mécanique qui :

• détecte toute erreur d’assemblage, de montage et de branchement,


empêchant du même coup la poursuite de l’opération ;
• signale ladite erreur à l’opérateur qui peut ainsi la corriger immédiatement,
ce qui permet la poursuite de l’opération.

On a ainsi un produit dont la fiabilité est telle qu’il rend totalement superflu
tout contrôle en bout de chaîne. Ce faisant, on évite les défauts de fabrication
(accroissement de la qualité), de même qu’on réduit le nombre des rebuts et des
contrôles (baisse des coûts), et donc on accroit le rapport Qualité/Coût.

b. La flexibilité

En plus de la qualité (qui doit être la plus élevée possible) et du coût (qui doit
être le plus bas possible), le troisième élément de la compétitivité est le délai
(qui doit être le plus court possible). Pour ce troisième élément, S. Shingo entend
jouer sur la flexibilité des moyens de production afin de répondre, dans les
délais les plus courts, à une demande qui est le plus souvent diversifiée. Cette
flexibilité est d’autant plus indispensable que les goûts des clients changent
58

constamment, de même que les technologies. L’entreprise doit donc faire


preuve de flexibilité en s’adaptant à ces changements constants des goûts et des
technologies. Il compare ainsi l’organisation occidentale de la production et
l’organisation japonaise de la production.

Tableau n° 4 : Organisation occidentale et organisation japonaise de la production


Organisation occidentale Organisation japonaise
Grandes séries Petites séries
Stocks importants Pas du tout ou très peu de stock
Temps très long d’adaptation des Organisation évolutive des processus de
fabrications aux nouvelles production permettant une intégration
technologies en continu des nouvelles technologies
Méthodes de contrôle tolérant des Contrôle à la source des pannes et des
pannes et des défauts défauts pour zéro panne et zéro défaut
Recherche permanente de Incitation à la productivité par le
l’augmentation des cadences dialogue et la responsabilisation
Source : adapté de R. Aïm, op. cit., p. 82.

4.7. Taicho Ohno (1912-1990)

Cet ingénieur japonais est considéré comme le fondateur du système de production de


Toyota, appelé « toyotisme », dont la méthode la plus connue est le « juste-à-temps »
(JAT) ou « just in time » (JIT).

Le « juste-à-temps » (JAT) est une méthode d’organisation et de gestion de la


production à « flux tendu » qui consiste à réaliser une opération de façon à ce que ses
effets n’apparaissent qu’au moment voulu, c’est-à-dire « juste-à-temps ». Plus
précisément, il s’agit de « produire ce que le client demande et au moment où il le
demande », c’est-à-dire produire au moment voulu par le client, à l’endroit voulu par
le client et les quantités voulues par le client. C’est donc le pilotage de la production
par la demande ou l’aval (on produit ce qui est vendu), en remplacement du pilotage
par l’offre ou l’amont (on vend ce qui est produit).

Ainsi, le processus de production n’est enclenché que quand l’entreprise reçoit la


demande du client, mais en suivant le principe ci-après : réduire le temps compris entre
le moment de la commande par le client et le moment du paiement par le client, et ce,
en éliminant toutes les opérations qui n’ajoutent aucune valeur.

Il faut souligner que le succès de la méthode JAT implique une forte coordination des
différents services tant internes qu’externes impliqués dans la chaîne de valeur (achats,
fournisseurs, transporteurs, magasins, fabrication, livraison, distributeurs).
59

La méthode du JAT vise ainsi cinq objectifs ou « cinq zéros » :

• Zéro stock. Il s’agit de réduire au minimum tous les stocks (matières premières,
consommables, en-cours et produits finis), et ce, en limitant les approvisionnements
aux besoins réels de production avec l’utilisation des étiquettes déclencheuses de
commande ou kanbans. D’où, des économies en stocks et donc réduction des coûts
de production..

• Zéro délai. Il faut réduire au strict minimum : (i) le délai entre la commande et son
exécution ; (ii) le temps d’exécution de la commande, et ce, en recourant à la
flexibilité des ressources tant humaines (hommes) que matérielles (équipements).

• Zéro défaut. La qualité des produits doit être strictement conforme aux attentes du
client pour éviter les coûts consécutifs aux malfaçons (nécessité de remplacement
avec parfois des dommages et intérêts à payer) et au mécontentement des clients
(perte de marché).

• Zéro panne. Il faut assurer la disponibilité totale de l’outil du travail en dehors des
temps prévus pour l’entretien et les réparations afin de pouvoir respecter les délais
convenus avec les clients.

• Zéro papier. Les économies ne doivent pas se limiter aux ateliers, mais concerner
aussi les bureaux, notamment en réduisant au minimum la paperasse.

Combinée avec le système anti-erreur de S. Shingo (amélioration du rapport


Qualité/Coût) et l’automatisation des processus de production (réduction du temps
de travail, élimination des goulots d’étranglement, amélioration de la qualité,
réduction du gaspillage des intrants), le JAT a contribué à creuser l’écart de
compétitivité entre l’industrie du Japon et celle des autres pays industrialisés.

4.8. William Ouchi (1943)

Ce professeur américain de management est l’auteur de la « Théorie Z » qu’il a mise


au point dans les années 1980, années marquées par le concept de la « Qualité Totale »
qui se concrétise par la recherche permanente du trio gagnant de la compétitivité «
Qualité – Coût -Délai ».

Pour arriver à ce trio gagnant, il va s’inspirer du modèle managérial japonais dont les
caractéristiques sont totalement opposées à celles du modèle managérial américain,
comme le résume le tableau n° 4 ci-après :
60

Tableau n° 5 : Caractéristiques des entreprises japonaises et des entreprises


américaines
Entreprises japonaises Entreprises américaines
Emploi unique à vie Changement fréquent d’emplois
Evolution et promotion lentes Evolution et promotion rapides
Carrières de généralistes Carrières spécialisées
Procédures de contrôle informelles et Procédures de contrôle formelles et
implicites explicites
Décisions collectives Décisions individuelles
Responsabilité collective Responsabilité individuelle
Intérêt collectif Intérêt personnel
Source : adapté de R. Aïm, op. cit. p. 86.
.
Avec sa Théorie Z (tournée vers la recherche de la Qualité Totale), W. Ouchi va audelà
de D. Mac Gregor qui est l’auteur de la Théorie X (basée sur les hypothèses de l’Ecole
Classique, plus précisément du Courant du Management Scientifique avec l’OST) et
de la Théorie Y (basée sur les hypothèses de l’Ecole des Relations Humaines). La
Théorie Z est donc le prolongement de la pensée de D. Mc Gregor.

Dans le cadre de la Théorie Z, les travailleurs sont notamment caractérisés par :

• un grand enthousiasme au travail ;


• une grande satisfaction au travail ;
• un sens très élevé de l’ordre et de la discipline ;
• une obligation morale de travailler dur ;
• une productivité très élevée ;
• un sentiment très fort de cohésion avec leurs collègues de travail ; un sentiment
très fort d’appartenance ; une faible rotation du personnel.

Afin d’atteindre ce résultat, le Théorie Z entend favoriser certaines valeurs


fondamentales dans le chef des travailleurs dont la loyauté, la fidélité, l’amitié, la
confiance et la culture du clan. Pour ce faire, l’entreprise doit mettre en place une
organisation qui lui permet de :

• encourager la gestion participative, le travail d’équipe et les solutions d’ensemble ;


faire passer « le groupe » avant « l’individu » ;
61

• former les travailleurs afin de leur permettre de posséder des compétences requises
pour la prise des décisions à travers notamment : (i) la rotation des postes pour leur
donner des compétences de généralistes plutôt que celles de spécialistes ; (ii) la
formation permanente ;
• informer correctement les travailleurs sur les différents enjeux de l’entreprise ;
• faire grandement confiance aux travailleurs ;
• apporter un fort soutien aux travailleurs ;
• favoriser la communication, le décloisonnement et la transversalité ;
• se doter d’une forte culture d’entreprise ;
• susciter un environnement du travail dans lequel la vie en dehors de l’entreprise
(famille, culture, tradition,...) a une importance aussi grande que la vie du travail.
62

CHAPITRE 5 : L’ECOLE SOCIOTECHNIQUE

5.1. Origine et postulats de l’Ecole Sociotechnique

L’Ecole Sociotechnique date des années 1950. Elle résulte des recherches menées au
Tavistock Institute of the Human Relations de Londres.

Elle considère l’entreprise comme un système ouvert où ses deux sous-systèmes


sont en interaction et en interdépendance : le sous-système social et le sous-système
technique. Elle remet ainsi en cause l’approche technique de l’Ecole Classique de
F. Taylor et l’approche sociale de l’Ecole des Relations Humaines pour les intégrer.
Elle conclut donc que, pour être efficace, l’entreprise doit optimiser ces deux
sousensembles ou dimensions.

Elle va ainsi déboucher sur une organisation en petits groupes de travail dotés
d’une très grande autonomie et ayant comme particularités de tenir compte à la
fois des besoins des membres du groupe (dimension sociale de l’entreprise) et des
impératifs de la production (dimension technique de l’entreprise).

Les principaux animateurs de cette école sont Frederick Emery, Eric Trist, Einar
Thorsrud et Ken Bamforth.

5.2. Dysfonctionnements enregistrés dans les mines de charbon

Le conflit qui a éclaté entre la direction et les travailleurs suite à l’introduction


d’une nouvelle machine censée doubler la production du charbon, va être à la base
des grandes découvertes de cette école.

En effet, l’abattage à la main du charbon qui se faisait selon l’ancienne organisation


du travail, avait été remplacée par une nouvelle technologie impliquant la division
taylorienne du travail. Or, l’ancien système, mis au point par les ouvriers
euxmêmes, consistait à faire travailler en équipe des petits groupes de mineurs qui
exécutaient l’ensemble du cycle de la production (décollage du charbon, convoyage
et renforcement du puits), avec comme conséquence, une grande solidarité entre
les mineurs du fait d’un travail réalisé dans un milieu particulièrement difficile et
dangereux.
63

Mais avec l’introduction de la mécanisation et l’instauration de l’organisation


taylorienne du travail, le travail dans la mine avait été subdivisé en sept tâches
spécialisées, les mineurs ne pouvant réaliser chacun qu’une tâche, perdant ainsi
leur polyvalence. Cette disqualification de leur travail avait provoqué un
mécontentement général avec comme conséquences des tensions, des grèves, un
accroissement de l’absentéisme et de la rotation du personnel, et, in fine, un effet
totalement contraire à celui recherché, à savoir une baisse du rendement et donc de
la production.

Ainsi, en introduisant un sous-système technique totalement inadapté au


soussystème social en vigueur ou en greffant un sous-système technique sur un
soussystème social totalement incompatible, on a provoqué une rupture dans les
fondements mêmes du travail des mineurs.

C’est ainsi que les chercheurs du Stavistock Institute of Human Relations vont
proposer de reconstituer ces fondements en prônant l’organisation du travail en
petites équipes de mineurs chargées chacune de réaliser la totalité des sept
opérations de la tâche. En responsabilisant ces groupes semi-autonomes pour la
réalisation de l’ensemble des sept tâches, on a pu ainsi éliminer les causes du
mécontentement ainsi que ses conséquences, et accroître les rendements et donc la
production.

Ce système va plus tard être étendu aux chaines de montage où les tâches
individuelles exécutées vont être remplacées par un ensemble des tâches confiées
à des groupes travaillant en semi-autonomie.

5.3. Restructuration des tâches ou les Nouvelles Formes d’Organisation du Travail (NFOT)
En fait, les groupes semi-autonomes s’inscrivent dans une perspective plus large,
celle de la « Restructuration des Tâches » ou des « Nouvelles Formes
d’Organisation du Travail » (NFOT). Ce mouvement s’oppose à l’OST pour en
éliminer les effets indésirés et comprend la rotation des postes/tâches,
l’élargissement des tâches, l’enrichissement des tâches et l’autonomisation.

5.3.1. La rotation des postes et des tâches

La rotation des postes et des tâches consiste à faire passer le travailleur d’un
poste à un autre, tout en le cantonnant dans des tâches de simple exécution.

Elle a ainsi pour objet d’éliminer la monotonie consécutive à l’exécution des


mêmes tâches à travers la diversification de celles-ci. Elle peut être ou non
combinée avec l’élargissement des tâches.
64

5.3.2. L’élargissement des tâches

L’élargissement des tâches est une expansion horizontale du travail qui consiste
à regrouper, sur un même poste de travail, un plus grand nombre de tâches
parcellaires de simple exécution antérieurement réparties sur deux ou plusieurs
postes de travail et donc exécutées par deux ou plusieurs ouvriers.
Son objectif est d’augmenter la durée du cycle du travail sur un poste afin de
diversifier les tâches de simple exécution et d’éliminer ainsi la monotonie
consécutive à la répétition des mêmes opérations de très courte durée.

5.3.3. L’enrichissement des tâches

L’enrichissement des tâches est une expansion verticale du travail par


adjonction des tâches impliquant une activité résolutoire et donc plus de
responsabilités. Il consiste donc à complexifier un poste de travail en lui
donnant un contenu plus qualifié et plus responsable, à rendre le travail plus
important et plus significatif en le densifiant. Autrement dit, il consiste à confier
au travailleur des tâches de natures différentes qui intègrent aux composantes
de simple exécution, des dimensions faisant intervenir les facultés naturelles
d’initiative, de choix et de décision. Plus concrètement, l’enrichissement des
tâches peut ainsi consister :

• soit à confier aux travailleurs les tâches de réglage, de dépannage et de


réparation de leurs équipements ;
• soit à donner aux travailleurs plus de latitude tant dans le choix des
méthodes, de la séquence, du rythme et des horaires de travail que dans le
contrôle des intrants et de la qualité du travail (acceptation ou rejet) ;
• soit à intéresser les travailleurs à l’analyse et au changement des aspects
physiques de leur environnement de travail (aménagement des bureaux et
des ateliers, niveau de la température dans les lieux de travail, éclairage,
propreté, niveau de bruit, …).

L’objectif de l’enrichissement des tâches est d’améliorer le moral et donc la


satisfaction des travailleurs, avec comme conséquences attendues la réduction
du taux d’absentéisme, la baisse du taux de rotation du personnel et
l’accroissement de la productivité.

5.3.4. L’autonomisation

a. Contenu et objectif de l’autonomisation


65

L’autonomisation est le fait de donner aux travailleurs ou, mieux, à un


groupe de travailleurs, la possibilité de décider par eux-mêmes d’un
certain nombre d’éléments concernant leur travail. L’entreprise est dès
lors composée d’un certain nombre de groupes semi-autonomes
disposant d’une très large autonomie organisationnelle et parfois
financière.

Elle a donc comme objectif et conséquence attendue de réduire les


frustrations et d’accroitre la motivation.

b. Formes de l’autonomisation

L’autonomisation peut prendre plusieurs formes, telles que :

• l’organisation du travail, c’est-à-dire la répartition des tâches entre les


membres du groupe, la détermination des horaires de travail, la
fixation des objectifs du groupe,… ;
• la gestion du budget du groupe ;
• la gestion des clients ;
• le choix des méthodes de formation ;
• la gestion des stocks ;
• la planification de la production, des achats, des ressources humaines,
de la sécurité ;
• la participation au développement des nouveaux produits (en
collaboration avec la R&D et le marketing).

c. Difficultés de l’autonomisation
Cependant, l’autonomisation n’est pas chose aisée : elle se heurte
essentiellement aux problèmes inhérents à l’organisation sociale et à
l’organisation technique :

• Sur le plan de l’organisation sociale, le plus grand problème est de


constituer des groupes qui ne sont pas minés par les conflits. Ceci
implique que l’on puisse s’assurer notamment des éléments ci-après :

- l’entente entre les membres du groupe ;


- l’existence d’un rapport de confiance entre les membres du groupe ;
- l’esprit d’équipe au sein du groupe ; - la communication au sein du
groupe.
66

• Sur le plan de l’organisation technique, l’autonomie du groupe ne peut


se concevoir que si on définit à l’avance un certain nombre d’éléments
notamment :

- les procédés techniques à utiliser ;


- les normes à appliquer ;
- l’approvisionnement en intrants.

d. Etapes d’une autonomisation réussie

C’est ainsi que pour faciliter la réussite de l’autonomisation, il est


recommandé de la faire de façon graduelle en passant par trois étapes :

• la première étape est la participation : c’est la mise en place des


processus décisionnels participatifs pour mieux exploiter les
capacités des travailleurs ;
• la deuxième étape est la délégation de certaines tâches ou fonctions
aux travailleurs ;
• la troisième étape est l’autonomisation proprement dite pour laisser
plus de liberté et d’autonomie aux travailleurs.
67

CHAPITRE 6 : L’ECOLE SYSTEMIQUE OU DE LA CONTINGENCE

6.1. Origine et postulats de l’Ecole Systémique ou de la Contingence


Cette école est née dans les années 1960. Elle est le prolongement de l’Ecole
Sociotechnique du fait qu’elle tourne définitivement le dos au sacro-saint principe du
« One Best Way » cher à l’Ecole Classique et à l’Ecole des Relations Humaines.

C’est ainsi qu’en matière d’organisation, cette école estime qu’il n’y a pas un modèle
universel, mais plusieurs modèles d’organisation ou structures organisationnelles
possibles liés aux facteurs de contingence propres à chaque entreprise.

Elle considère donc l’entreprise comme un système ouvert qui doit être en phase avec
son environnement et donc s’adapter aux contraintes de ce dernier pour le choix de
son modèle d’organisation. Elle prône ainsi un mode d’organisation différent pour
chaque situation différente.

Les principaux animateurs de cette école sont Joan Woodward, Alfred Chandler, T.
Burns & G. Stalker, Paul Lawrence & Jay Lorsch et Henry Mintzberg.

6.2. Joan Woodward (1916-1971)

Ce professeur anglais de management a étudié l’impact de la technologie sur la


structure. Il a ainsi démontré que la technologie a un impact sur le choix de la structure
organisationnelle en distinguant trois modes d’organisation propres à trois types de
technologies ou de productions :

a. La production de l’ouvrage unique (BTP), du prototype ou de la petite série.

Elle couvre :

• la secteur du bâtiment et des travaux publics ou BTP (barrages, routes, ponts,


viaducs, usines, immeubles, maisons,...) ;
68

• les équipements lourds et les gros engins (fusées, porte-avions, sous-marins,


navires,...) ;
• les prototypes et les petites séries différenciées (armements, émetteurs
radio/TV,...).

b. La production des grandes séries.

Elle se réfère à la fabrication des biens identiques en très grandes séries et concerne
:

• les industries fabriquant des grandes séries des produits uniques simples
(stylos à bille, vis, boulons, boutons, chaussures,...) ;
• les industries de sous-traitance fabriquant des pièces et des ensembles pour les
industries des biens d’équipement (usines, machines-outils) et pour des
produits complexes (cockpits, ailes, trains d’atterrissage, moteurs, démarreurs,
essieux,....) ;

• les industries de montage des produits complexes (aéronefs, automobiles,


appareils électroménagers, motocyclettes, vélos,...).

c. Les industries du processus ou de production en continu.

Elles concernent :

• la production de l’énergie (centrales hydro-électriques, raffineries) ;


• la chimie de base et la pétrochimie (plastiques, textiles synthétiques,
métallurgie) ;
• le papier, le carton, les emballages, les conditionnements, les élastomères, et les
pneumatiques ;
• les matériaux de construction (glaces, verres, tuyaux, céramiques, ciment,...) ;
les composants électroniques.

6.3. Alfred Chandler (1918-2007)

Cet économiste américain est spécialiste de l’histoire des entreprise américaines. Ses
recherches ont mis en évidence deux notions très importantes.

6.3.1. La « main visible » des managers

En étudiant l’histoire des entreprises américaines de 1850 à 1920, il a constaté que l’on
est passé d’une vision traditionnelle du capitalisme avec une entreprise dirigée par son
69

fondateur et donc modelée par son leadership, à une vision moderne du capitalisme
avec une entreprise divisée en plusieurs unités autonomes, les divisions, dirigées par
des managers professionnels.
Cette évolution de la vision du capitalisme est due au fait que la complexité sans cesse
croissante de l’environnement tant interne qu’externe de l’entreprise, ne pouvait plus
permettre au propriétaire de maîtriser et de contrôler tous les aspects de son entreprise.
D’où, la nécessité de faire appel à des managers professionnelle, la « technostructure »
de John K. Galbraith, et d’établir ainsi une nette distinction entre, d’une part, la
propriété du capital, et, d’autre part, la gestion de l’entreprise.

A. Chandler a ainsi lancé le concept de « la main visible » des managers censé


supplanter celui de « la main invisible » des forces du marché27 chère à A. Smith.
6.3.2. Lien entre stratégie et structure

Il est surtout connu par avoir étudié, sur une période de 50 ans allant de 1909 à 1959,
l’histoire et l’évolution de quatre grands groupes américains que sont Dupont de
Nemours, Standard Oil of New Jersey, General Motors et Sears & Roebuck.

Il a ainsi observé un changement fondamental dans l’organisation de ces groupes avec


le passage d’une structure centralisée et fonctionnelle à une structure décentralisée et
multidivionnelle. Il a donc mis en exergue le fait que :

• la structure centralisée et fonctionnelle est la caractéristique des entreprises


monoproduit et mono-marché, avec peu de niveaux hiérarchiques, réfractaires au
changement, confondant décisions stratégiques et décisions opérationnelles ;
• la structure décentralisée et multidivionnelle est la caractéristique des entreprises
multi-produits et multi-marchés, avec une forte coordination des différentes
divisions, flexibles face au changement, avec une nette séparation entre décisions
stratégiques et décisions opérationnelles.

Il a dès lors établi un lien entre stratégie et structure en démontrant que les stratégies
précédaient et entraînaient les changements des structures organisationnelles,
stratégies qui elles-mêmes étaient tributaires d’un environnement marqué par un
changement permanent28.

Il en découle donc que la structure adoptée à un moment donné de l’histoire de


l’entreprise (notamment à sa création), ne restera pas inchangée si les objectifs de
l’entreprise, et donc ses stratégies, venaient à changer fondamentalement.

27
Chandler A., La main visible des managers, Ed. Economica, Paris, 1989.
28
Chandler A., Stratégies et structures de l’entreprise, Tendances Actuelles, 1972.
70

Les objectifs découlant d’une bonne planification constituent ainsi les éléments
essentiels de la mise sur pied d’une organisation solide, dans la mesure où la structure
adoptée devra être celle qui convient le mieux pour atteindre les dits objectifs.

L’un des avantages de se référer à la planification pour concevoir la structure, est que
cela aide à définir les besoins futurs de l’entreprise en personnel et donc à concevoir
des programmes conséquents de formation et/ou de recrutement.

6.4. Thomas Burns (1913-2001) et Georges Stalker (1939-2019)

Ces deux sociologues ont étudié le lien entre l’environnement externe d’une entreprise
et sa structure. Ils sont ainsi arrivés à la conclusion que la structure choisie par une
entreprise est fonction du degré de stabilité de son environnement externe. Ils ont ainsi
distingué deux types de structures : les structures mécanistes ou bureaucratiques et les
structures organiques. A cet effet, ils insistent sur les deux faits ci-après :

• il n’y a pas un type de structure qui serait supérieur à l’autre, mais tout simplement
une structure adaptée à l’environnement externe de l’entreprise et une structure
non adapté à cet environnement ;
• les structures ne sont ni totalement mécanistes, ni totalement organiques, mais
plutôt mixtes avec une prédominance mécaniste ou organique selon les cas.

6.4.1. Les structures mécanistes ou bureaucratiques

Elles conviennent aux organisations évoluant dans un environnement stable. Elles


découlent du modèle wébérien. Elles sont ainsi caractérisées par un niveau élevé de
spécialisation, de formalisation et de centralisation, et plus précisément par :

• des relations hiérarchiques strictes basées sur le principe de la chaîne hiérarchique,


une ligne d’autorité stricte et un contrôle de chaque agent par un supérieur ;
• une autorité de décision très centralisée ;
• des tâches stables et explicites ;
• de nombreuses règles et règlementations ;
• une communication formalisée et verticale ;
• une structure plus étendue avec de nombreux paliers hiérarchiques.

6.4.2. Les structures organiques

Elles conviennent aux organisations évoluant dans un environnement instable. Elles


sont caractérisées par un niveau faible de spécialisation, de formalisation et de
centralisation. Elles sont évolutives, souples, lâches et avec un niveau de réactivité très
71

élevé en cas de besoin (changement significatif de l’environnement interne et/ou


externe). Plus précisément, elles se caractérisent par :

• une forte collaboration verticale et horizontale avec un travail divisé en mode


réseau ;
• une autorité de décision très décentralisée ;
• des tâches flexibles et constamment redéfinies ;
• peu de règles et de règlementations (du fait que l’on a affaire à des professionnels
très compétents, formés à l’appréhension et à la solution de différents types de
problèmes de gestion) ;
• une communication informelle et latérale ;
• une structure plus plate avec peu de paliers hiérarchiques.

6.5. Paul Lawrence (1922-2011) et Jay Lorsch (1932)


Comme T. Burns et G. Stalker, ces deux professeurs américains d’organisation ont
étudié l’influence de l’environnement sur les structures. Ils constatent que cette
influence se fait par le biais de deux mécanismes, la différenciation et l’intégration.
• La différenciation. Elle est la conséquence du principe de la division du travail.
Elle consiste à fractionner l’entreprise en un certain nombre d’unités de travail ou
divisions, dotées chacune de ses objectifs spécifiques et de ces méthodes de travail.
Ainsi, plus l’environnement de l’entreprise est instable, plus la différenciation entre
ses unités de travail ou divisions sera importante. De ce fait, la différenciation peut
rendre plus difficile la cohésion de l’entreprise prise comme un tout et donc la
réalisation de son objectif général. D’où, la nécessité de l’intégration.

• L’intégration. Elle va donc consister à mettre en place des mécanismes de


coordination pour permettre aux différentes divisions de l’entreprise de ne pas être
tournées sur elles-mêmes, mais de concourir à l’objectif général de l’entreprise.
Ainsi, plus l’environnement est instable, plus la différenciation entre les divisions
sera grande et plus donc sera élevée la nécessité de l’intégration.

6.6. Henry Mintzberg (1939)


Ce professeur canadien de management a pu faire la synthèse des différentes
approches de l’Ecole de la Contingence et établir une typologie des structures en
fonction des différents types de contingences.

Il a ainsi distingué quatre facteurs de contingence à prendre en considérer pour faire


le choix d’une structure : il s’agit de l’âge et de la taille de l’organisation, de la
technologie de l’organisation, de l’environnement de l’organisation et du pouvoir. A
72

ces quatre facteurs s’ajoutent aussi la stratégie de l’organisation et l’environnement


culturel national.

Nous allons nous limiter à quatre de ces facteurs au regard de leur importance (l’âge
et de la taille de l’organisation, la technologie de l’organisation, l’environnement de
l’organisation et la stratégie de l’organisation). Etant donné que le facteur stratégie a
été déjà très abondamment abordé avec les apports de A. Chandler, seuls les trois
autres facteurs feront l’objet de nos développements ci-dessous.

6.6.1. L’âge et la taille de l’organisation

a. L’âge ou l’ancienneté d’une organisation

Elle montre son expérience qui se traduit :

• pour les petites entreprises, par un « esprit maison » qui prend racines
sur un « savoir-faire » forgé par des années de pratique, des habitudes et
des traditions ;
• pour les grandes organisations, par des structures très élaborées et très
complexes avec des tâches très formalisées et très codifiées ainsi que des
procédures très standardisées.

b. La taille ou la dimension de l’organisation

Elle a un impact sur la division du travail (nombre de départements, de


divisions et de tâches différents), son degré de formalisation, de codification
et de standardisation. Ainsi, plus la taille d’une organisation est grande, plus
sa structure a tendance à être mécaniste, car il a été constaté que les grandes
organisations (plus de 2.000 agents) se caractérisaient généralement par plus
de spécialisation, de différenciation horizontale et verticale, de règles et
procédures que les organisations de petite taille.

6.6.2. La technologie de l’organisation

Le système technique de l’organisation, c’est-à-dire le processus de transformation des


inputs en outputs, a aussi un impact sur sa structure. Ainsi :

• plus la technologie utilisée implique une activité répétitive, plus la structure a


tendance à être mécaniste, dans la mesure où cela implique un travail peu élaboré
nécessitant peu de qualifications, et donc une plus grande régulation du système
avec plus de contrôle des opérations et de formalisation ;
73

• plus la technologie est non routinière et complexe, plus la structure a tendance à


être organique, dans la mesure où cela requiert un travail plus élaboré nécessitant
plus de qualifications.

6.6.3. L’environnement de l’organisation

Comme dit plus haut, l’environnement externe dans lequel l’organisation opère, a un
impact sur sa structure. Ainsi :

• plus l’environnement est stable, plus la structure sera mécaniste ;


• plus l’environnement est dynamique et incertain (intensification de la concurrence,
accélération de l’innovation, raccourcissement des délais de livraison,
accroissement des exigences de qualité,…), plus la structure sera organique ;
• plus l’environnement est complexe, plus la structure sera décentralisée pour
permettre une meilleure réactivité ;
• plus l’entreprise est caractérisée par une diversification des marchés (entreprise
multi-produits et multi-marchés avec des nombreux segments de marché), plus elle
va adopter une structure divisionnelle pour tenir compte de la spécificité de chaque
segment de marché.
74

CHAPITRE 7 : L’ECOLE SOCIOLOGIQUE

7.1. Origine et postulats de l’Ecole Sociologique

L’Ecole Sociologique, qui date des années 1980, est partie de deux importants constats.
Le premier constat est que la structure d’une organisation n’est pas un fait qui lui est
imposé par son environnement extérieur, mais il est plutôt le construit de ses forces
internes, c’est-à-dire des hommes qui y travaillent. Le second constat est que les
organisations très formalisées ont généralement un niveau de performance plus élevé
que celle des organisations peu formalisées, mais que ces organisations très formalisées
connaissent, dans certains cas, des blocages qui entravent leurs performance : il n’y a
donc pas une relation univoque entre la structure adoptée par une organisation et sa
performance.

En partant de ces deux constats, l’Ecole Sociologique tente, d’une part, d’expliquer les
différences des structures caractérisant différentes organisations, et, d’autre part, de
trouver les causes qui expliquent les performances des organisation.

Cette école a connu plusieurs courants dont nous retiendront les quatre grands ciaprès
:

• le courant structuro- fonctionnaliste animé par Robert Merton, Philippe Selznick et


Alvyn Gouldner ;
• le courant de l’analyse stratégique de Michel Crozier ;
• le courant de la sociologie de l’action d’Alain Touraine ;
75

• le courant de la sociologie de l’identité et de la culture de Renaud Sainsaulieu.

7.2. Robert Merton (1910-2003)


Ce sociologue américain a mis en évidence les difficultés de l’application du modèle
bureaucratique de M. Weber. En effet, tout en acceptant les effets positifs du modèle
bureaucratique en termes de prédictibilité et d’efficacité, il en a démontré les effets
négatifs en termes de rigidités et de dysfonctions. Il a ainsi introduit trois importantes
notions :

• La notion de fonctions. Il a distingué ainsi le fonctions manifestes des fonctions


latentes :

- les fonctions manifestes sont créées dans un but prévu, à savoir contribuer de
façon spécifique en tant qu’éléments de l’ensemble ;
- les fonctions latentes sont des conséquences non prévues des fonctions
manifestes en tant qu’éléments de l’ensemble.

• La notion de dysfonction. Un élément peut être fonctionnel pour un sous-système


et être dysfonctionnel pour le système en tant que tout. A ce sujet, R. Merton
constate que plus les règles de la bureaucratie sont respectées, plus les
dysfonctionnements apparaissent (paralysie de l’organisation).

• La notion de déplacement des buts. Les travailleurs peuvent s’écarter de la finalité


de l’organisation pour ne se focaliser que sur les règles et les procédures : ils pensent
que l’essentiel pour eux est de les respecter et non d’aider l’organisation à atteindre
ses objectifs.

7.3. Philip Selznick (1919-2010)

Ce sociologue américain est un disciple de R. Merton. Dans ses recherches, il a confirmé


la notion de « déplacement des buts » et apporté deux autres importantes contributions
en rapport avec la notion de « structures informelles » :

• toute organisation engendre des structures informelles ;


• les structures informelles agissent comme des groupes de pression qui, par des
processus internes propres à chaque organisation, modifient les buts au fur et à
mesure, voire les dévient ou tout simplement les abandonnent.

7.4. Alvyn Gouldner (1920-1980)


76

Ce sociologue américain a mis en évidence trois formes de modèle bureaucratique qui


peuvent coexister au sein d’une même organisation :

• la bureaucratie « punitive » où les règles sont fixées par une autorité extérieure
avec un système efficace de sanction, règles qui seront donc respectées par le plus
grand nombre par crainte de sanction ;
• la bureaucratie « artificielle » ou « factice » où les règles sont fixées par une autorité
externe sans un système efficace de sanction, règles qui auront donc très peu de
chance d’être respectées par les agents ;
• la bureaucratie « représentative » où les règles sont fixées de manière collective
avec la participation des agents et qui seront donc respectées par le plus grand
nombre puisque considérées comme justes.

7.5. Michel Crozier (1922-2013) et Erhard Friedberg (1942)

M. Crozier, sociologue français, est le fondateur de l’Ecole Française de Sociologie des


Organisations avec son Centre de Sociologie des Organisations (CSO). Il a ainsi élaboré
la « Théorie de l’Acteur Stratégique » qui est très importante dans la sociologie des
organisations. Il a écrit deux importants ouvrages qui résument l’essentiel de sa
pensée29 que nous allons examiner en trois points.

7.5.1. Postulats de l’analyse stratégique de l’organisation

L’analyse stratégique de l’organisation est fondée sur les trois postulats ci-après :

• Les individus n’acceptent pas d’être considérés comme des simples ressources à la
disposition de l’organisation pour aider cette dernière à atteindre ses objectifs en
utilisant soit l’argent (Ecole Classique), soit les « bons stimuli » (Ecole des Relations
Humaines) pour ce faire : les individus sont, au contraire des acteurs qui
structurent l’organisation dans laquelle ils travaillent.

• Les individus sont donc des acteurs qui disposent d’une certaine liberté ou marge
de manœuvre qu’ils utilisent, à travers des jeux de pouvoir, dans une stratégie
visant à augmenter leur influence et à étendre leurs responsabilité. Ainsi, la
structure organisationnelle n’est pas seulement la conséquence de la prise en
compte de l’environnement extérieur de l’organisation, mais un construit humain
des forces internes à l’organisation.

29
Michel Crozier, Le phénomène bureaucratique, Ed. Le Seuil, Paris, 1963 ; Michet Crozier et Erhard Friedberg, L’Acteur et
le Système, Ed ; Le Seuil, Paris, 1977.
77

• Les individus sont des acteurs rationnels, mais leur rationalité est limitée par le
temps et les ressources dont ils disposent. En conséquence, ils vont se contenter
d’un objectif satisfaisant comme l’a spécifié H. Simon.

7.5.2. Concepts fondamentaux de l’analyse stratégique des organisations

M. Crozier va être rejoint par E. Friedberg, un sociologue autrichien, et les deux


chercheurs vont distinguer trois grands concepts de l’analyse stratégique des
organisations :

• Le système d’action concret. C’est l’ensemble des relations informelles que les
membres d’une organisation mettent en place pour résoudre au quotidien tous les
problèmes concrets. C’est donc un construit social non prévu dans les procédures,
mais qui s’avère indispensable au fonctionnement de l’organisation.

• Les zones d’incertitude. Aucune organisation ne peut échapper aux incertitudes


qui concernent ainsi tous les domaines de son activité (R&D, production, finances,
marketing ou RH). Ces incertitudes sont donc des contraintes pour l’individu en
tant qu’acteur, mais elles peuvent aussi être transformées par lui en opportunités
dès lors qu’il sait les maîtriser, ce qui lui confère ainsi une certaine autonomie,
influence et donc pouvoir dans l’organisation.

• Le pouvoir. M. Weber l’a défini en termes relationnels comme la capacité d’une


personne A d’obtenir qu’une personne B puisse faire quelque chose qu’elle n’aurait
pas fait sans l’intervention de la personne A. D’où la question de savoir l’origine ou
la source de ce pouvoir de la personne A sur la personne B.

7.5.3. Sources du pouvoir

L’analyse stratégique de l’organisation propose les quatre sources de pouvoir


cidessous qui permettent ainsi à une personne d’avoir la maîtrise d’une zone
d’incertitude, maîtrise qui est la condition de l’existence du pouvoir :

• la connaissance ou l’expertise : c’est une compétence ou une spécialisation


fonctionnelle difficilement remplaçable que possède une personne ;
• la maîtrise des relations avec l’environnement : ce sont les relations qui lient une
personne à une ou plusieurs autres organisations et qu’elle utilise pour renforcer sa
position stratégique dans son organisation ;
• l’implication dans les réseaux de communication : c’est la reconnaissance du rôle
de l’information dans la stratégie ;
78

• la maîtrise de la pratique des règles de l’organisation qui peuvent être à la fois


nombreuses et complexes dans certaines organisations donnant ainsi un avantage
à celui qui les maitrise le mieux.

7.6. Renaud Sainsaulieu (1935-2002)

Ce sociologue français fait aussi partie des principaux théoriciens de la sociologie des
organisations.

Il a collaboré avec M. Crozier avec qui il partage la notion du travailleur en tant


qu’acteur stratégique capable de se donner une certaine autonomie dans l’univers
formalisé du travail. Pour lui, le travail est aussi un lieu d’apprentissage culturel qui
va au-delà d’un espace de production : il devient un espace où se constitue l’identité
sociale des travailleurs dans une perspective évolutive.

Il identifie ainsi quatre modèles d’identité au travail selon la relation qui caractérise le
travailleur avec son travail :

• Le modèle de la fusion. C’est le modèle qui prévaut chez les travailleurs exécutant
des tâches peu qualifiantes avec un travail répétitif à la chaîne (travail mécanisé où
l’homme est dirigé par la machine). Ils n’ont aucune maîtrise de leur travail et donc
très peu de pouvoir pour influer sur celui-ci. Se fondre dans le collectif devient
ainsi, pour eux, la seule voie pour exister, le seul refuge et la seule protection face
à la toute puissance de l’employeur. Ils se forgent ainsi une conscience de classe
basée sur des valeurs telles que la camaraderie, la lutte et l’union.

• Le modèle de la négociation. C’est le modèle qui prévaut chez les travailleurs


exécutant des tâches qualifiantes. Ils ont ainsi une certaine maîtrise de leur travail
et donc suffisamment de pouvoir (d’expertise ou de connaissance) pour influer sur
celui-ci. Ils peuvent ainsi négocier avec l’employeur pour définir les règles qui vont
le régir du fait de leurs compétences techniques.

• Le modèle des affinités. C’est le modèle qui prévaut chez les travailleurs dont la
stratégie est orientée vers la gestion de leurs carrières. Cette identité les place ainsi
dans une logique individualiste qui les rend ouverts à toute mobilité favorable à
leur carrière.

• Le modèle du retrait. C’est le modèle qui prévaut chez les travailleurs très peu
investis dans leur travail. Pour eux, le travail est uniquement considéré comme une
nécessité de survie et non comme une valeur. Ainsi, seul le salaire, en tant que
contrepartie du travail, les intéresse.
79

7.7. Alain Touraine (1925-2023)

Ce sociologue français s’est spécialiste dans la sociologie de l’action sociale ou «


sociologie actionnaliste » et dans la sociologie des nouveaux mouvements sociaux
(mouvements étudiant, féministe, régionaliste, antinucléaire, écologiste,....).

Dans son livre consacré au travail ouvrier30, il situe la place des ouvriers dans la société
française et analyse l’histoire du déclin du mouvement ouvrier pour comprendre les
causes de son déclin dans la société post-industrielle. Il distingue, à cet effet, trois
phases de l’industrie moderne appelée « système ABC ».

7.7.1. Phase A ou le Système Professionnel avec la machine universelle

Elle correspond à la Seconde Révolution Industrielle (1850). Ici, les travailleurs


(compagnons et ouvriers) interviennent directement sur la matière, ils ont un métier et
une habileté qui leur sont reconnus : c’est le travail artisanal. Ils ont donc une emprise
sur la machine et ils disposent de ce fait d’une grande autonomie dans la conception
de leur travail (choix des méthodes) et dans l’exécution de leur travail (choix des
gestes). La relation homme-machine est donc très forte dans la mesure où c’est le
travailleur qui commande la machine qu’il utilise comme un outil à son service pour
affiner son savoir-faire.

7.7.2. Phase B ou le Système de Production en Grande Série avec la machine


spécialisée

Cette phase correspond au début du XX° siècle avec la machine spécialisée et donc le
taylorisme : c’est le travail mécanisé. Le travailleur n’a plus de métier, il est devenu un
simple ouvrier spécialisé (OS) exécutant des gestes simples et répétitifs, il intervient
peu sur la matière, il utilise une machine spécialisée pour réaliser une opération
spécifique (en tant qu’OS). La relation homme-machine devient ainsi très faible du fait
que ce n’est plus l’homme qui commande à la machine, mais c’est plutôt l’homme qui
est commandé par la machine (rythme de travail imposé par les temps alloués ou
temps standard et un convoyeur).

7.7.3. Phase C ou le Système Technique avec la machine autonome


Cette phase correspond à la fin du XX° siècle et à l’arrivée massive du travail
automatisé. L’ouvrier n’intervient plus sur la matière du fait que le travail est effectué

30
Alain Touraine, Le travail ouvrier aux usines Renault, CNRS, 1955.
80

par un ensemble de machines autonomes, il n’utilise plus la machine qu’il doit


désormais se contenter de contrôler, de surveiller et d’entretenir.

7.8. Jean-Daniel Reynaud (1926-2019)

Ce sociologue français est l’auteur de la « Théorie de la Régulation Conjointe ». Il


constate que les règles qui s’appliquent aux organisations découlent de longues,
difficiles et permanentes constructions, règles qu’il classe en trois types :

• Les règles de contrôle. Ce sont des règles édictées par l’employeur dans le but de
contrôler le comportement des travailleurs. C’est la régulation de contrôle qui est
officielle ou explicite.

• Les règles autonomes. Du fait qu’ils contrôlent et maîtrisent leur périmètre de


travail, les travailleurs finissent par avoir une certaine autonomie. Ils peuvent ainsi
élaborer leurs propres règles ou contre-règles dans le but de limiter le contrôle fait
par l’employeur. C’est la régulation autonome qui est officieuse ou implicite.

• Les règles conjointes. C’est un compromis entre les deux types précédents,
compromis qui devient ainsi la règle commune. C’est la régulation conjointe qui
combine l’officielle et l’officieuse, l’explicite et l’implicite. Elle est te résultat des
rapports de forces entre les deux groupes, celui de l’employeur et celui des
travailleurs, groupes qui essaient chacun d’orienter les règles conjointes en leur
faveur.

CHAPITRE 8 : L’ECOLE ECONOMIQUE

8.1. Origine et postulats de l’Ecole Economique


L’Ecole Economique, qui date également des années 1980, met les outils de l’analyse
économique au service de l’étude des organisations.

Elle pose la question des liens entre l’économique et le social. Elle conclut que
l’économie est indissociable de la sociologie. En effet, elle considère que l’entreprise
n’est pas un acteur unique et qu’il faut plutôt la considérer comme un nœud des
contrats entre plusieurs partenaires caractérisés par des intérêts divergents.

Elle est représentée principalement par la « Théorie de l’Agence » et la « Théorie des


Coûts de Transaction » auxquelles nous allons ajouter l’« Approche Evolutionniste de
la Firme »
81

8.2. Théorie d’agence

8.2.1. Définition et contenu

Les premières traces de la théorie de l’agence remontent à A. Smith31 quand il écrivait


qu’on ne pouvait pas s’attendre à ce que les gestionnaires de l’argent d’autrui puissent
le faire avec le même souci que celui qui caractérise les actionnaires d’une société.

Mais c’est après exactement deux cents ans que cette théorie va apparaitre au grand
jour avec Michel Jensen et William Meckling qui ont défini « une relation d’agence
comme un contrat par lequel une ou plusieurs personnes, le principal, engage une
autre personne, l’agent, pour exécuter en son nom une tâche quelconque qui implique
une délégation d’un certain pouvoir de décision à l’agent ». C’est donc la relation qui
lie par un contrat le « principal » ou le commanditaire à un « agent » ou commandité,
la situation du principal dépendant de l’action de l’agent.

Pour cette théorie considère les entreprises sont des « nœuds de contrats » de
délégation formelle du pouvoir entre un principal et un agent. Quoique cette théorie
se soit plus appliquée à la relation propriétaire et manager pour la gestion de son
entreprise, elle peut aussi s’appliquer à la relation entre :

• l’actionnaire et l’agence pour la gestion de son bien ;


• l’employeur à l’employé pour l’exécution d’une tâche ;
• le client et la banque pour la gestion de ses avoirs ;
• le client et le vendeur ;
• le médecin et le patient pour s’occuper de sa santé.
8.2.2. Problème de l’asymétrie de l’information
La théorie d’agence a été développée par les néoclassiques qui, contrairement à
l’hypothèse d’un marché parfait caractérisé par sa transparence des classiques, ont mis
en évidence le fait que le marché est souvent caractérisé par une asymétrie
d’information.

Il y a asymétrie de l’information quand : (i) l’agent dispose de plus d’information que


le principal concernant la tâche qu’il doit exécuter ; (ii) le principal ne dispose pas de
toutes les informations nécessaires sur l’agent à qui il délègue le pouvoir de gestion.
L’agent peut dès lors être tenté d’utiliser cet avantage à son propre profit et donc contre
les intérêts du principal. Il y a alors divergence d’intérêts entre les deux contractants
et déséquilibre dans l’exécution du contrat.

31
A. Smith (1776), op. cit.
82

Cette divergence d’intérêt entre le principal et l’agent n’est pas occasionnelle, mais
plutôt inscrite dans la nature des choses dans la mesure où les actionnaires cherchent
tout naturellement à maximiser d’abord la valeur de la firme pour un accroissement
de leur rémunération (dividende), tandis que les managers cherchent tout
naturellement aussi à maximiser leur rémunération (salaire et autres avantages). D’où,
des intérêts naturellement contradictoires entre les deux parties.

Ceci découle du fait que la théorie d'agence repose notamment sur l’hypothèse
comportementale selon laquelle « les individus cherchent à maximiser leur utilité ».
Or, manager et actionnaire ont des fonctions d'utilité différentes. Ainsi, le manager a
tendance à s'approprier une partie des ressources de la firme sous forme de salaires et
de divers avantages pour satisfaire ses propres besoins. De même, le manager va
chercher aussi à renforcer sa position au sein de l’entreprise et à avoir ainsi tendance à
privilégier la croissance (intérêt de l’entreprise et du sien) au détriment du profit
(intérêt de l’actionnaire).

Il faut souligner ici que la relation d'agence n'existe que parce que le principal estime
que l’agent dispose des capacités particulières (savoir, savoir-faire, savoir-être) qui
font qu’il est mieux placé que lui pour gérer son bien : la relation contractuelle ou
d’agence trouve donc son origine dans l‘asymétrie d'information. De ce fait, ce n’est
pas l’asymétrie de l’information qui pose problème, mais plutôt la combinaison entre
l’asymétrie de l’information et la divergence des intérêts entre les parties dans la
mesure où :

• en l’absence de toute divergence d’intérêt, l’agent agira automatiquement dans


l’intérêt du principal même en cas d’asymétrie de l’information ;
• en l'absence de tout problème d'asymétrie d’information, le principal découvrira
aisément tout comportement déviant dans le chef de l’agent et pourra facilement y
mettre un terme.

Comme dit ci-dessus, le problème ne se pose donc que quand l'asymétrie


d’information (qui est la raison d’être de tout contrat entre principal et agent) est
associée à une divergence d’intérêts entre les deux parties (qui n’est pas une certitude,
mais dont la probabilité d’occurrence est très élevée).

Comme stipulé plus haut, l’asymétrie de l’information peut se matérialiser sous forme
soit de sélection adverse, soit d’aléa moral.

8.2.3. Sélection adverse ou l’antisélection


83

Le problème de la sélection adverse ou de l’antisélection comme manifestation de


l’asymétrie d’information, se pose au moment de la signature du contrat entre le client
et le vendeur (ex-ante).

En effet, sur un marché (cas particulier des produits d’occasion32), il y a une asymétrie
totale d’information du fait que seuls les vendeurs connaissent la réelle qualité de leurs
produits, qualité qu’ils ont tendance à surestimer pour pouvoir vendre les dits
produits aux clients au prix le plus élevé. Quant aux acheteurs, ils ne disposent pas
d’assez d’éléments pour pouvoir juger de la qualité des produits leur offerts par les
vendeurs : ils ne peuvent donc ni faire confiance aux déclarations des vendeurs, ni
déduire que le prix reflète la qualité du produit.

Du fait que les acheteurs n’ont pas confiance en leurs déclarations, les vendeurs des «
bons produits » peuvent se trouver dans l’impossibilité de les vendre à leur juste prix
et donc dans la nécessité de les retirer du marché, laissant ainsi seuls les « mauvais
produits » sur le marché. En conséquence, le prix ne joue plus son rôle d’équilibre des
forces du marché et la concurrence devient factice du fait que l’acheteur, par manque
d’information, risque d’acheter un produit dont la qualité ne correspond pas au prix
affiché ou de proposer un prix tellement bas que les bons produits sont retirés du
marché.

8.2.4. Aléa moral

L'aléa moral ou « hasard moral » correspond au comportement caché de l’agent qui


intervient généralement après la signature du contrat (ex-post). C’est ce qui arrive
notamment lorsque le principal, ne disposant pas de l’information voulue, ne peut
apprécier la performance de l’agent. De ce fait, ce dernier est tenté d’agir dans son seul
intérêt et d'annoncer au principal non informé que les mauvais résultats sont le fait
d'événements indépendants de sa volonté. C’est le cas des travailleurs dont l’effort ne
peut être toujours observé objectivement et qui, de ce fait, peuvent avoir intérêt à
relâcher l’effort et à imputer leurs mauvaises performances à des facteurs tiers.

8.2.5. Incitation et contrôle de l’agent

Pour se prémunir des effets de cette asymétrie de l’information et pousser l’agent à


exécuter correctement son contrat, le principal va utiliser un certain nombre de moyens
à la fois d’incitation et de contrôle.

32
Ackerof Gerorges, The market for lemons : quality uncertainty and market mechanism, in Quartely Journal of
Economics, vol. 84, N° 3, Aug. 1970, pp. 488-500.
84

Comme moyens d’incitation de l’agent à la disposition du principal, on peut citer les


bonus, la participation, l’intéressement ou les primes d’objectifs.

Comme moyens de contrôle de l’agent, le principal va utiliser un certain nombre


d’organes de gouvernance et de mécanismes de contrôle :

• les principaux organes de gouvernance sont le Conseil d’Administration, les


Commissaires aux Comptes, les auditeurs externes, les cabinets comptables et de
reporting ;
• les principaux mécanismes de contrôle sont la planification des actions à mener, les
tableaux de bord, le contrôle de gestion, le reporting, l’audit et la certification des
comptes.

8.3. La théorie des coûts de transaction

La théorie des coûts de transaction est l’œuvre de deux auteurs : Ronald Coase et Oliver
Williamson.

8.3.1. Ronald Coase (1910- 2013)

Ce britannique, Prix Nobel d’économie, est le fondateur de la théorie des coûts de


transaction.

Contrairement aux classiques et aux néo-classiques pour qui le marché est le seul
mécanisme optimal de coordination de l’activité économique, R. Coase soutient que la
firme est un mode alternatif au marché. Alors que la coordination par le marché se fait
par le système des prix (qui est déterminé par l’ajustement entre l’offre et la demande),
la coordination par la firme se fait administrativement par l’autorité et la hiérarchie.
Pour lui, la légitimité de la firme se fonde aussi sur sa capacité à effectuer des
transactions en interne d’une façon plus économique que par le recours au marché.

La question dès lors de savoir comment choisir entre ces deux modes de coordination.
R. Coase propose que la réponse à cette question puisse être trouvée à travers leurs
coûts respectifs, dans la mesure où il soutient que toute transaction économique
engendre des coûts préalables à leur réalisation qu’il appelle « coûts de transaction ».
Ainsi, autant le recours au marché engendre des coûts (coûts d’analyse, de négociation,
de rédaction ou encore de vérification de la bonne exécution des contrats), autant la
coordination par la firme ou coordination internalisée engendre aussi des coûts
spécifiques (dus notamment à la décroissance des rendements des activités
managériales). Par conséquent, on va préférer la coordination interne par la firme
aussi longtemps que ses coûts sont inférieurs à ceux de la coordination par le marché,
85

et recourir à la coordination par le marché plutôt que par la firme dès lors que ce
rapport s’inverse.

8.3.2. Olivier Williamson (1932-2020)

Les travaux de cet américain, également Prix Nobel d’économie, se situent dans le
prolongement de ceux de R. Coase. Il va se concentrer en particulier sur :

• l’opérationnalisation du concept de coûts de transaction ;


• les conditions où l’intégration d’une activité au sein de la firme va être préférée au
recours au marché.

Concernant les coûts de transaction, ils désignent le prix d’implémentation d’une


transaction entre deux agents individuels ou collectifs. Ils peuvent aussi se définir
comme les coûts de fonctionnement du système économique. De manière plus
détaillée, les coûts de transaction comprennent :

• les coûts de collecte d’informations relatives aux clients (partenaires) potentiels (y


compris le temps consacré à cette opération) ;
• les coûts de traitement de ces informations ;
• les coûts de passation (et d’exécution) des accords avec les emprunteurs
sélectionnés ;
• les coûts de surveillance ou de contrôle d’exécution de ces accords ; les coûts des
opportunités manquées du fait de ces accords.

Concernant les conditions de recours à la coordination soit par marché, soit par la
firme, il va partir d’un total de cinq hypothèses, les deux premières étant relatives au
comportement des Agents et les trois autres portant sur les caractéristiques des
transactions.

a) Les cinq hypothèses d’O. Williamson

• La rationalité limitée des Agents. Il dit, comme H. Simon, que es Agents


ont une capacité cognitive limitée, particulièrement lorsqu’ils se trouvent
dans des situations complexes, ce qui ne leur permet pas d’envisager toutes
les alternatives possibles et de calculer toutes les conséquences possibles de
leurs décisions. D’où, accroissement des coûts de transaction,
particulièrement le coût de conception des contrats.
86

• L’opportunisme des Agents. Etant donné que le contrat ne peut prévoir


toutes les alternatives possibles, les Agents peuvent être tentés d’adopter un
comportement opportuniste en faveur de leurs propres intérêts et au
détriment de ceux du Principal. Il définit l’opportunisme comme une
recherche d'intérêt sous forme de tromperie qui peut prendre les formes de
mensonge, de vol et de tricherie. D’où, accroissement des coûts de
transaction, particulièrement le coût de contrôle de la bonne exécution des
contrats.

• La spécificité des actifs. Un actif est dit spécifique s’il nécessite des
investissements spécifiques pour réaliser une transaction particulière. D’où,
des coûts supplémentaires en cas de redéploiement de cet actif vers d’autres
usages.

• L’incertitude des conditions de réalisation de la transaction. Plus cette


incertitude est grande, plus il y a augmentation des coûts de transaction.

• La fréquence de la transaction. Plus une transaction est répétée, plus les


Agents ont des occasions d’être opportunistes et donc plus les coûts de
transactions augmentent.

b) Minimisation des coûts des transactions

A partir de ces cinq hypothèses, O. Williamson recherche la forme d’organisation


la plus adaptée en termes de minimisation des coûts des transaction. Ceci implique
un choix entre le recours au marché et le recours à la firme. Rappelons que pour
lui, la firme est un système contractuel ou un arrangement institutionnel caractérisé
par l’autorité et la hiérarchie qui permettent ainsi à la Direction Générale de
prendre des décisions pour, d’une part, pouvoir faire face à des évènements non
prévus dans le contrat, et, d’autre part, réduire les cas d’opportunisme.

Tableau n° 6 : Résumé de l’analyse d’O. Williamson


Fréquence des Caractéristiques de l’investissement
transactions Non spécifique Peu spécifique Très spécifique
Faible Marché (1) Contrat avec arbitrage (2)
Forte (Contrat Contrat bilatéral Internalisation (4)
classique) (3)
Source : Adapté de Magali Chaudey, L’approche contractuelle de la firme. Synthèse des
caractéristiques des approches contractuelles de la firme 14/12/2011, consulté sur Google le
25/10/2023 à 23 h 09.
87

(1) Marché : transaction occasionnelle avec un objet très limité, la totalité des
éventualités prévues (pas d’incertitude) et peu d’importance accordée à
l’identité des parties (relations impersonnelles)
(2) Contrat avec arbitrage : relation de LT soumise à une forte incertitude et qui ne
peut donc se déroules sur le marché. D’où risques élevés de conflits d’intérêts
et de comportements opportunistes, et donc nécessité de l’arbitrage d’un tiers
pour la conclusion de ce type de contrat.
(3) Contrat bilatéral : contrat entre contractants gardant leur autonomie (ex.
contrats de sous-traitance ou de franchise).
(4) Internalisation : relation caractérisée par une répétition de la transaction, un
degré d’incertitude très élevé et des actifs très spécifiques. D’où, la firme est le
mode de coordination le plus adapté.

Le tableau ci-dessus permet donc de savoir dans quelles conditions il faut recourir
à un des deux modes de coordination, le marché ou la firme.

8.4. Approche évolutionniste de la firme

Cette approche est l’œuvre de Richard Nelson (1930) et de Sydney Winter (1935). Pour
cette école, le moteur de l’entreprise n’est pas le profit, mais plutôt la volonté de survie.
Pour ce faire et à l’instar des espèces vivantes, les entreprises s’adaptent et se
transforment en permanence, à travers l’apprentissage et l’innovation. C’est donc un
modèle inspiré du darwinisme qui considère la firme comme un ensemble dynamique
de compétences.

Ce modèle met ainsi en exergue deux notions centrales : celle des routines et celle de
contrainte de sentier.

8.4.1. Les routines

Les firmes se différencient les unes des autres par leurs compétences particulières
(savoir, savoir-faire, savoir être) sur le double plan technique et organisationnel,
compétences accumulées au fil du temps. D’où, des règles et des procédures
spécifiques à chaque firme, lesquelles sont appelées « routines ».

Ces routines constituent donc l’identité propre à chaque firme et sont censées lui
donner un avantage compétitif. Or, ces routines qui sont synonymes d’efficacité pour
la firme, peuvent devenir totalement inadaptées si son contexte, c’est-à-dire son
environnement tant interne qu’externe, venait à se modifier de façon notable. D’où la
nécessité de les faire évoluer.
88

8.4.2. La contrainte de sentier

Ces routines ne déterminent pas seulement l’action présente de la firme : elles


déterminent aussi en grande partie son avenir. D’où, dépendance de la firme de son
passé et de son histoire, dépendance que R. Nelson et S. Winter ont appelée « contrainte
de sentier ». Cette dépendance limite ainsi les choix futurs de la firme.

Bibliographie de base

- AÏM Roger, L’Essentiel de la Théorie des Organisations, 11ème édition, ED. Gualino,
Paris, 2018.
- AUTISSIER David, GIRAUD Laurent et JOHNSON Kevin, Les 100 Schémas du
Management, Ed. Eyrolles, Paris, 2015
- CAVAGNOL André, CAVAGNOL Bérenger et ROULLE Pascal, L’Essentiel des
Auteurs Clés en Management, Gualino, Lextenso Editions, 2013.
- CENECO, Dixeco du Management, 3ème édition, Editions ESKA, 2000.
89

- CHARREIRE PETT Sandra et HUAULT Isabelle (sous la direction de), , Les Grands
Auteurs en Management, EMS Editions, 3ème édition, 2017.
- DCG 7, Management. Manuel, 6ème édition, Editions Dunod, Paris, 2018.
- GAMELA NGINU Odilon, Introduction Générale au Management. Manuel d’Initiation
à la Gestion des Entreprises, Editions Universitaires Africaines, Kinshasa, 2015.
- MINTZBERG Henry, Le Management. Voyage au Centre des Organisations, 2ème
édition, Editions d’Organisation, Paris, 2004.
- PLANE Jean-Michel, Théorie des Organisations, 4ème édition, Dunod, Paris, 2013.
- ROBBINS Stephen, DECENZO David, COULTER Mary et RULLING Charles-
Clemens, Management. L’Essentiel des Concepts et Pratiques, 9ème édition, Editions
Nouveaux Horizons, 2014.
- SCHERMERHORN R. John, Le Management en Action, 3ème édition, Editions
Pearson, Québec, 2013.

Vous aimerez peut-être aussi