Cours Theorie Organisations
Cours Theorie Organisations
Cours Theorie Organisations
0. INTRODUCTION
En tant que regroupement formel d’individus qui s’assignent des buts et des
objectifs en mettant en œuvre des ressources spécifiques, toute organisation, quelle
qu’en soit la nature, doit impérativement viser la performance. La performance est
généralement mesurée à travers deux dimensions que sont l’efficacité (atteindre les
objectifs fixés) et l’efficience (atteindre les objectifs fixés au coût le plus bas en
termes de ressources), auxquelles s’ajoute désormais celle de l’effectivité (atteindre
les objectifs fixés en intégrant ceux des parties prenantes de l’organisation).
De la multitude des typologies des organisations, on peut retenir celle qui distingue
les organisations à but non lucratif des organisations à but lucratif. Ces dernières,
qui intéressent le plus les étudiants en sciences de gestion/sciences commerciales,
se sont caractérisées par un gigantisme croissant depuis la Première Révolution
Industrielle (1770-1850) qui a été marquée par l’invention de la machine à vapeur
avec le charbon (comme source d’énergie), le fer et le développement de l’industrie
légère (textile, alimentation).
Dans ce cours, nous avons opté pour une présentation chronologique de ces
différents courants de pensée, au lieu d’une approche thématique. Ce choix nous
parait plus adapté sur le plan pédagogique. Pour ce faire, nous allons nous baser
sur le classement qui en a été fait par Richard Scott en 1978 et qui reste encore
d’une très grande actualité (Figure n° 1).
Le premier axe ou axe horizontal, subdivise les approches et donc les théories et les
écoles selon qu’elles considèrent que l’organisation est un système fermé ou au
contraire un système ouvert :
Approche rationnelle
Organiser pour
Adapter la
produire
structure
efficacement
Motiver Mobiliser et
l’individu faire participer
Approche
sociale
Source : R. Aïm, L’essentiel de la Théorie des Organisations, 11ème édition, Edition Gualino,
Paris, 2018, p. 20
Le deuxième axe ou axe vertical, subdivise les approches et donc les théories et les
écoles selon qu’elles sont rationnelles ou sociales :
Ce cours est destiné à deux publics : d’une part, les étudiants du premier cycle
universitaire des sciences économiques et de gestion ainsi que ceux des écoles de
commerce, et, d’autre part, les apprenants du troisième cycle.
6
Pour les étudiants du premier cycle, l’objectif est de les initier au contenu et à la
logique de ces différents courants, ce qui leur permettra de se familiariser avec
certaines notions indispensables à la bonne compréhension d’un certain nombre de
cours de gestion inscrits dans leur programme.
Pour les apprenants du troisième cycle qui n’ont pas pu bénéficier de cet
enseignement dans leur cursus antérieur, l’objectif est de leur donner, en tant que
futurs doctorants, différentes grilles d’analyse des organisations dans toute leur
complexité. Ces grilles d’analyse leur serviront ainsi de soubassement théorique
sur lequel ils devront impérativement adosser leurs recherches doctorales comme
c’est le cas en sciences de gestion.
Il en sera de même pour les apprenants du troisième cycle, mais avec une grande
place réservée à la discussion à travers les exemples puisés dans l’expérience
professionnelle de l’enseignant et suscités auprès des apprenants en les appelant à
mettre aussi en exergue leur propre vécu professionnel.
7
L’Ecole Classique date des années 1900. Elle a eu comme pionniers les
ingénieurs, ce qui était tout à fait normal du fait du progrès scientifique
fulgurant issu de deux phases de la Révolution Industrielle. On a ainsi assisté
au passage du travail artisanal au travail en usine, ce qui explique qu’ils se
soient essentiellement intéressés à l’organisation du travail en ateliers pour
proposer différents modèles analytiques, empiriques et normatifs. Ces
ingénieurs ont été complétés par les spécialistes de la gestion non plus des
ateliers, mais des entreprises.
Les principaux auteurs de cette école sont : Adam Smith, Frederick W. Taylor,
Franck et Liliane Gilbreth, Henry Gantt, Henry Ford, Henri Fayol et Max
Weber.
Ces auteurs de l’Ecole Classique se sont inspirés des deux institutions les mieux
organisées et les plus efficaces de l’époque, l’Eglise et l’armée, institutions
fondées sur une forte hiérarchisation des fonctions et un respect strict de
l’autorité pyramidale. Plus précisément, ils vont partir de la division du travail,
concept fondateur de cette école, avec deux postulats sous-jacents :
• le postulat mécaniste selon lequel les travailleurs ne sont que des rouages de
la mécanique qu’est l’entreprise ;
• le postulat rationaliste selon lequel les travailleurs et les équipements de
l’entreprise peuvent être agencés rationnellement de façon à atteindre la
plus grande efficience dans la production.
Comme suggéré ci-haut, l’Ecole Classique est représentée par deux grands
courants ayant des préoccupations différentes :
Nous allons ainsi commencer cette ronde des auteurs par Adam Smith du fait
qu’il est sans conteste le géniteur du concept de la division du travail, et qu’il
doit dès lors être considéré comme le précurseur de cette Ecole Classique bien
qu’il ait vécu au 18ème siècle, c’est-à-dire bien avant la Seconde Révolution
Industrielle.
Dans son ouvrage intitulé « Recherche sur la Nature et les Causes de la Richesse
des Nations » (1776), il a montré que la croissance économique d’une nation
était imputable à deux causes majeures : l’accumulation du capital et la division
du travail. Concernant cette deuxième cause, elle permet, pour lui, d’améliorer
la productivité du travail, et donc l’efficience, du fait qu’elle permet de tirer
profit de la différence des aptitudes caractérisant les ouvriers d’une entreprise.
Cet ingénieur mécanicien américain a fait ses recherches dans les entreprises
sidérurgiques « Midvale & Bethlehem » (Etat de Pennsylvanie). Il a constaté que
les ouvriers utilisaient chacun sa méthode pour réaliser une même tâche, avec
comme conséquences l’impossibilité d’atteindre les objectifs fixés (inefficacité)
et une grande perte de temps (inefficience). C’est pourquoi, il va décider
d’étudier de façon scientifique comment le travail des ouvriers devait être fait.
Autrement dit, il va substituer la connaissance scientifique des différents
aspects du travail de chaque individu à l’empirisme ouvrier qui était jusque-là
la règle, il va codifier les méthodes du travail industriel et donc tourner le dos à
cet empirisme.
1
Taylor F., Principes de l’organisation scientifique des usines, Dunod, Paris, 1911.
10
De leur côté, les ouvriers doivent exécuter la ou les tâches leur assignées en
suivant scrupuleusement les instructions des ingénieurs et dans les temps
leur impartis par ces derniers.
Selon ce principe, chacun des deux groupes doit se charger des tâches pour
lesquelles il se montre plus compétent que l’autre, à savoir la conception
pour la direction et l’exécution pour les ouvriers. Ceci est donc une rupture
totale avec le passé où la quasi-totalité du travail et la majorité des
responsabilités incombaient aux seuls ouvriers, dans la mesure où ces
derniers concevaient et exécutaient le travail leur assigné chacun à sa façon.
Ayant constaté que les meilleurs ouvriers calquaient leur vitesse d’exécution
des tâches (et donc leur rendement) sur celle de leurs collègues les moins
productifs, ce qui était tout à fait normal du fait qu’ils avaient tous un salaire
journalier identique, F. Taylor va remédier à cette anomalie en introduisant
le salaire différentiel basé sur le rendement de chaque ouvrier. Ainsi, le
salaire de chaque ouvrier sera calculé désormais par comparaison entre ses
temps réels et les temps alloués ou temps standard.
Pour s’assurer que les différentes tâches sont exécutées par les ouvriers
conformément aux principes scientifiques établis par les ingénieurs, F.
Taylor va prôner une coopération franche entre la direction et les ouvriers
en préconisant que les contremaîtres puissent opérer les contrôles
nécessaires. Etant donné que chaque contremaître doit aussi être un
spécialiste dans son domaine pour augmenter sa productivité à l’instar des
ouvriers, chacun de ces derniers dépendra de plusieurs contremaîtres
contrôleurs qui vont l’aider, chacun dans son domaine de spécialisation, à
résoudre les différents problèmes auxquels il fait face. Ainsi, chaque ouvrier
est soumis à l’autorité fonctionnelle d’autant de contremaîtres qu’il y aura
des fonctions différentes impliquées dans l’exécution des tâches lui
assignées.
Henry Ford est un industriel qui a fondé la société automobile Ford Company en
1903. En 1908, il a lancé la Ford T, un modèle économique qui deviendra vite le
symbole de la société de consommation de masse naissante aux Etats-Unis : il
va le fabriquer en si grande série qu’il va représenter la moitié des véhicules
circulant aux Etats-Unis en 1918. Pour arriver à cette performance inouïe, il a
combiné les principes de l’O.S.T. de F. Taylor avec ses propres innovations
technologiques et salariales connues sous le nom de « Fordisme »2, à savoir :
2
Ford H., Ma vie et mon œuvre, Payot, Paris, 1925.
13
• ils ont été parmi les premiers à utiliser des films d’animation pour étudier
les mouvements du corps et des membres ;
• ils ont inventé le micro-chronomètre capable de mesurer les temps à 2
microsecondes près : en plaçant l’appareil dans le champ de l’ouvrier
photographié pour pouvoir déterminer le temps exact qu’il consacre à
chacun de ses mouvements, ils ont pu identifier et donc éliminer les gestes
inutiles, invisibles à l’œil nu ;
• ils ont élaboré un système répertoriant 17 mouvements élémentaires du
corps qu’ils ont baptisé THERBLIGS (anagramme de Gilbreth), ce qui a
facilité la mesure des temps (mesure des temps des mouvements ou motions
times measurement) et l’allocation des temps aux ouvriers pour l’exécution
des tâches (temps alloués ou temps standards).
3
Gilbreth F., Motion study, D. Van Nostrand, New York, 1911) ; Gilbreth F. et Gilbreth
L., Applied motion study, Sturgis & Walton Co, New York, 1917; Gilbreth F. et Gilbreth
L., Time and motion study as fundamental factors in planning and control, The Mountain
Press, New Jersey, 1921.
14
Alors que F. Taylor et ses disciples sont des scientifiques qui s’intéressent au
management des ateliers, le français H. Fayol, Directeur Général d’une grande
entreprise charbonnière dénommée « Compagnie de Commentry », s’intéresse
à la direction des entreprises. Ainsi, H. Fayol est à la direction ce que F. Taylor
est à l’atelier, le premier en tant que fondateur du courant de la « Théorie
Administrative » ou de l’« Organisation Administrative du Travail » (OAT) et
le second en tant que fondateur du « Management Scientifique » ou de l’«
Organisation Scientifique du Travail » (OST).
4
Gantt H., Work, wages and profits, Engineering Magazine Co, New York, 1916 ; Gantt
H., Organizing for work, Harcourt, Brace and Howe, New York, 1919.
5
Fayol H., Administration Générale et Industrielle, Dunod, Paris, 1918. Administration
Générale et Industrielle, Dunod, Paris, 1918.
15
• le management est donc un métier que l’on doit apprendre sur les
bancs de l’université au même titre qu’on apprend à devenir médecin,
ingénieur, chimiste, géologue, biologiste, comptable, psychologue ou
avocat ;
• le management est différent des cinq autres fonctions de l’entreprise
(production, achat/distribution, finances, comptabilité et sécurité) ;
• le management est une fonction universelle, car commune à toutes les
activités humaines, de la tenue d’une maison à l’administration d’un
Etat.
• l’ordre : (i) l’ordre matériel implique qu’une place ait été réservée à
chaque objet et que chaque objet soit à sa place ; (ii) l’ordre social
implique qu’une place ait été réservée à chaque agent en fonction de
ses capacités et que le bon agent soit à la bonne place (The right man in
the right place) ;
Pour M. Weber, ce modèle doit être reposer sur deux piliers pour donner
les résultats attendus :
• la division du travail ;
• la hiérarchisation claire du pouvoir ;
19
6
Weber M., The social and economic organizations, Free Press, New York, 1947.
20
Cette école a permis d’asseoir nos connaissances actuelles sur la gestion des
ressources humaines à travers des nombreuses notions et techniques, dont :
• le leadership ;
• la motivation ;
• la détection des profils psychologiques ;
• la définition des postes et des organigrammes ;
• le travail en équipe ;
• l’évaluation des performances ;
• la gestion des conflits ;
• les enquêtes sur les attitudes ;
• l’orientation professionnelle ;
• la formation des cadres ;
• la participation ;
• les systèmes de rémunération par équipe ; les techniques de
négociation.
C’est ainsi que dès 18257, il va favoriser les horaires réglementés, la pause repas
payée, la législation sur le travail des enfants, la promotion de l’instruction
publique, la fourniture des outils de travail par l’entreprise et les projets d’utilité
publique.
Elle soutient que l’organisation des entreprises peut être étudiée du point de
vue des comportements individuels et collectifs8. Elle donne ainsi une vision
humaniste de l’entreprise en estimant notamment que la gestion des entreprises
doit se fonder sur une éthique collective plutôt que sur l’individualisme, le
potentiel de chacun ne pouvant s’exprimer qu’à travers le groupe.
Elle en conclut que le travail du manager doit consister à harmoniser les efforts
individuels pour arriver à les coordonner dans un effort collectif impliquant
l’exercice du pouvoir avec les employés. Ainsi, managers et travailleurs sont
des partenaires au sein d’un même groupe. Ce qui implique que les managers
doivent diriger les employés en s’appuyant sur leur expertise et leurs
connaissances, et non sur l’autorité formelle liée à leur position.
7
Owen R., A new view of society, E. Bliss & White, New York, 1825.
8
Follett M., The new state : group organization, the solution of popular government,
Longman Green, Londres, 1918.
9
Munsterberg H., Psychology and industrial efficiency, Houghton Mifflin, New York,
1913.
22
10
Mayo M., The human problems of an industrial civilization, McMillan, New York, 1933.
23
11
Chester I. Barnard, The function of Executive, Harvard Business Press, Cambridge,
Ma, 1938.
24
12
Lewin K., A dynamic theory of personality, Selected papers, Lewin Press, 2013 (première
publication en 1935).
13
Maslow A., A theory of human motivation, in Psychological Review, Juillet 1943, pp.
370-396.
25
5. Besoins
d’autoréalisation
4. Besoins’estime
d
3. Besoins sociaux
2. Besoins de sécurité
1. Besoins physiologiques
Source : Terry G. & Franklin S., Les principes du management, 8ème édition,
Tendances Actuelles, Economica, 1985, p. 352.
• les besoins dits fondamentaux ne sont pas immuables, mais varient d’une
personne à l’autre, d’une époque à l’autre, d’un lieu à l’autre (cas de
l’habillement, de la nourriture ou du logement) ;
• des recherches ont démontré que même l’ouvrier le plus modeste a aussi
des besoins d’estime et d’autoréalisation, même si l’idée que l’on se fait
27
Il est l’auteur de la théorie des trois besoins essentiels14 selon laquelle il existe
trois besoins essentiels qui servent de moteurs à l’activité professionnelle, à
savoir :
14
Mc Clelland D., The Achieving Society, The Free Press, 1961.
28
facteurs »15 qui part du principe que l’attitude d’un employé vis-à-vis de son
travail peut être déterminante pour sa réussite ou pour son échec.
b. Satisfaction et insatisfaction
15
Herzberg F., Work and the nature of man, World Publishing, 1966.
29
c. Critiques du modèle
Malgré ces critiques, cette théorie a connu un grand succès, car elle est à
la base notamment de la restructuration du travail (élargissement des
tâches, enrichissement des tâches et groupes semi-autonomes).
a. La Théorie X
16
McGregor D., The human side of enterprise, McGraw Hill, New York, 1960.
30
b. La Théorie Y
Par contre, les partisans de cette théorie ont une vision positive de
l’homme et considèrent que :
Cet écrivain et conférencier a eu une forte influence entre 1930 et 1950 sur des
millions de lecteurs comme sur des milliers de managers assistant à ses
séminaires. Il explique que pour réussir, il faut notamment :
• faire en sorte que les autres se sentent importants, en leur témoignant une
sincère reconnaissance de leurs efforts ;
• convertir les autres à ses propres vues en leur laissant la parole, en se
montrant compréhensif et en ne les accusant jamais d’avoir tort ;
• changer l’attitude des autres en mettant en valeur leurs bons côtés et en
permettant aux fautifs de sauver la face17.
17
Carnegie D., How to win friends and influence people, Simon & Schuster, New York, 1936.
18
Hackman R. et Oldham G., Motivation through the design of work : Test of a theory, in
Organizational Behavior and Human Performance, n° 16.
32
19
Adams J., Towards an Understanding of Inequity, in Journal of Abnormal and Social Psychology,
n° 63, Novembre 1963, pp. 422-436.
34
c. Critiques du modèle
Cet attrait et cet intérêt sont jugés par l’employé en rapport avec ses propres
besoins. Par conséquent, plus la rétribution attendue de son travail peut
l’aider à satisfaire ses besoins, plus l’employé pourra être motivé. Ainsi, si
l’employé trouve les rétributions : (i) positives, il fera tout pour les obtenir ;
(ii) négatives, il fera tout pour les éviter ; (iii) neutres, il n’aura aucune
attitude particulière.
20
Vroom V., Work and motivation, Wiley, New York, 1964.
36
On peut donc ainsi résumer cette théorie en disant que la motivation d’un
employé sera d’autant plus élevée que :
C’est ainsi que certains chercheurs vont décider de se pencher sur l’étude du
processus de prise des décisions en essayant de faire une synthèse entre l’Ecole
Classique et l’Ecole des Relations Humaines. Ils vont ainsi faire passer la théorie
des organisations de la conception purement rationnelle de l’Ecole Classique à une
conception qui intègre le rôle du pouvoir et des acteurs qui l’exercent.
Les principaux auteurs de l’Eole de la Décision, qui date des années 1940, sont
Herbert Simon, les disciples de ce dernier qui ont effectué leurs recherches en deux
groupes (E.P. Learned, C.R. Christensen, K.R. Andrews et W.D. Guth pour le
premier groupe, Richard Cyert, James March, Michael Cohen et Johan P. Olsen
pour le second groupe) et Igor Ansoff.
Mais avant d’arriver à ces auteurs spécialement intéressés par la prise des décisions
stratégiques, nous allons d’abord commencer par l’approche dite quantitative qui
s’intéresse à la prise des décisions tactiques.
En effet, devant exploiter au mieux ses faibles moyens aériens face à ceux de
l’Allemagne, l’Angleterre a demandé à ses scientifiques de concevoir un modèle de
répartition optimale de ses ressources. De même, l’armée américaine avait
demandé à ses scientifiques de déterminer la puissance optimale des grenades
sous-marines que ses avions et ses navires devaient larguer sur les sous-marins
allemands afin d’augmenter les chances de survie de leurs convois pendant la
traversée de l’Atlantique Nord.
Une fois la guerre terminée, ces méthodes quantitatives seront transposées dans le
monde des affaires afin d’améliorer l’efficacité de la prise des décisions. De
nombreux officiers se reconvertiront ainsi dans les affaires dont l’un des plus
connus est Robert McNamara (qui fut successivement officier de l’armée
américaine, Président de Ford, Secrétaire à la Défense et Président de la Banque
Mondiale).
A cet effet, elle recourt à des méthodes de modélisation des problèmes analysés et
à des techniques d’optimisation des résultats applicables à la résolution de certains
problèmes tels que les modèles de gestion des stocks, la programmation linéaire, la
théorie des jeux, les modèles des files d’attente ou la probabilité statistique.
La programmation linéaire
39
La probabilité statistique
La théorie des probabilités peut être utilisée pour le calcul rationnel des
conséquences d’une décision donnée. En d’autres termes, il est possible de
calculer mathématiquement la vraisemblance de certains événements, et
d’estimer les gains ainsi que les pertes qui résulteront des différentes
40
Ce modèle est l’œuvre de quatre chercheurs (E.P. Learned, C.R. Christensen, K.R.
Andrews et W.D. Guth) qui l’ont baptisé de leur acronyme LCAG, mais qui est plus
connu sous la dénomination SWOT. C’est un modèle décisionnel classique qui vise
donc la rationalité à travers la recherche d’une solution optimale basée sur des
éléments objectifs et précis. C’est donc un modèle qui consiste essentiellement en
un traitement des informations objectives et précises en suivant les cinq phases
ciaprès :
En partant de ces cinq phases, ils ont mis au point un modèle de prise de décision
stratégiques qui part d’une connaissance supposée exacte de l’environnement tant
interne qu’externe de l’entreprise, modèle SWOT (Strengths, Weaknesses, Opportunities,
Threats) ou modèle FFOM (Forces, Faiblesses, Opportunités, Menaces).
Figure n° 4 : Modèle d’Harvard d’analyse et de prise de décision stratégique
CHOIX STRATEGIQUE
Il faut souligner que ce modèle est basé sur les postulats de la rationalité absolue
qu’A. Simon va remettre en cause (voir infra).
Evaluation de
la décision
21
Simon H., Administration et processus de décision, Economica, Paris, 1984.
42
objectif pour fonder la décision, mais plutôt une variable affectée par
le déroulement du processus de décision.
d. L’escalade d’engagement
Ceci s’explique par le fait qu’il est parfois difficile d’admettre que la
décision initiale n’était pas la bonne au regard des enjeux, notamment
des enjeux économiques et financiers (budgets déjà dépensés, usines
déjà construites, emplois à sacrifier,…) : on préfère alors assumer le
choix initial malgré ses inconvénients, car on estime, à tort ou à
raison, que les conséquences de l’abandon du choix initial seront
encore plus coûteuses.
Ces types des décisions ne peuvent être informatisés : elles restent le propre de
l’homme, car le facteur humain est prépondérant dans le processus de la
décision. Ils requièrent donc beaucoup de créativité de la part du décideur,
c.à.d. la capacité de développer des idées nouvelles, originales et inédites à
même de résoudre le problème posé.
Plus on est haut dans la hiérarchie de l’entreprise, plus on est confronté à des
problèmes non structurés, complexes, uniques, et donc plus on doit par
conséquent déléguer les problèmes routiniers aux niveaux hiérarchiques plus
bas pour se concentrer plus sur ces problèmes non structurés.
Ceci ne veut nullement dire que les niveaux hiérarchiques les plus élevés ne
devraient être confrontés qu’à des problèmes non structurés ou que les niveaux
hiérarchiques les plus bas ne devraient avoir affaire qu’à des problèmes
46
Au lieu de baser son choix sur l’analyse de toutes les causes d’un problème et
l’examen de toutes les solutions qui en découlent, l’entreprise va opter pour la
solution qui lui a permis de résoudre ce problème dans un passé récent.
22
Richard Cyert & James March, A behavioral theory of the firm, Prentice-Hall Inc., New Jersey, 1963.
48
L’entreprise apprend du passé à partir des résultats auxquels ont conduit les
décisions prises antérieurement.
• elle part des expériences effectivement vécues par les praticiens du management
que sont les dirigeants d’entreprises et leurs conseils ou consultants (aspect
empirique) ;
50
• elle tente de couler sous la forme de théories des principes simples qui se veulent
d’application universelle (aspect pragmatique) ;
• elle se fonde sur la concurrence et l’individualisme d’où ne survivent que les
meilleurs en termes de performances, et ce, dans une sélection impitoyable (aspect
darwinisme social).
Les principaux postulats de cette école, qui sont au nombre de six, essaient de faire une
synthèse entre l’Ecole Classique et l’Ecole des relations Humaines :
• l’objectif de la maximisation du profit qui est poursuivi par toutes les organisations
(principe classique) ;
• la décentralisation des responsabilités et des décisions comme mode d’organisation
du travail pour atteindre plus facilement cet objectif ;
• la direction par les objectifs (DPO) et la direction participative par les objectifs
(DPPO) comme moyens d’assurer cette décentralisation ;
• le triangle réduction des coûts de production – réduction des délais – accroissement
de la qualité comme paramètres qui mesurent concrètement la compétitivité ;
• la motivation pour pousser à la compétitivité les individus qui se trouvent en
situation de concurrence ;
• le contrôle comme moyen de s’assurer de l’atteinte de l’objectif que l’on s’est
assigné.
Les grands auteurs de cette école sont notamment Alfred Sloan, Peter Drucker, Octave
Gélinier, William Deming, Joseph Juran, Shigéo Shingo, Taichi Ohno et William Ouchi.
23
Peter F. Drucker, The practice of management, Ed. PAN, London, 1968.
51
• fixer ensemble les objectifs qui seront assignés aux subalternes, les stratégies (voies
et moyens) pour atteindre ces objectifs et les critères pour mesurer les résultats par
rapport à ces objectifs ;
• contrôler ensemble les résultats atteints par rapport aux objectifs, analyser les
causes des éventuelles contreperformances et reprendre le cycle du MBO.
Cette théorie de la décentralisation coordonnée repose sur les six grands de principes
ci-après :
24
Alfred P. Sloan, Mes années à la General Motors, Ed. Hommes & Technique, Paris, 1967.
53
Pour ce faire, il va mettre au point une méthode pour améliorer constamment la qualité
et introduire sept outils pour améliorer cette qualité.
a. P comme Plan
Dans cette première étape, on va préparer et planifier (ce que l'on va faire). Elle va
consister ainsi à :
b. D comme Do
Dans cette deuxième étape, on va développer, réaliser, mettre en œuvre ce que l’on
a préparé et planifié. Elle va consister ainsi à :
c. C comme Check
Dans cette quatrième étape, on va agir, ajuster, réagir, corriger (actions correctives).
Elle va consister ainsi à :
• supprimer les cloisonnements et les barrières interservices pour que tous les
services (R&D, méthodes, fabrication, vente, finances, RH,...) travaillent en
équipe afin d'anticiper les problèmes (adoption de l’ingénierie concourante) ;
• éliminer tout ce qui relève des slogans (par exemple « zéro faute ») ou des
exhortations (par exemple la fixation de nouveaux seuils de productivité) ;
• éliminer la DPO, les standards de production et les remplacer par une meilleure
qualité managériale ;
• supprimer les barrières qui frustrent les ouvriers du droit à la fierté de leur
savoir-faire en faisant en sorte que le contrôle de l'encadrement puisse porter
sur la qualité et non sur les chiffres, et supprimer les barrières qui frustrent les
cadres du droit à la fierté de leur savoir-faire en abolissant les notations
annuelles et la DPO.
En plus de cette méthode PDCA, Deming va introduire sept outils pour améliorer
constamment la qualité et faire baisser les coûts.
Cet ingénieur électricien est considéré comme le principal fondateur des démarches
qualité par le contrôle statistique. Il est ainsi connu particulièrement à travers le
concept de « Management par la Qualité Totale » et son adaptation de « La Loi de
Pareto ».
Il exercera ainsi une très grande influence sur l’industrie japonaise qui sera la première
à adopter la notion de « Management par la Qualité Totale » ou « Company Wide Quality
Management » qu’il a inventée. Il a aussi joué un très grand rôle dans la mise en place
des « cercles de contrôle de qualité ».
25
Juran Joseph, Quality Control Handbook, McGraw-Hill, New York, 1951.
26
Juran Joeph, Managerial Breakthrought : a new concept of the manager, , McGraw-Hill, New York, 1964.
57
J. Juran a repris cette loi pour énoncer que 20 % des causes produisaient 80 % des effets.
C’est ainsi qu’il va appliquer cette loi de Pareto à la répartition des défauts de
fabrication d’un produit.
a. Le système anti-erreur
Partant du principe selon lequel « Vaut mieux prévenir que guérir », il a mis au
point le « Poka-Yoké » (de yokeru = éviter et poka = erreur) qui peut se traduire
par « système anti-erreur ».
On a ainsi un produit dont la fiabilité est telle qu’il rend totalement superflu
tout contrôle en bout de chaîne. Ce faisant, on évite les défauts de fabrication
(accroissement de la qualité), de même qu’on réduit le nombre des rebuts et des
contrôles (baisse des coûts), et donc on accroit le rapport Qualité/Coût.
b. La flexibilité
En plus de la qualité (qui doit être la plus élevée possible) et du coût (qui doit
être le plus bas possible), le troisième élément de la compétitivité est le délai
(qui doit être le plus court possible). Pour ce troisième élément, S. Shingo entend
jouer sur la flexibilité des moyens de production afin de répondre, dans les
délais les plus courts, à une demande qui est le plus souvent diversifiée. Cette
flexibilité est d’autant plus indispensable que les goûts des clients changent
58
Il faut souligner que le succès de la méthode JAT implique une forte coordination des
différents services tant internes qu’externes impliqués dans la chaîne de valeur (achats,
fournisseurs, transporteurs, magasins, fabrication, livraison, distributeurs).
59
• Zéro stock. Il s’agit de réduire au minimum tous les stocks (matières premières,
consommables, en-cours et produits finis), et ce, en limitant les approvisionnements
aux besoins réels de production avec l’utilisation des étiquettes déclencheuses de
commande ou kanbans. D’où, des économies en stocks et donc réduction des coûts
de production..
• Zéro délai. Il faut réduire au strict minimum : (i) le délai entre la commande et son
exécution ; (ii) le temps d’exécution de la commande, et ce, en recourant à la
flexibilité des ressources tant humaines (hommes) que matérielles (équipements).
• Zéro défaut. La qualité des produits doit être strictement conforme aux attentes du
client pour éviter les coûts consécutifs aux malfaçons (nécessité de remplacement
avec parfois des dommages et intérêts à payer) et au mécontentement des clients
(perte de marché).
• Zéro panne. Il faut assurer la disponibilité totale de l’outil du travail en dehors des
temps prévus pour l’entretien et les réparations afin de pouvoir respecter les délais
convenus avec les clients.
• Zéro papier. Les économies ne doivent pas se limiter aux ateliers, mais concerner
aussi les bureaux, notamment en réduisant au minimum la paperasse.
Pour arriver à ce trio gagnant, il va s’inspirer du modèle managérial japonais dont les
caractéristiques sont totalement opposées à celles du modèle managérial américain,
comme le résume le tableau n° 4 ci-après :
60
• former les travailleurs afin de leur permettre de posséder des compétences requises
pour la prise des décisions à travers notamment : (i) la rotation des postes pour leur
donner des compétences de généralistes plutôt que celles de spécialistes ; (ii) la
formation permanente ;
• informer correctement les travailleurs sur les différents enjeux de l’entreprise ;
• faire grandement confiance aux travailleurs ;
• apporter un fort soutien aux travailleurs ;
• favoriser la communication, le décloisonnement et la transversalité ;
• se doter d’une forte culture d’entreprise ;
• susciter un environnement du travail dans lequel la vie en dehors de l’entreprise
(famille, culture, tradition,...) a une importance aussi grande que la vie du travail.
62
L’Ecole Sociotechnique date des années 1950. Elle résulte des recherches menées au
Tavistock Institute of the Human Relations de Londres.
Elle va ainsi déboucher sur une organisation en petits groupes de travail dotés
d’une très grande autonomie et ayant comme particularités de tenir compte à la
fois des besoins des membres du groupe (dimension sociale de l’entreprise) et des
impératifs de la production (dimension technique de l’entreprise).
Les principaux animateurs de cette école sont Frederick Emery, Eric Trist, Einar
Thorsrud et Ken Bamforth.
C’est ainsi que les chercheurs du Stavistock Institute of Human Relations vont
proposer de reconstituer ces fondements en prônant l’organisation du travail en
petites équipes de mineurs chargées chacune de réaliser la totalité des sept
opérations de la tâche. En responsabilisant ces groupes semi-autonomes pour la
réalisation de l’ensemble des sept tâches, on a pu ainsi éliminer les causes du
mécontentement ainsi que ses conséquences, et accroître les rendements et donc la
production.
Ce système va plus tard être étendu aux chaines de montage où les tâches
individuelles exécutées vont être remplacées par un ensemble des tâches confiées
à des groupes travaillant en semi-autonomie.
5.3. Restructuration des tâches ou les Nouvelles Formes d’Organisation du Travail (NFOT)
En fait, les groupes semi-autonomes s’inscrivent dans une perspective plus large,
celle de la « Restructuration des Tâches » ou des « Nouvelles Formes
d’Organisation du Travail » (NFOT). Ce mouvement s’oppose à l’OST pour en
éliminer les effets indésirés et comprend la rotation des postes/tâches,
l’élargissement des tâches, l’enrichissement des tâches et l’autonomisation.
La rotation des postes et des tâches consiste à faire passer le travailleur d’un
poste à un autre, tout en le cantonnant dans des tâches de simple exécution.
L’élargissement des tâches est une expansion horizontale du travail qui consiste
à regrouper, sur un même poste de travail, un plus grand nombre de tâches
parcellaires de simple exécution antérieurement réparties sur deux ou plusieurs
postes de travail et donc exécutées par deux ou plusieurs ouvriers.
Son objectif est d’augmenter la durée du cycle du travail sur un poste afin de
diversifier les tâches de simple exécution et d’éliminer ainsi la monotonie
consécutive à la répétition des mêmes opérations de très courte durée.
5.3.4. L’autonomisation
b. Formes de l’autonomisation
c. Difficultés de l’autonomisation
Cependant, l’autonomisation n’est pas chose aisée : elle se heurte
essentiellement aux problèmes inhérents à l’organisation sociale et à
l’organisation technique :
C’est ainsi qu’en matière d’organisation, cette école estime qu’il n’y a pas un modèle
universel, mais plusieurs modèles d’organisation ou structures organisationnelles
possibles liés aux facteurs de contingence propres à chaque entreprise.
Elle considère donc l’entreprise comme un système ouvert qui doit être en phase avec
son environnement et donc s’adapter aux contraintes de ce dernier pour le choix de
son modèle d’organisation. Elle prône ainsi un mode d’organisation différent pour
chaque situation différente.
Les principaux animateurs de cette école sont Joan Woodward, Alfred Chandler, T.
Burns & G. Stalker, Paul Lawrence & Jay Lorsch et Henry Mintzberg.
Elle couvre :
Elle se réfère à la fabrication des biens identiques en très grandes séries et concerne
:
• les industries fabriquant des grandes séries des produits uniques simples
(stylos à bille, vis, boulons, boutons, chaussures,...) ;
• les industries de sous-traitance fabriquant des pièces et des ensembles pour les
industries des biens d’équipement (usines, machines-outils) et pour des
produits complexes (cockpits, ailes, trains d’atterrissage, moteurs, démarreurs,
essieux,....) ;
Elles concernent :
Cet économiste américain est spécialiste de l’histoire des entreprise américaines. Ses
recherches ont mis en évidence deux notions très importantes.
En étudiant l’histoire des entreprises américaines de 1850 à 1920, il a constaté que l’on
est passé d’une vision traditionnelle du capitalisme avec une entreprise dirigée par son
69
fondateur et donc modelée par son leadership, à une vision moderne du capitalisme
avec une entreprise divisée en plusieurs unités autonomes, les divisions, dirigées par
des managers professionnels.
Cette évolution de la vision du capitalisme est due au fait que la complexité sans cesse
croissante de l’environnement tant interne qu’externe de l’entreprise, ne pouvait plus
permettre au propriétaire de maîtriser et de contrôler tous les aspects de son entreprise.
D’où, la nécessité de faire appel à des managers professionnelle, la « technostructure »
de John K. Galbraith, et d’établir ainsi une nette distinction entre, d’une part, la
propriété du capital, et, d’autre part, la gestion de l’entreprise.
Il est surtout connu par avoir étudié, sur une période de 50 ans allant de 1909 à 1959,
l’histoire et l’évolution de quatre grands groupes américains que sont Dupont de
Nemours, Standard Oil of New Jersey, General Motors et Sears & Roebuck.
Il a dès lors établi un lien entre stratégie et structure en démontrant que les stratégies
précédaient et entraînaient les changements des structures organisationnelles,
stratégies qui elles-mêmes étaient tributaires d’un environnement marqué par un
changement permanent28.
27
Chandler A., La main visible des managers, Ed. Economica, Paris, 1989.
28
Chandler A., Stratégies et structures de l’entreprise, Tendances Actuelles, 1972.
70
Les objectifs découlant d’une bonne planification constituent ainsi les éléments
essentiels de la mise sur pied d’une organisation solide, dans la mesure où la structure
adoptée devra être celle qui convient le mieux pour atteindre les dits objectifs.
L’un des avantages de se référer à la planification pour concevoir la structure, est que
cela aide à définir les besoins futurs de l’entreprise en personnel et donc à concevoir
des programmes conséquents de formation et/ou de recrutement.
Ces deux sociologues ont étudié le lien entre l’environnement externe d’une entreprise
et sa structure. Ils sont ainsi arrivés à la conclusion que la structure choisie par une
entreprise est fonction du degré de stabilité de son environnement externe. Ils ont ainsi
distingué deux types de structures : les structures mécanistes ou bureaucratiques et les
structures organiques. A cet effet, ils insistent sur les deux faits ci-après :
• il n’y a pas un type de structure qui serait supérieur à l’autre, mais tout simplement
une structure adaptée à l’environnement externe de l’entreprise et une structure
non adapté à cet environnement ;
• les structures ne sont ni totalement mécanistes, ni totalement organiques, mais
plutôt mixtes avec une prédominance mécaniste ou organique selon les cas.
Nous allons nous limiter à quatre de ces facteurs au regard de leur importance (l’âge
et de la taille de l’organisation, la technologie de l’organisation, l’environnement de
l’organisation et la stratégie de l’organisation). Etant donné que le facteur stratégie a
été déjà très abondamment abordé avec les apports de A. Chandler, seuls les trois
autres facteurs feront l’objet de nos développements ci-dessous.
• pour les petites entreprises, par un « esprit maison » qui prend racines
sur un « savoir-faire » forgé par des années de pratique, des habitudes et
des traditions ;
• pour les grandes organisations, par des structures très élaborées et très
complexes avec des tâches très formalisées et très codifiées ainsi que des
procédures très standardisées.
Comme dit plus haut, l’environnement externe dans lequel l’organisation opère, a un
impact sur sa structure. Ainsi :
L’Ecole Sociologique, qui date des années 1980, est partie de deux importants constats.
Le premier constat est que la structure d’une organisation n’est pas un fait qui lui est
imposé par son environnement extérieur, mais il est plutôt le construit de ses forces
internes, c’est-à-dire des hommes qui y travaillent. Le second constat est que les
organisations très formalisées ont généralement un niveau de performance plus élevé
que celle des organisations peu formalisées, mais que ces organisations très formalisées
connaissent, dans certains cas, des blocages qui entravent leurs performance : il n’y a
donc pas une relation univoque entre la structure adoptée par une organisation et sa
performance.
En partant de ces deux constats, l’Ecole Sociologique tente, d’une part, d’expliquer les
différences des structures caractérisant différentes organisations, et, d’autre part, de
trouver les causes qui expliquent les performances des organisation.
Cette école a connu plusieurs courants dont nous retiendront les quatre grands ciaprès
:
- les fonctions manifestes sont créées dans un but prévu, à savoir contribuer de
façon spécifique en tant qu’éléments de l’ensemble ;
- les fonctions latentes sont des conséquences non prévues des fonctions
manifestes en tant qu’éléments de l’ensemble.
• la bureaucratie « punitive » où les règles sont fixées par une autorité extérieure
avec un système efficace de sanction, règles qui seront donc respectées par le plus
grand nombre par crainte de sanction ;
• la bureaucratie « artificielle » ou « factice » où les règles sont fixées par une autorité
externe sans un système efficace de sanction, règles qui auront donc très peu de
chance d’être respectées par les agents ;
• la bureaucratie « représentative » où les règles sont fixées de manière collective
avec la participation des agents et qui seront donc respectées par le plus grand
nombre puisque considérées comme justes.
L’analyse stratégique de l’organisation est fondée sur les trois postulats ci-après :
• Les individus n’acceptent pas d’être considérés comme des simples ressources à la
disposition de l’organisation pour aider cette dernière à atteindre ses objectifs en
utilisant soit l’argent (Ecole Classique), soit les « bons stimuli » (Ecole des Relations
Humaines) pour ce faire : les individus sont, au contraire des acteurs qui
structurent l’organisation dans laquelle ils travaillent.
• Les individus sont donc des acteurs qui disposent d’une certaine liberté ou marge
de manœuvre qu’ils utilisent, à travers des jeux de pouvoir, dans une stratégie
visant à augmenter leur influence et à étendre leurs responsabilité. Ainsi, la
structure organisationnelle n’est pas seulement la conséquence de la prise en
compte de l’environnement extérieur de l’organisation, mais un construit humain
des forces internes à l’organisation.
29
Michel Crozier, Le phénomène bureaucratique, Ed. Le Seuil, Paris, 1963 ; Michet Crozier et Erhard Friedberg, L’Acteur et
le Système, Ed ; Le Seuil, Paris, 1977.
77
• Les individus sont des acteurs rationnels, mais leur rationalité est limitée par le
temps et les ressources dont ils disposent. En conséquence, ils vont se contenter
d’un objectif satisfaisant comme l’a spécifié H. Simon.
• Le système d’action concret. C’est l’ensemble des relations informelles que les
membres d’une organisation mettent en place pour résoudre au quotidien tous les
problèmes concrets. C’est donc un construit social non prévu dans les procédures,
mais qui s’avère indispensable au fonctionnement de l’organisation.
Ce sociologue français fait aussi partie des principaux théoriciens de la sociologie des
organisations.
Il identifie ainsi quatre modèles d’identité au travail selon la relation qui caractérise le
travailleur avec son travail :
• Le modèle de la fusion. C’est le modèle qui prévaut chez les travailleurs exécutant
des tâches peu qualifiantes avec un travail répétitif à la chaîne (travail mécanisé où
l’homme est dirigé par la machine). Ils n’ont aucune maîtrise de leur travail et donc
très peu de pouvoir pour influer sur celui-ci. Se fondre dans le collectif devient
ainsi, pour eux, la seule voie pour exister, le seul refuge et la seule protection face
à la toute puissance de l’employeur. Ils se forgent ainsi une conscience de classe
basée sur des valeurs telles que la camaraderie, la lutte et l’union.
• Le modèle des affinités. C’est le modèle qui prévaut chez les travailleurs dont la
stratégie est orientée vers la gestion de leurs carrières. Cette identité les place ainsi
dans une logique individualiste qui les rend ouverts à toute mobilité favorable à
leur carrière.
• Le modèle du retrait. C’est le modèle qui prévaut chez les travailleurs très peu
investis dans leur travail. Pour eux, le travail est uniquement considéré comme une
nécessité de survie et non comme une valeur. Ainsi, seul le salaire, en tant que
contrepartie du travail, les intéresse.
79
Dans son livre consacré au travail ouvrier30, il situe la place des ouvriers dans la société
française et analyse l’histoire du déclin du mouvement ouvrier pour comprendre les
causes de son déclin dans la société post-industrielle. Il distingue, à cet effet, trois
phases de l’industrie moderne appelée « système ABC ».
Cette phase correspond au début du XX° siècle avec la machine spécialisée et donc le
taylorisme : c’est le travail mécanisé. Le travailleur n’a plus de métier, il est devenu un
simple ouvrier spécialisé (OS) exécutant des gestes simples et répétitifs, il intervient
peu sur la matière, il utilise une machine spécialisée pour réaliser une opération
spécifique (en tant qu’OS). La relation homme-machine devient ainsi très faible du fait
que ce n’est plus l’homme qui commande à la machine, mais c’est plutôt l’homme qui
est commandé par la machine (rythme de travail imposé par les temps alloués ou
temps standard et un convoyeur).
30
Alain Touraine, Le travail ouvrier aux usines Renault, CNRS, 1955.
80
• Les règles de contrôle. Ce sont des règles édictées par l’employeur dans le but de
contrôler le comportement des travailleurs. C’est la régulation de contrôle qui est
officielle ou explicite.
• Les règles conjointes. C’est un compromis entre les deux types précédents,
compromis qui devient ainsi la règle commune. C’est la régulation conjointe qui
combine l’officielle et l’officieuse, l’explicite et l’implicite. Elle est te résultat des
rapports de forces entre les deux groupes, celui de l’employeur et celui des
travailleurs, groupes qui essaient chacun d’orienter les règles conjointes en leur
faveur.
Elle pose la question des liens entre l’économique et le social. Elle conclut que
l’économie est indissociable de la sociologie. En effet, elle considère que l’entreprise
n’est pas un acteur unique et qu’il faut plutôt la considérer comme un nœud des
contrats entre plusieurs partenaires caractérisés par des intérêts divergents.
Mais c’est après exactement deux cents ans que cette théorie va apparaitre au grand
jour avec Michel Jensen et William Meckling qui ont défini « une relation d’agence
comme un contrat par lequel une ou plusieurs personnes, le principal, engage une
autre personne, l’agent, pour exécuter en son nom une tâche quelconque qui implique
une délégation d’un certain pouvoir de décision à l’agent ». C’est donc la relation qui
lie par un contrat le « principal » ou le commanditaire à un « agent » ou commandité,
la situation du principal dépendant de l’action de l’agent.
Pour cette théorie considère les entreprises sont des « nœuds de contrats » de
délégation formelle du pouvoir entre un principal et un agent. Quoique cette théorie
se soit plus appliquée à la relation propriétaire et manager pour la gestion de son
entreprise, elle peut aussi s’appliquer à la relation entre :
31
A. Smith (1776), op. cit.
82
Cette divergence d’intérêt entre le principal et l’agent n’est pas occasionnelle, mais
plutôt inscrite dans la nature des choses dans la mesure où les actionnaires cherchent
tout naturellement à maximiser d’abord la valeur de la firme pour un accroissement
de leur rémunération (dividende), tandis que les managers cherchent tout
naturellement aussi à maximiser leur rémunération (salaire et autres avantages). D’où,
des intérêts naturellement contradictoires entre les deux parties.
Ceci découle du fait que la théorie d'agence repose notamment sur l’hypothèse
comportementale selon laquelle « les individus cherchent à maximiser leur utilité ».
Or, manager et actionnaire ont des fonctions d'utilité différentes. Ainsi, le manager a
tendance à s'approprier une partie des ressources de la firme sous forme de salaires et
de divers avantages pour satisfaire ses propres besoins. De même, le manager va
chercher aussi à renforcer sa position au sein de l’entreprise et à avoir ainsi tendance à
privilégier la croissance (intérêt de l’entreprise et du sien) au détriment du profit
(intérêt de l’actionnaire).
Il faut souligner ici que la relation d'agence n'existe que parce que le principal estime
que l’agent dispose des capacités particulières (savoir, savoir-faire, savoir-être) qui
font qu’il est mieux placé que lui pour gérer son bien : la relation contractuelle ou
d’agence trouve donc son origine dans l‘asymétrie d'information. De ce fait, ce n’est
pas l’asymétrie de l’information qui pose problème, mais plutôt la combinaison entre
l’asymétrie de l’information et la divergence des intérêts entre les parties dans la
mesure où :
Comme stipulé plus haut, l’asymétrie de l’information peut se matérialiser sous forme
soit de sélection adverse, soit d’aléa moral.
En effet, sur un marché (cas particulier des produits d’occasion32), il y a une asymétrie
totale d’information du fait que seuls les vendeurs connaissent la réelle qualité de leurs
produits, qualité qu’ils ont tendance à surestimer pour pouvoir vendre les dits
produits aux clients au prix le plus élevé. Quant aux acheteurs, ils ne disposent pas
d’assez d’éléments pour pouvoir juger de la qualité des produits leur offerts par les
vendeurs : ils ne peuvent donc ni faire confiance aux déclarations des vendeurs, ni
déduire que le prix reflète la qualité du produit.
Du fait que les acheteurs n’ont pas confiance en leurs déclarations, les vendeurs des «
bons produits » peuvent se trouver dans l’impossibilité de les vendre à leur juste prix
et donc dans la nécessité de les retirer du marché, laissant ainsi seuls les « mauvais
produits » sur le marché. En conséquence, le prix ne joue plus son rôle d’équilibre des
forces du marché et la concurrence devient factice du fait que l’acheteur, par manque
d’information, risque d’acheter un produit dont la qualité ne correspond pas au prix
affiché ou de proposer un prix tellement bas que les bons produits sont retirés du
marché.
32
Ackerof Gerorges, The market for lemons : quality uncertainty and market mechanism, in Quartely Journal of
Economics, vol. 84, N° 3, Aug. 1970, pp. 488-500.
84
La théorie des coûts de transaction est l’œuvre de deux auteurs : Ronald Coase et Oliver
Williamson.
Contrairement aux classiques et aux néo-classiques pour qui le marché est le seul
mécanisme optimal de coordination de l’activité économique, R. Coase soutient que la
firme est un mode alternatif au marché. Alors que la coordination par le marché se fait
par le système des prix (qui est déterminé par l’ajustement entre l’offre et la demande),
la coordination par la firme se fait administrativement par l’autorité et la hiérarchie.
Pour lui, la légitimité de la firme se fonde aussi sur sa capacité à effectuer des
transactions en interne d’une façon plus économique que par le recours au marché.
La question dès lors de savoir comment choisir entre ces deux modes de coordination.
R. Coase propose que la réponse à cette question puisse être trouvée à travers leurs
coûts respectifs, dans la mesure où il soutient que toute transaction économique
engendre des coûts préalables à leur réalisation qu’il appelle « coûts de transaction ».
Ainsi, autant le recours au marché engendre des coûts (coûts d’analyse, de négociation,
de rédaction ou encore de vérification de la bonne exécution des contrats), autant la
coordination par la firme ou coordination internalisée engendre aussi des coûts
spécifiques (dus notamment à la décroissance des rendements des activités
managériales). Par conséquent, on va préférer la coordination interne par la firme
aussi longtemps que ses coûts sont inférieurs à ceux de la coordination par le marché,
85
et recourir à la coordination par le marché plutôt que par la firme dès lors que ce
rapport s’inverse.
Les travaux de cet américain, également Prix Nobel d’économie, se situent dans le
prolongement de ceux de R. Coase. Il va se concentrer en particulier sur :
Concernant les conditions de recours à la coordination soit par marché, soit par la
firme, il va partir d’un total de cinq hypothèses, les deux premières étant relatives au
comportement des Agents et les trois autres portant sur les caractéristiques des
transactions.
• La spécificité des actifs. Un actif est dit spécifique s’il nécessite des
investissements spécifiques pour réaliser une transaction particulière. D’où,
des coûts supplémentaires en cas de redéploiement de cet actif vers d’autres
usages.
(1) Marché : transaction occasionnelle avec un objet très limité, la totalité des
éventualités prévues (pas d’incertitude) et peu d’importance accordée à
l’identité des parties (relations impersonnelles)
(2) Contrat avec arbitrage : relation de LT soumise à une forte incertitude et qui ne
peut donc se déroules sur le marché. D’où risques élevés de conflits d’intérêts
et de comportements opportunistes, et donc nécessité de l’arbitrage d’un tiers
pour la conclusion de ce type de contrat.
(3) Contrat bilatéral : contrat entre contractants gardant leur autonomie (ex.
contrats de sous-traitance ou de franchise).
(4) Internalisation : relation caractérisée par une répétition de la transaction, un
degré d’incertitude très élevé et des actifs très spécifiques. D’où, la firme est le
mode de coordination le plus adapté.
Le tableau ci-dessus permet donc de savoir dans quelles conditions il faut recourir
à un des deux modes de coordination, le marché ou la firme.
Cette approche est l’œuvre de Richard Nelson (1930) et de Sydney Winter (1935). Pour
cette école, le moteur de l’entreprise n’est pas le profit, mais plutôt la volonté de survie.
Pour ce faire et à l’instar des espèces vivantes, les entreprises s’adaptent et se
transforment en permanence, à travers l’apprentissage et l’innovation. C’est donc un
modèle inspiré du darwinisme qui considère la firme comme un ensemble dynamique
de compétences.
Ce modèle met ainsi en exergue deux notions centrales : celle des routines et celle de
contrainte de sentier.
Les firmes se différencient les unes des autres par leurs compétences particulières
(savoir, savoir-faire, savoir être) sur le double plan technique et organisationnel,
compétences accumulées au fil du temps. D’où, des règles et des procédures
spécifiques à chaque firme, lesquelles sont appelées « routines ».
Ces routines constituent donc l’identité propre à chaque firme et sont censées lui
donner un avantage compétitif. Or, ces routines qui sont synonymes d’efficacité pour
la firme, peuvent devenir totalement inadaptées si son contexte, c’est-à-dire son
environnement tant interne qu’externe, venait à se modifier de façon notable. D’où la
nécessité de les faire évoluer.
88
Bibliographie de base
- AÏM Roger, L’Essentiel de la Théorie des Organisations, 11ème édition, ED. Gualino,
Paris, 2018.
- AUTISSIER David, GIRAUD Laurent et JOHNSON Kevin, Les 100 Schémas du
Management, Ed. Eyrolles, Paris, 2015
- CAVAGNOL André, CAVAGNOL Bérenger et ROULLE Pascal, L’Essentiel des
Auteurs Clés en Management, Gualino, Lextenso Editions, 2013.
- CENECO, Dixeco du Management, 3ème édition, Editions ESKA, 2000.
89
- CHARREIRE PETT Sandra et HUAULT Isabelle (sous la direction de), , Les Grands
Auteurs en Management, EMS Editions, 3ème édition, 2017.
- DCG 7, Management. Manuel, 6ème édition, Editions Dunod, Paris, 2018.
- GAMELA NGINU Odilon, Introduction Générale au Management. Manuel d’Initiation
à la Gestion des Entreprises, Editions Universitaires Africaines, Kinshasa, 2015.
- MINTZBERG Henry, Le Management. Voyage au Centre des Organisations, 2ème
édition, Editions d’Organisation, Paris, 2004.
- PLANE Jean-Michel, Théorie des Organisations, 4ème édition, Dunod, Paris, 2013.
- ROBBINS Stephen, DECENZO David, COULTER Mary et RULLING Charles-
Clemens, Management. L’Essentiel des Concepts et Pratiques, 9ème édition, Editions
Nouveaux Horizons, 2014.
- SCHERMERHORN R. John, Le Management en Action, 3ème édition, Editions
Pearson, Québec, 2013.