Thèse Plan D'expériences (Mec Exp 12)
Thèse Plan D'expériences (Mec Exp 12)
Thèse Plan D'expériences (Mec Exp 12)
THÈSE
Présentée pour obtenir
le titre de
Par
François RABIER
Equipe d'accueil : Calcul Mécanique Assisté par Ordinateur - Laboratoire Génie de Production
UPRES EA N°1905 - ENI de Tarbes
Pour toutes les personnes qui m’ont
aidé et soutenu durant ces trois années,
Remerciements
La rédaction de ces remerciements marque la fin de trois années de travail au sein du
laboratoire PEARL et du LGP. J’en profite donc pour associer au succès de ce travail les
personnes qui ont contribué de quelques manières que ce soit à la bonne conduite de cette
thèse.
Mes plus vifs remerciements vont également à l’équipe qui a encadré ce travail de thèse,
Moussa Karama, Professeur des Universités à l’ENIT et directeur de thèse, Carmen Martin,
Maître de Conférence à l’ENIT et Michel Mermet-Guyennet, directeur du laboratoire PEARL
avec qui ce fut un plaisir de travailler.
Merci à Michel Piton, Ingénieur ALSTOM Transport et expert en IGBT et José SAIZ dit
« Le ZEP », ingénieur ALSTOM au sein de PEARL pour le soutien technique qu’ils m’ont
apporté sur l’IGBT, composant si mystérieux pour le mécanicien que je suis. Merci également
à l’ensemble des acteurs du programme PORTES pour leur apport technique.
Un grand merci à l’ensemble des Pearliens et Pearlienne, d’hier et d’aujourd’hui pour leur
bonne humeur. Ce fut un réel bonheur de travailler dans cet environnement et j’espère que ce
laboratoire continuera à se développer et à innover comme il l’a fait jusqu’à présent. Une
pensée spéciale à Mr Duts pour les coups de mains salvateurs.
Merci aussi aux collègues du LGP, les fragueurs du midi, les footeux du mercredi, les
fragueurs footeux et les autres notamment ceux qui récupèrent des sujet de DEA un peu
bizarre (elle est pour toi celle-là Alex !!!) et ceux qui présentent une tolérance auditive hors
du commun (ça c’est pour toi Bibi !!!).
Enfin je finirai ces remerciements par un grand merci à mes parents, ma sœur et les amis
qui m’ont soutenu et ont su trouver les mots ou simplement être là dans les moments de doute.
MERCI à tous …
Table des matières
CHAPITRE I : ........................................................................................................................ 17
ETUDE BIBLIOGRAPHIQUE SUR LES MODULES IGBT
1. INTRODUCTION............................................................................................................ 19
2. LES TRANSISTORS ....................................................................................................... 20
2.1. Historique ..................................................................................................................... 21
2.2. Le MOSFET ................................................................................................................. 22
2.3. Le Bipolaire.................................................................................................................. 24
3. L’IGBT .............................................................................................................................. 26
3.1. Gammes et usages ........................................................................................................ 26
3.2. Structure ....................................................................................................................... 27
3.3. Les différentes technologies d’IGBT ........................................................................... 28
3.3.1. Technologie Punch Through (à base non homogène)......................................... 28
3.3.2. Technologie Non Punch Through (à base homogène) ........................................ 29
3.3.3. Technologie Trench Gate (grille enterrée) ......................................................... 29
3.4. Procédé de fabrication .................................................................................................. 30
3.4.1. Formation des jonctions...................................................................................... 30
3.4.2. Traitement des surfaces, préparation des connexions ........................................ 30
3.5. Principe de fonctionnement.......................................................................................... 32
3.5.1. Fonctionnement d’une diode ............................................................................... 32
3.5.2. Fonctionnement d’un IGBT................................................................................. 33
3.6. Les mécanismes de dégradation et modes de défaillance des modules IGBT ............. 35
3.6.1. Le cyclage thermique .......................................................................................... 35
3.6.2. La corrosion ........................................................................................................ 40
3.6.3. L’électromigration .............................................................................................. 41
3.6.4. Les décharges partielles...................................................................................... 41
3.6.5. Le rayonnement cosmique ................................................................................... 42
3.6.6. Le vieillissement des oxydes de grille.................................................................. 42
3.6.7. Récapitulatif des mécanismes de dégradation .................................................... 42
3.7. Contraintes limites........................................................................................................ 43
3.7.1. Limites thermiques locales .................................................................................. 44
3.7.2. Avalanche électronique ....................................................................................... 45
3.7.3. Retournement ou latch-up ................................................................................... 45
3.7.4. Claquage de la grille........................................................................................... 46
3.7.5. Cas particulier de la diode.................................................................................. 46
3.7.6. Résumé des limites de fonctionnement ................................................................ 46
3.8. Modélisation des transistors IGBT............................................................................... 48
4. CONCLUSION DU CHAPITRE I ................................................................................. 50
REFERENCES DU CHAPITRE I........................................................................................ 51
7
Table des matières
CHAPITRE II : ...................................................................................................................... 55
LES PLANS D’EXPERIENCES,ETUDE DE CRIBLAGE
8
Table des matières
1. INTRODUCTION.......................................................................................................... 121
2. HISTORIQUE DES PLANS DE SURFACE DE REPONSE .................................... 121
3. METHODE DE SURFACE DE REPONSE ................................................................ 123
3.1. Définition des l’objectifs et de la/les réponse(s) ........................................................ 124
3.1.1. Définition du ou des objectif(s) de l’étude ........................................................ 124
3.1.2. Définition de la/les réponse(s) caractérisant l’objectif..................................... 124
3.2. Choix d’une stratégie expérimentale.......................................................................... 124
3.3. Définition des facteurs et des niveaux........................................................................ 125
3.3.1. Définition des niveaux ....................................................................................... 125
3.3.2. Codage de la matrice d’expériences ................................................................. 126
3.4. Définition du domaine expérimental.......................................................................... 126
3.5. Définition du modèle empirique ................................................................................ 128
3.6. Construction du plan d’expériences ........................................................................... 129
3.6.1. Les constructions historiques ............................................................................ 129
3.6.2. Les constructions algorithmiques...................................................................... 131
3.7. Expérimentation ......................................................................................................... 137
3.8. Analyse globale des résultats d’essais........................................................................ 138
3.9. Analyse mathématique des résultats d’essais............................................................. 138
3.9.1. Calcul des coefficients du modèle additif.......................................................... 138
3.9.2. Calcul des résidus ............................................................................................. 139
3.10. Analyse statistique du modèle.................................................................................... 139
3.10.1. L’analyse du modèle dans sa globalité ............................................................. 139
3.10.2. Analyse statistiques des coefficients du modèle ................................................ 142
3.10.3. Analyse statistique des résidus .......................................................................... 143
3.11. Analyse graphique du modèle .................................................................................... 144
3.11.1. Graphe d’adéquation du modèle....................................................................... 144
3.11.2. Surfaces de réponse........................................................................................... 144
3.11.3. Courbes iso-réponse.......................................................................................... 145
3.12. Validation du modèle et des informations obtenues .................................................. 145
4. APPLICATION DE LA METHODE DE SURFACE DE REPONSE ...................... 146
4.1. Définition des objectifs et des réponses ..................................................................... 146
4.2. Choix d’une stratégie expérimentale.......................................................................... 147
4.3. Définition des facteurs ............................................................................................... 147
4.4. Définition du domaine expérimental.......................................................................... 148
4.5. Définition du modèle empirique ................................................................................ 150
4.6. Construction du plan d’expériences ........................................................................... 150
9
Table des matières
ANNEXES............................................................................................................................. 181
10
Table des illustrations
Figures du chapitre I :
Figures du chapitre II :
11
Table des illustrations
12
Table des illustrations
Tables du chapitre I :
Table 1 Caractéristiques moyennes comparées pour différents transistors [Carubelli, 03] ............... 26
Table 2 Matériaux utilisés dans les modules IGBT [Ciappa, 02] ...................................................... 27
Table 3 Récapitulatif des mécanismes de dégradation....................................................................... 43
Tables du chapitre II :
13
Table des illustrations
14
Introduction générale
Introduction générale
Cette thèse effectuée sous contrat Alstom dans le cadre d’une convention CIFFRE s’est
déroulée principalement au sein du laboratoire P.E.A.R.L. (Power Electronic Associated
Research Laboratory). P.E.A.R.L est un laboratoire commun d’application né en 2001, à
vocation européenne et internationale, qui associe industriels et laboratoires publics.
Initialement orienté vers des problématiques ferroviaires dues à son principal partenariat avec
ALSTOM Transport, le laboratoire s’est ouvert à l’avionique en 2005 à travers la convention
associant P.E.A.R.L. à THALES AVIONICS et HISPANO-SUIZA. Le Laboratoire Génie de
Production de l’ENI de Tarbes assure l’encadrement scientifique de ce travail.
Dans le contexte concurrentiel actuel, les objectifs de qualité et de fiabilité sont au cœur
de la conception des produits. Sur son site de Tarbes, Alstom Transport conçoit et fabrique les
chaînes de traction utilisées dans les applications TGV, RER, métro, Loco fret ou encore
tramway du constructeur ferroviaire français. Le cœur d’une chaîne de traction est l’onduleur,
dont le rôle est de convertir un signal continu monophasé en signal alternatif triphasé utilisé
pour alimenter le moteur asynchrone de la motrice. La majeure partie des onduleurs de
traction de nouvelle génération utilise la technologie IGBT (Insulated Gate Bipolar
Transistor).
15
Introduction générale
Pour réaliser cette modélisation, nous avons opté pour les méthodes des plans
d’expériences. Ces méthodes permettent notamment d’établir des modèles quadratiques
faisant intervenir des paramètres de différentes natures (thermique, mécanique, électrique,
temporelle,…). Ces méthodes de modélisation sont basées sur l’expérimentation. Le but des
plans d’expériences est d’obtenir un maximum d’information en ne réalisant qu’un minimum
d’essais, ce qui répond parfaitement au défi qu’impose le contexte économique actuel.
Dans le second chapitre, une introduction présente les méthodes de plan d’expériences et
la forme des modèles recherchés. L’obtention de ces modèles nécessite dans un premier temps
de limiter l’étude aux facteurs ayant une influence statistiquement significative sur les
réponses observées. On utilise pour cela des plans dits de criblage afin de mesurer l’effet des
facteurs et des interactions sur les réponses et d’éliminer les paramètres n’ayant pas
d’influence.
Enfin, le troisième chapitre reprend les facteurs précédemment identifiés comme influents
et aborde la modélisation des réponses en fonction de ces derniers. La construction du plan
utilisé pour réaliser cette modélisation se base sur un algorithmique d’échange prévu pour
maximiser un critère d’efficacité associé à la matrice d’expériences. Dans notre application, le
critère utilisé cherche à minimiser l’incertitude maximale de prédiction dans l’ensemble du
domaine de validité des modèles.
16
Chapitre 1 : Etude bibliographique sur les modules IGBT
Chapitre I :
Etude bibliographique sur les modules
IGBT
17
Chapitre 1 : Etude bibliographique sur les modules IGBT
18
Chapitre 1 : Etude bibliographique sur les modules IGBT
1. Introduction
Sur son site de Tarbes, la filière transport du groupe Alstom fabrique différents éléments
des chaînes de traction utilisées dans ses trains, métros ou encore tramways. Une chaîne de
traction ferroviaire se compose d’un pantographe, dont le rôle est d’assurer la captation de
l’énergie, d’un disjoncteur pour protéger le système et d’un convertisseur qui met en forme le
signal d’alimentation du moteur de traction, élément ultime de cette chaîne. La figure 1
présente la structure classique des chaînes de traction ferroviaire :
Pour dimensionner l’onduleur, le bureau d’études doit prendre en compte les différents
paramètres précisés dans le cahier des charges fourni par le client. Ce cahier des charges
précise notamment la tension d’alimentation du réseau sur lequel fonctionnera le véhicule et
que l’onduleur devra couper. Cette tension d’entrée présente une grande variabilité. Il n’est
pas rare par exemple, pour une tension d’alimentation annoncée à 1500V continu, d’atteindre
les 1800V permanent et même des valeurs plus importantes pour des temps courts. Le cahier
des charges précise également diverses caractéristiques liées aux conditions de
fonctionnement du matériel telles que la température de fonctionnement qui peut varier entre -
40°C à 125°C suivant les applications. A partir de ces éléments, on cherche à établir un
courant maximal de commutation garantissant une fiabilité du système acceptable pour le
client et le fabricant.
19
Chapitre 1 : Etude bibliographique sur les modules IGBT
Comme tout transistor, l’IGBT peut être assimilé à un interrupteur. Dans l’idéal, un
interrupteur doit posséder une impédance nulle à l’état fermé et infinie à l’état ouvert, une
puissance consommée et un temps de commutation nuls. On peut donc en conclure qu’un
interrupteur idéal n’existe pas et n’existera pas d’avantage demain. Cependant les transistors
actuels s’efforcent de satisfaire au mieux ces conditions.
Depuis 1979, s’est développé l’idée d’intégrer les avantages de ces deux technologies sur
une même puce tout en évitant au mieux leurs inconvénients. De cette idée sont nées
différents dispositifs :
Toutes ces technologies ont permis d’aboutir à ce qu’on appelle aujourd’hui l’IGBT.
Ce travail de thèse porte sur certaines performances en commutation des modules IGBT
de forte puissance utilisés en traction ferroviaire. L’objectif visé est d’améliorer la
connaissance du comportement des modules au sein de leur aire de sécurité afin de permettre
une conception plus sûre des onduleurs de tractions.
2. Les transistors
L’IGBT, comme son nom l’indique, fait partie de la grande famille des transistors. Dans
l’univers de l’électronique, le transistor est le composant actif fondamental. Il est
principalement utilisé en tant qu’interrupteur commandé ou dans un but d’amplification de
signal mais aussi pour stabiliser une tension, moduler un signal ainsi que de nombreuses
autres utilisations.
20
Chapitre 1 : Etude bibliographique sur les modules IGBT
On trouve dans la littérature, bon nombre d’ouvrages tels que [Baliga, 87], [Aloïsi, 01],
[Blot, 95], [Chatelain, 79], [Lefebvre, 04], [Mathieu, 01] qui développent les technologies de
transistors bipolaires, à effet de champs et autre.
Le terme transistor provient de l’anglais « transfer resistor » (résistance de transfert). Il
désigne un dispositif semi-conducteur à trois ou quatre électrodes, selon son type, qui permet
le contrôle, grâce à une électrode d'entrée, d'un courant ou d'une tension sur l'une des
électrodes de sorties.
Par extension, le terme transistor désigne également les récepteurs radio équipés de
transistors.
L’effet transistor se base sur une propriété particulière que possèdent certains matériaux
dits semi-conducteurs [Aloïsi, 01]. Les semi-conducteurs sont des matériaux présentant une
conductivité électrique intermédiaire entre les métaux et les isolants. Ils sont cependant
parfaitement isolant à 0°K. Aujourd’hui les matériaux assurant cette fonction sont le SiC,
l’AsGa, l’InSb, le ZnO, le ZnS ou encore PbS mais surtout plus couramment le Silicium (Si).
Le silicium est le matériau principal utilisé en microélectronique. Il est abondant dans la
nature, donc peu cher, et fournit des composant fiables et stables.
• Les transistors unipolaires qui n’utilisent qu’un seul type de pôle, électrons ou trous.
Ce sont les Transistors à Effet de Champ qui sont soit à Jonction (JFET) soit des
structures métal-oxyde-semiconducteurs (MOSFET). [Blot, 95], [Chatelain, 79],
[Mathieu, 01]
• Les Transistors Bipolaires qui utilisent simultanément la conduction par trous et par
électrons. Ce sont par exemple les Transistors Bipolaires à Jonction ou BJT.
[Blot, 95], [Chatelain, 79], [Mathieu, 01]
2.1. Historique
En 1933, [Lilienfeld, 33] avait déjà déposé un brevet concernant le principe du transistor à
effet de champ. L’effet transistor a été découvert en 1947 par les américains John Bardeen,
William Shockley et Walter Brattain, chercheurs de la compagnie Bell Téléphone. Ils ont reçu
le prix Nobel de physique en 1956.
21
Chapitre 1 : Etude bibliographique sur les modules IGBT
Le transistor fut considéré comme un énorme progrès face au tube électronique. Il est en
effet plus robuste, il fonctionne avec des tensions faibles, il peut donc être alimenté par des
piles et il fonctionne instantanément une fois mis sous tension contrairement aux tubes
électroniques qui demandaient une dizaine de secondes de chauffage.
Il a été rapidement assemblé, avec d'autres composants, au sein de circuits intégrés, ce qui
lui permit de conquérir encore plus de terrain sur les autres formes d'électronique active.
Nous avons dit plus tôt que la technologie IGBT est née du désir de regrouper les
avantages à la fois du MOSFET et du Bipolaire au sein d’un même composant. Avant de
détailler le fonctionnement et les caractéristiques des modules IGBT, nous allons revenir sur
ces deux technologies.
2.2. Le MOSFET
Le MOSFET pour « Metal Oxide Semiconductor Field Effect Transistor » soit en français
« Transistor à Effet de Champ (à grille) Métal-Oxyde », fait parti de la famille des transistors
à effet de champ. Le principe des transistors à effet de champ consiste à faire varier la
conductivité d’un barreau de semi-conducteur dopé N ou P, en lui appliquant un champ
électrique transversal. Ces transistors sont qualifiés d’unipolaire car ils ne mettent en œuvre
qu’un seul type de porteurs à savoir les majoritaires [Mathieu, 01].
Fig 3. Principe d'un MOSFET à canal N : les zones hachurées sont de type N [Cand, 86]
22
Chapitre 1 : Etude bibliographique sur les modules IGBT
On distingue 4 types de transistors MOSFET en jouant, d'une part, sur les 2 types de
substrat et, d'autre part, sur le fait que le canal est réalisé par construction (diffusion) ou,
comme dans l'exemple ci-dessus, résulte du champ appliqué : dans le premier cas on parle de
MOS à appauvrissement et, dans le second, de MOS à enrichissement. La figure 5 donne un
résumé des caractéristiques des 4 types.
23
Chapitre 1 : Etude bibliographique sur les modules IGBT
Notons que les MOS à enrichissement sont les plus faciles à fabriquer (il n'y a qu'à
diffuser la source et le drain). Cependant ces transistors présentent un inconvénient majeur par
rapport aux JFET, c'est leur sensibilité aux charges statiques liée à leur très grande impédance
d'entrée (>1000MW). En effet, si la tension entre la source et la grille, VGS, est trop important,
en raison de la très faible épaisseur du diélectrique (< 0.1µm) un arc se crée et le diélectrique
n’assure plus sa fonction isolante.
Malgré une commande aisée en tension et des temps de commutation très courts, le
transistor MOSFET présente l’inconvénient de posséder une chute de tension directe
relativement importante par rapport à ses concurrents comme par exemple le bipolaire.
2.3. Le Bipolaire
Un transistor bipolaire est constitué d’un bloc monocristallin de semi-conducteur
comportant deux régions de même type (P ou N) séparées par une région de type opposé (N
ou P). Les régions extrêmes sont appelées Emetteur (E) et Collecteur (C) alors que la région
centrale est appelée Base (B) [Mathieu, 01]. La figure 6 présente ces deux types de transistors
bipolaires.
24
Chapitre 1 : Etude bibliographique sur les modules IGBT
Il existe 2 types de transistors bipolaires : de type NPN et de type PNP. Nous prendrons
ici le cas d'un type NPN qui se caractérise par des tensions positives et un courant à la base
positif.
Le secret du transistor bipolaire réside dans sa géométrie : la base, faite dans ce cas de
matériau dopé P, présente des dimensions négligeables par rapport aux deux régions dopées
N. Ceci a deux effets :
Dans ce type de transistor, l'émetteur, relié à la première zone N, se trouve polarisé à une
tension inférieure à celle de la base, reliée à la zone P. La diode émetteur/base se trouve donc
polarisée en direct, et du courant (injection d'électrons) circule entre l'émetteur et la base.
25
Chapitre 1 : Etude bibliographique sur les modules IGBT
3. L’IGBT
L’IGBT est un transistor hybride, MOSFET côté commande et bipolaire côté sortie.
Comme un transistor à effet de champ, il est commandé par la tension de grille (entre grille et
émetteur) qui lui est appliquée, mais ses caractéristiques de conduction (entre collecteur et
émetteur) sont celles d'un bipolaire [Aloïsi, 01]. Ceci lui donne le faible coût énergétique de
commande d'un MOSFET, avec les pertes de conduction plus faibles (à surface de puce
donnée) d'un bipolaire. De plus, on sait faire des IGBT de tension bien plus élevée que pour le
MOSFET.
Ces caractéristiques font qu'aujourd’hui l'IGBT a presque totalement supplanté les autres
types de composants pour les gammes de tension 600V à 3300V, et qu'il perce dans les
tensions supérieures face au GTO (Gate Turn Off), ainsi que dans les tensions inférieures face
au MOSFET, bien qu'il soit plus lent. Le tableau 1 précise quelques caractéristiques de
différents transistors.
Les IGBT sont utilisés dans une gamme de tensions allant de 600 volts (et moins) à 6500
volts, et des courants jusqu'à 2400 ampères par module. Les valeurs de tension les plus
courantes sont:
26
Chapitre 1 : Etude bibliographique sur les modules IGBT
Les IGBT trouvent de très vastes domaines d'application dans les branches les plus
diverses de l'électronique et de l'industrie telles que la commutation de puissance dans les
secteurs civils et militaires, l’alimentation pour courant élevé, l’appareillage médical, le
contrôle des moteurs en robotique, les amplificateurs de puissance HI-FI, les fours à induction
magnétique, les charges dynamiques de puissance, l’alimentation à découpage ou la soudure
électrique à l'arc.
3.2. Structure
Un module est constitué d’un empilement complexe de couches de différents matériaux
qui doivent avoir une bonne stabilité mécanique, de bonnes propriétés d’isolation et une
bonne conduction thermique [Ciappa, 02].
Les puces silicium IGBT et diode sont brasées sur un substrat DBC (Direct Bonded
Copper) composé d’un substrat céramique (Al2O3 ou AlN) métallisé au cuivre sur chacune de
ces faces. Ce substrat est lui-même brasé sur une semelle de cuivre ou plus récemment
d’AlSiC. Les brasures utilisées sont constituées d’étain et d’argent (SnAg). La connectique
entre ces puces et les pistes de cuivres du DBC est assurée par les fils de bonding en
aluminium. Ces fils d’aluminium sont soudés par ultrason sur les métallisations aluminium
des puces. Le schéma de la figure 7 représente cet assemblage de couches et le tableau 2
associé précise la nature du matériau, son coefficient d’expansion thermique (CTE) et
l’épaisseur de la couche utilisée.
27
Chapitre 1 : Etude bibliographique sur les modules IGBT
Les IGBT sont fabriqués avec des techniques similaires à celles des circuits intégrés
(comme les MOSFET, mais contrairement aux GTO et thyristors de puissance). Ceci a pour
conséquence que la taille de la puce est limitée à environ 1 cm2, alors qu'on sait faire des
diodes de 150 mm de diamètre (176 cm2).
Les IGBT de forte puissance sont donc des modules multi-puces, constitués de
nombreuses puces souvent montées en parallèle et généralement brasées sur une semelle de
cuivre ou d'AlSiC à travers laquelle on assure leur refroidissement. La plupart intègrent aussi
une diode anti-parallèle (ou roue-libre), elle-même multi-puces. Cette diode est en fait une
partie très importante du module IGBT, car ses caractéristiques (en particulier de
recouvrement) doivent être compatibles avec l'IGBT lui-même, ce qui n'est pas trivial. C'est
d'ailleurs une des premières applications à se développer pour les semi-conducteurs en
carbure de silicium.
Il est a noter qu'on ne trouve que des IGBT «canal N». La structure complémentaire est
théoriquement possible, mais, comme pour les bipolaires et les MOSFET, les caractéristiques
obtenues sont moins bonnes (pertes en commutation supérieures par exemple).
Elle est basée sur l’introduction d’une couche supplémentaire N+ intercalée entre le
substrat P+ et l’épitaxie N- qui en diminuant la quantité de charges stockées dans la base
permet de « casser » la pente du champ électrique. Grâce à cela, l’épaisseur de la couche N-
est diminuée et du même coup la chute de tension. Elle conduit également à réduire la durée
de vie des porteurs et ainsi le courant de traînage lors d’un blocage au dépens d’une sensibilité
en température [Lefebvre, 04].
28
Chapitre 1 : Etude bibliographique sur les modules IGBT
Cette technique vise à limiter l’efficacité d’injection des trous dans la base au moyen
d’une couche P+ très fine en face arrière. Comme pour la PT, la quantité de charges stockées
dans la base est diminuée et donc l’amplitude de la queue de courant à l’ouverture est plus
faible qu’une structure classique. Cependant, cette technologie ne fait appel ni à
l’implantation ionique ni à l’irradiation comme pour la PT. Il en résulte donc un meilleur
comportement à haute température [Lefebvre, 04].
Le canal N a une forme verticale dans cette structure contrairement à la structure planar et
cela grâce à une nouvelle disposition de l’oxyde de grille (isolant inter couches) sous forme de
tranchée verticale. Cela a pour effet de supprimer la résistance intercellulaire et donc d’avoir
une densité de cellules plus importante [Iwamoto, 99] ; en d’autres termes, à même surface de
silicium le choix peut se tourner soit vers une augmentation du calibre en courant pour une
même chute de tension ou vers une diminution de la chute de tension pour un même calibre en
courant. Il peut aussi être choisi de réduire la surface du silicium. En pratique, c’est
évidemment un mélange de ces trois critères. Il est démontré que cette technologie d’IGBT est
la plus performante aussi bien au niveau des pertes par conduction qu’au niveau des pertes par
commutation [Iwamoto, 01].
29
Chapitre 1 : Etude bibliographique sur les modules IGBT
Dans cette étude, les modules IGBT utilisés sont de type Non Punch Trough, développés
par la société allemande Eupec, et doté d’un calibre de 3,3 kV.
Ces techniques sont mises en œuvre sur les barreaux de silicium dopé N-. Les couches N
et P sont obtenues par formation d’une sous-couche qui présentera le dopage approprié par
l’introduction des impuretés de dopage dans le matériau de base.
Voici une liste des techniques de formation des sous-couches les plus utilisées :
• L’épitaxie, qui consiste à soumettre la puce au flux d’un composé gazeux du silicium
additionné d’un composé gazeux de l’agent dopant.
• La diffusion, qui consiste à porter à une température de l’ordre de 1200°C un tube de
quartz dans lequel se trouve le substrat à doper ainsi que l’agent dopant.
• L’implantation ionique, qui consiste à projeter sur la pastille de silicium un faisceau
d’ions de forte énergie (≈100KeV).
Les mêmes techniques sont utilisées pour réaliser aussi bien des puces diode que des
puces IGBT.
Une fois les jonctions réalisées, les puces diodes et IGBT doivent subir divers étapes avant
d’être encapsulés dans un boîtier.
30
Chapitre 1 : Etude bibliographique sur les modules IGBT
• Le brasage dit « tendre », réalisé sur une pièce de contact, généralement en cuivre,
avec un matériau à basse température de fusion (entre 180°C et 300°C) comme par
exemple l’étain-plomb ou le plomb-indium-argent.
L’encapsulation : afin de pouvoir être facilement intégrées dans un équipement les puces
IGBT et diode formant un interrupteur sont placées dans un boîtier rempli de gel diélectrique.
La figure 12 présente le boîtier final dans le cas d’une utilisation de type « bras
d’onduleur ».
31
Chapitre 1 : Etude bibliographique sur les modules IGBT
La diode est un composant passif qui fait partie de la famille des semi-conducteurs, il en
constitue d’ailleurs le plus simple élément.
Une diode de puissance de type PIN est un barreau de silicium dopé N sur une face (les
électrons sont les porteurs majoritaires et les trous sont les porteurs minoritaires) et P+ sur
l’autre face (inversement, les électrons sont les porteurs minoritaires et les trous sont les
porteurs majoritaires). Pour assurer le contact électrique, ce barreau est métallisé sur ses deux
faces. De manière à tenir une tension importante à l’état bloqué, la couche inférieure est
composée d’une région N- faiblement dopée et de forte épaisseur et d’une région N+.
La diode suivant son sens par rapport à un courant électrique se présente sous deux
aspects : direct et inverse.
• Direct : On appelle sens direct ou encore sens passant, celui qui laisse passer le
courant (figure 14), un seuil de 0,65V est atteint lorsque la diode est passante, (1,5V
pour une LED). Le courant traversera la diode de l’anode vers la cathode (anneau de
repérage).
• Inverse : A contrario, le sens inverse bloquera le passage du courant (figure 15), on
dit alors que la diode est bloquée. Il faudra veiller à ne jamais dépasser la tension
maximale admissible en inverse, sous peine de claquage de la jonction.
32
Chapitre 1 : Etude bibliographique sur les modules IGBT
L’IGBT se constitue de quatre couches semi-conductrices différentes (P+, N-, P+, N+)
créées sur le même cristal de silicium. Ce transistor associe les deux technologies vues
précédemment (MOSFET et Bipolaire) afin d’obtenir leurs avantages tout en réduisant leurs
inconvénients.
Il est possible, à partir de la structure interne d’un IGBT, d’extraire un schéma équivalent
[Baliga, 87]. Celui-ci fait apparaître un transistor MOS à canal N, deux transistors bipolaires
NPN et PNP et une résistance entre les couches N+ et P+ ainsi qu’une résistance de
modulation (Rmod) relative au comportement de la couche faiblement dopée N-. Une
simplification de ce modèle est alors possible en supprimant la résistance entre la zone N+ et
P+, et le transistor parasite N+P+N-. Cette dernière simplification se justifie par le fait que de
nombreuses études sur la structure de l’IGBT ont permis de diminuer l’influence de ce
transistor, limitant donc le risque de latch-up (amorçage du thyristor constitué des jonctions
N+P+N-P+) [Vallon, 03]. Le schéma équivalent se ramène donc à un Darlington MOSFET-
Bipolaire PNP avec une résistance modulable Rmod qui doit tenir la tension à l’état bloqué et
avoir une faible valeur à l’état passant. Ceci implique que la couche N (ou région de base)
doit être faiblement dopée, épaisse et associée à une zone d’injection P+ pour réduire la chute
de tension à l’état passant.
Nous allons maintenant nous intéresser aux 2 phases de fonctionnement d’un IGBT à
savoir l’amorçage et le blocage.
33
Chapitre 1 : Etude bibliographique sur les modules IGBT
En appliquant une tension positive entre la grille et l’émetteur, supérieur à une certaine
tension de seuil (Vth=5 à 7V), on crée un canal N dans la couche P+, entre les couches N+
(émetteur de l’IGBT) et N-. Ce canal se crée par effet MOS. Le transistor MOS du schéma
équivalent devient conducteur et un flux d’électrons est injecté dans la couche N-. Ce flux
d’électrons stimule la jonction N-P+ en diminuant la taille de la zone de charge d’espace au
niveau de cette jonction. Cet abaissement de la barrière de potentiel permet le passage des
trous de la région P+ vers la région N- (ainsi que celui des électrons dans le sens opposé). La
couche N- se trouve donc en forte injection de trous.
Cela permet d’avoir une faible chute de tension aux bornes de l’IGBT, à l’état passant.
Les trous transitant dans la région de base sont aspirés par la jonction N-P+ polarisée en
inverse, ce qui constitue le courant du PNP. Le courant conduit dans le transistor est donc issu
d’un flux d’électrons dû à la partie MOS et d’un flux de trous dû à la partie bipolaire.
Une fois le transistor passant, si on applique une tension nulle ou négative entre la grille et
l’émetteur, le canal N formé dans la région P+ se referme très rapidement (effet MOS) et donc
le flux d’électrons injecté dans la base du bipolaire PNP est stoppé suite à cette fermeture, la
région de base du bipolaire se retrouve en l’air avec une quantité de charges stockées
importante.
Ces charges stockées agissent toujours sur la base N- et donc maintiennent le PNP en
conduction. Pour que le transistor IGBT se bloque, il faut annuler la quantité de charges
stockées dans la région de base. Cette annulation peut se faire par recombinaison naturelle des
porteurs dans la zone N- (dépendante de la durée de vie de ces dits porteurs dans cette zone et
34
Chapitre 1 : Etude bibliographique sur les modules IGBT
Le fonctionnement en commutation d’une puce IGBT ayant été présenté, nous nous
intéresserons maintenant aux principaux modes de dégradation visibles dans les modules
IGBT utilisés dans les applications de forte puissance telles que le domaine ferroviaires.
En ce qui concerne les différences de CTE, les écarts les plus important se situent entre
l’aluminium des fils de bonding et le silicium de la puce, entre le substrat et la semelle (en
particulier le couplage Al2O3 et cuivre) et entre la puce silicium et le substrat céramique (en
particulier avec un substrat en Al2O3).
35
Chapitre 1 : Etude bibliographique sur les modules IGBT
Un module IGBT de forte puissance contient plus de 800 bonding dont la moitié est
utilisée dans la zone active des semi-conducteurs. Ces fils sont exposés aux élévations de
température provoquées à la fois par la dissipation de la puissance à travers le silicium et
également par son propre échauffement ohmique. Un fil de bonding fait entre 300 à 500 µm
de diamètre. Il est constitué d’aluminium auquel s’ajoute quelques composants tels que le
magnésium, le nickel ou le silicium afin de le rendre plus solide et moins sensible à la
corrosion.
Ce phénomène affecte les fils de bonding présents sur les puces IGBT et diode. Le
décollement des fils de bonding est dû à l’apparition de microfissures entre l’extrémité du fil
et la métallisation sur laquelle il est soudé. Ce phénomène arrive après plusieurs cycles de
croissance et décroissance de la température qui engendre des efforts mécaniques sur la
soudure du bonding. Les simulations par éléments finis de [Ramminger, 98] permettent de
déterminer l’amplitude des ces efforts et ainsi le nombre de cycles admissibles avant
décollement. La figure 20 illustre ce phénomène :
36
Chapitre 1 : Etude bibliographique sur les modules IGBT
Les fissurations de fils de bonding arrivent peu sur les modules récents mais peuvent
cependant apparaître après de longs tests d’endurance en particulier dans le cas où le process
(soudure par ultrason) n’est pas optimisé. Ce phénomène est dû à la fatigue en flexion
engendrée par les cycles de température. Pour le cas classique d’un fils de 1 cm subissant des
différences de température de 50°C, le déplacement de la boucle est de 10 µm ce qui
provoque une variation d’angle entre le fil et la métallisation d’environ 0,05°. A cette
contrainte s’ajoute le déplacement rapide du fil (par exemple lors de l’amorçage de l’IGBT)
dans le gel silicone considéré comme un fluide visqueux. La figure 21 illustre ce phénomène :
N f = Aε nf (1.1)
Avec A et n constantes pour un matériaux donné, dans la littérature [Garry, 90], on trouve
fréquemment des valeurs respectives pour A et n de 3,9.10-10 et -5,13 dans le cas des
application en microélectronique de fils de bonding en aluminium dont le diamètre est
inférieur à 100µm.
ε f est l’effort dans le fil calculé par la relation suivante :
Avec :
∆α la différence de CTE entre l’aluminium et le silicium,
ψ 0 , ρ 0 et r sont des paramètres géométriques définies sur la figure 22.
37
Chapitre 1 : Etude bibliographique sur les modules IGBT
Fig 21. Définition des paramètres de bonding pour le modèle de durée de vie
Un autre modèle basé sur le calcul de la contrainte mécanique générée lors du cyclage sur
le bonding [Mehrotra, 99] permet de calculer ce nombre de cycles.
38
Chapitre 1 : Etude bibliographique sur les modules IGBT
La céramique des substrats isolant et le silicium des puces sont les matériaux les plus
cassant utilisés dans la conception des modules IGBT. Les microfissures présentes dans ces
matériaux peuvent croître, par effet du cyclage thermique et des contraintes engendrées,
jusqu’à la rupture. La figure 24 montre une fissure dans un substrat :
39
Chapitre 1 : Etude bibliographique sur les modules IGBT
Le nombre de cycles admissible par une brasure avant délaminage est donné par la loi de
Coffin-Mansson [Ciappa, 02].
1
L∆α∆T c (1.3)
N f = 0,5
γχ
Il existe plusieurs moyens pour déterminer l’état de fatigue des brasures : l’utilisation de
la microscopie acoustique permet de voir les cavités [Herr, 97], la mesure de la résistance
thermique du module ou encore les test de type « effort de décollement du substrat » (DIN
41850) [Mitic, 99].
3.6.2. La corrosion
40
Chapitre 1 : Etude bibliographique sur les modules IGBT
3.6.3. L’électromigration
Les décharges partielles concernent tous les matériaux isolants soumis à un champ
électrique et contenant des inclusions gazeuses. Dans le cas du module IGBT, les décharges
partielles concernent le substrat céramique. On parle de décharge partielle lorsque des micro-
décharges ont lieu dans les inclusions, le gaz contenu dans ces inclusions ayant une rigidité
diélectrique inférieure à celle d’un matériau isolant [Petraca, 99]. Ce phénomène participe à la
dégradation locale du diélectrique et à l’agrandissement de ces inclusions gazeuses qui
peuvent à long terme perforer l’isolant. La norme [IEC270, 81] présente les techniques
normalisées de mesure de ces décharges. De plus [Breit, 02] propose dans sa thèse une
technique de mesure à tension plus faible par application d’une tension sinusoïdale. Pour
parer à ce phénomène, le fabricant allemand d’IGBT Eupec, utilise de l’AlN en lieu et place
de l’ Al2O3, depuis 1996 [Schütze, 98].
41
Chapitre 1 : Etude bibliographique sur les modules IGBT
L’oxyde de grille est la partie isolante située entre la métallisation de la commande (la
grille) et le silicium. L’oxyde de grille est le siège de deux causes de défaillance, l’une
concerne les interfaces silicium/oxyde et oxyde/métallisation ; et l’autre touche la couche
d’oxyde elle-même.
Les avancées technologiques actuelles ont permis de diminuer l’épaisseur de cette couche
(quelques dizaines de nanomètres sur les IGBT actuels). En revanche la tension
d’alimentation est quant à elle restée la même, ce qui engendre une augmentation des champs
électriques appliqués à ces oxydes qui atteignent aujourd’hui 2 MV/cm². Ce champ électrique
participe à l’injection de charge à travers les interfaces silicium/oxyde et oxyde/métallisation.
Les deux mécanismes physiques d’injection de charges sont l’injection thermoélectronique
(Shottkey) et l’effet tunnel (Fowler-Nordheim) [Vallon, 03]. Le résultat de cette injection est
une dégradation des performances du composant, se traduisant par une augmentation de la
tension de seuil et une diminution du gain du transistor [Jensen, 95].
La physique liée au vieillissement des oxydes de grille est très complexe. On peut dire
d’une manière générale que ce vieillissement se traduit par l’insertion de défauts dans la
couche d’oxyde. La défaillance d’un oxyde se traduisant par un fort courant local traversant la
couche et formant un court-circuit.
42
Chapitre 1 : Etude bibliographique sur les modules IGBT
Aux mécanismes de dégradation associés à l’utilisation des modules, s’ajoute les limites
de fonctionnement que nous allons maintenant détailler.
Ces contraintes limites peuvent être liées au packaging ou aux puces semi-conductrices
(IGBT et diode).
43
Chapitre 1 : Etude bibliographique sur les modules IGBT
Les passages entre le régime normal et les régimes extrêmes peuvent être de deux types :
Ces contraintes trop élevées appliquées à une puce peuvent provenir soit de l’extérieur de
la cellule de commutation (surtension sur le bus continu…) soit de la cellule en elle-même
(court-circuit au sein de la cellule,…).
Nous allons maintenant lister les différents régimes extrêmes que peuvent subir les puces
diodes et IGBT au sein d’une cellule de commutation.
La température critique en fonctionnement normal peut être définie comme une des quatre
températures ci-dessous :
• La valeur spécifiée par les constructeurs de modules IGBT est égale à 125°C en
fonctionnement continu et 150°C en régime de surcharge de courte durée.
• La température de fusion des brasures se situe entre 180°C et 200°C. Elle dépend du
mélange étain-plomb utilisé. [Thebaud, 00]
• La température intrinsèque du silicium non traité se situe entre 200°C et 300°C.
Cette température dépend de la quantité de dopant [Duong, 97] en particulier de la
base. La règle couramment admise est que la limite en température est atteinte
lorsque le nombre d’électrons intrinsèque est égal au nombre de porteurs lié au
dopage [Baliga, 87]. A titre d’exemple, nous pouvons cité les boîtiers IGBT 3300 V
tels que ceux utilisé dans cette étude, disposant d’un dopage ni=2.1013/cm3 et dont la
température limite de fonctionnement se situe à 149°C. Au-delà de cette
température, les propriétés du silicium sont considérablement dégradées. La
résistivité de la puce décroît très rapidement ce qui génère un échauffement fatal
pour le module IGBT.
44
Chapitre 1 : Etude bibliographique sur les modules IGBT
La première température citée ci-dessus ne présente pas une limite en soi. Il est en effet
possible de faire fonctionner certaines puces IGBT à une température moyenne de 150°C
[Vallon, 03]. La deuxième température peut, quant à elle, être considérée comme étant une
limite de même que la troisième à ne pas dépasser sous peine de perte de contrôle du
composant. De plus les limites physiques des composant sont modifiées à haute température
[Wondrak, 99].
Lorsque le champ électrique est élevé (>105 V/cm), les porteurs libres peuvent acquérir,
entre collisions successives sur le réseau cristallin, une énergie cinétique suffisante pour briser
une liaison de covalence, c’est-à-dire pour créer une paire électron-trou. Les porteurs ainsi
générés peuvent à leur tour provoquer la création d’autres paires en un processus d’avalanche
[Leturcq, 99].
La tension de claquage par avalanche électronique dans le silicium représente une limite à
ne pas atteindre, en statique comme en dynamique. Cette valeur dépend de la quantité de
dopant, de la température et est rarement atteinte. Elle correspond à une valeur idéale pour
une jonction semi-infinie. La tenue en tension de la terminaison de jonction peut faire chuter
cette valeur de 10 à 20 % selon la technologie choisie (terminaison plane diffusée, anneau
flottant, puce biseautée…) [Baliga, 87].
Le latch up est lié à la formation d'une structure NPNP parasite résultant de la proximité
de deux transistors bipolaires (réels ou parasites) l'un NPN l'autre PNP.
45
Chapitre 1 : Etude bibliographique sur les modules IGBT
de base N dépend du dopage et du nombre des porteurs qui y transite. Si la densité de courant
est importante (300A/cm²), elle peut modifier la répartition du camp électrique
[Baudesson, 00]. D’une manière générale, la valeur de courant pour laquelle se produit le
latch-up dynamique est inférieure à celle du latch-up statique [Baliga, 87].
Une tension entre grille et émetteur trop importante induit un champ électrique important
dans l’oxyde de silicium. Au-delà d’une certaine valeur (100V en statique et 50V à 20kHz) la
grille entre en avalanche électronique entraînant la destruction de l’oxyde et l’impossibilité de
commander le composant. Avec un champ de rupture de 107V/cm, et une épaisseur de 100nm,
la tension de rupture est supérieure à 100V. Pour une épaisseur de 50nm, cette tension est
inférieure à 50V [Baliga, 87].
La limite de la diode en commutation est définie à travers une aire de sécurité appelée
RRSOA (Reverse Recovery Safe Operating Area). Cette aire de sécurité de la diode est
définie par les fournisseurs de module par rapport à la puissance instantanée dissipée lors de
la commutation.
Une dynamique trop importante sur le courant à la fermeture de l’IGBT peut causer la
défaillance de la diode de roue libre au blocage. Ce phénomène est d’autant plus important
que les diodes de puissance utilisées dans les applications de type onduleur sont rapides. Ce
phénomène survient lorsque le courant de recouvrement est trop élevé. La dynamique du
recouvrement est alors augmentée ce qui génère une surtension inverse aux bornes de la
diode. Le cas le plus critique est obtenu lorsque le recouvrement du courant s’effectue
brutalement (snap off). La forte augmentation du di/dt entraîne alors une très forte surtension
aux bornes de l’interrupteur pouvant provoquer la défaillance (court-circuit) de la diode ou de
l’IGBT en parallèle.
Un autre mode de défaut possible pour une diode de roue libre est sa mise en avalanche
dynamique. Ce phénomène apparaît lorsque les conditions de fort courant, forte tension, haute
température et di/dt important sont réunies [Shammas, 95].
46
Chapitre 1 : Etude bibliographique sur les modules IGBT
La tension maximale admissible Umax correspond au calibre en tension des puces IGBT
inclues dans le module (1700V, 3300V, 6500V par exemple), la limite en courant Imax
équivaut généralement au double du courant nominal, fourni par le fabricant dans la fiche
technique du composant. Le fournisseur garanti le respect de la RBSOA pas un essai au point
maximal sur 100% des pièces. Cependant, la détermination de cette aire est effectuée dans des
conditions de fonctionnement ne correspondant pas forcément aux conditions que
rencontreront les modules lors de leur utilisation. On constate donc ici une première zone de
flou concernant la notion de RBSOA pour les utilisateurs de modules IGBT.
L’autre zone floue qui concerne la RBSOA vient du fait que les marges comprises entre
cette aire de sécurité et la casse du composant sont inconnues même de façon qualitative et
variable d’une famille de composant à l’autre.
Le retour d’expérience sur les modules IGBT utilisés en traction tend à montrer que les
défaillances rencontrées au sein de la chaîne de traction sont essentiellement dues à des
problèmes de robustesse en commutation des IGBT. De ce constat est né l’idée d’investiguer
sur la notion d’aire de sécurité des modules IGBT et d’approfondir la connaissance du
comportement de ces modules au sein de cette aire.
L’idéal pour tout utilisateur de module IGBT est de connaître son comportement dans
l’ensemble de son aire de fonctionnement et jusqu’à la casse du composant en fonction de
l’ensemble des différents paramètres, liés à l’utilisation, qui influent sur le comportement des
modules. Cette connaissance permettrait au bureau d’études de définir des règles de
conception afin de répondre plus précisément aux demandes des clients et d’assurer une
meilleure fiabilité de ses produits.
Aujourd’hui, la validation des modules IGBT est effectuée seulement aux points jugés les
plus critiques par les experts, le nombre d’essais étant rédhibitoire si on veut couvrir
l’ensemble du domaine d’utilisation du module IGBT. Ainsi, aucun outil ne permet de
connaître l’effet de la variation d’un facteur tel que la tension ou la température sur le
comportement des modules IGBT et d’assurer, lors de l’utilisation, le non franchissement des
limites de fonctionnement des modules IGBT. A fortiori, la présence d’interactions entre
différents facteurs est totalement inconnue.
47
Chapitre 1 : Etude bibliographique sur les modules IGBT
d’identifier des performances clés qui présentent un seuil de fonctionnement qu’il est
important de ne pas dépasser.
Il est admis que les modules IGBT sont plus tolérants en courant et que le stress du
composant est surtout dû à la tension commutée [Azzopardi, 03]. Les performances sur
lesquelles notre attention se portera seront donc associées à cette tension.
Un pic de tension, appelé surtension, a lieu lors du blocage des IGBT. Cette surtension
génère un champ électrique responsable d’un stress important sur le composant IGBT. De
plus, les fabricants des modules donnent une limite de vitesse de commutation au blocage,
appelée dV/dt, ce qui laisse à penser à la présence d’un risque en cas de commutation trop
rapide. On sait notamment que la vitesse de commutation influe sur la dissipation, dans le
composant, du champ électrique, générateur de stress à l’intérieur des puces semi-
conductrices. A l’amorçage du composant, le stress engendré par une vitesse de commutation
élevée est ressenti par la diode anti-parallèle, plus résistante que l’IGBT, ce qui rend le
phénomène moins dangereux pour le module.
Nous nous pencherons donc, dans ce travail, sur la surtension et la vitesse de commutation
ayant lieu au blocage de l’IGBT.
Le respect de cette aire de sécurité lors du fonctionnement des modules IGBT doit
permettre de ralentir les phénomènes de vieillissement qui se traduisent par les mécanismes de
dégradation développés ci-après.
• Les modèles mathématiques ; ils sont basés sur l’analyse des principes physiques du
semi-conducteur. Les différences d’une version à l’autre résident essentiellement
dans les simplifications apportées en vue de réduire le temps de calcul. [Hefner, 94]
a développé le premier modèle unidimensionnel complet avec contrôle de la charge
donnant lieu à d’excellents résultats en commutation dure (figure 27). Cependant les
simplification apportées à l’expression de la conductivité de la base conduisent à de
mauvais résultats en commutation à tension nulle ou a courant nul.
48
Chapitre 1 : Etude bibliographique sur les modules IGBT
Fig 27. Circuit équivalent d’un transistor IGBT selon A.R. Hefner [Hefner, 94]
• Les modèles semi mathématiques ; ils combinent des modèles existants avec des
équations basées sur la physique des semi-conducteurs. Ils sont en général composés
de modèles de transistors MOSFET et bipolaires simples augmentés d’un ou
plusieurs éléments permettant une meilleure description de certains effets. L’accent
est en général donné vers une meilleure représentation des capacités non linéaires
grille-emetteur et grille-collecteur du transistor MOSFET [Protiwa, 96] ou de la
queue de courant au déclenchement, comme dans le modèle développé par
[Musumeci, 96] pour le logiciel PSpice et dont le circuit équivalent est fourni en
figure 28.
Fig 28. Circuit équivalent d’un transistor IGBT selon S. Musumeci [Musumeci, 96]
• Les modèles comportementaux ; des éléments simples tels que des résistances, des
sources de courants, et des capacités sont adaptés à partir d’une base de données
contenant des valeurs de paramètres pour divers points de fonctionnement
49
Chapitre 1 : Etude bibliographique sur les modules IGBT
• Les modèles numériques ; les dopages sont représentés en deux ou trois dimensions
et traités par un simulateur dédié utilisant les équations de base de la physique des
semi-conducteurs sur un certain nombre de nœuds (éléments finis).
• Les modèles semi numériques ; ils contiennent une représentation par éléments finis
de la base alors que les autres parties de l’éléments sont simulé par d’autres
méthodes.
Dans [Sheng, 00], on retrouve un état de l’art des modèles d’IGBT développé entre 1985
et 1998, leur nature (mathématique, semi-numérique…), leur complexité, le simulateur utilisé
et quelques commentaires associés.
N’ayant pas suivi un parcours orienté vers l’électronique et a fortiori vers l’électronique
de puissance, nous avons opté pour une méthode de modélisation basée sur l’expérimentation
et plus précisément sur la méthode des plans d’expériences. L’application de cette méthode
permet d’établir des modèles quadratiques qui, de l’avis des experts IGBT d’ALSTOM
Transport, permettront de traduire correctement les performances étudiées.
L’objectif visé par ce travail est donc la mise en place de modèles quadratiques de
surtension et de vitesse de commutation par application des méthodes de plans d’expériences.
4. Conclusion du chapitre I
50
Chapitre 1 : Etude bibliographique sur les modules IGBT
L’hypothèse retenue concernant ces modèles est qu’une forme quadratique permettra de
traduire correctement ces performances. L’obtention de ces modèles se fera par l’application
des méthodes de plans d’expériences. Ces méthodes, pouvant être décrites comme un
ensemble raisonné d’essais permettent, par l’analyse de résultats d’expérimentation, d’obtenir
des modèles polynomiaux du second degré. Les facteurs utilisés dans les modèles seront ceux
jugés influent parmi les paramètres présents lors de la conception de l’onduleur comme
présenté dans le deuxième chapitre dédié aux plans d’expériences utilisés pour les études de
criblage.
Références du chapitre I
[Aloïsi, 01] J. Aloïsi, “Les semiconducteurs de puissance – De la physique du solide
aux applications”, Ellipses, 2001.
[Baliga, 84] B.J. Baliga, M.S. Adler, R.P. Love, P.V. Gray, M.S. Zommer, “The
insulated gate transistor, a new three-terminal-MOS-controlled bipolar
power device”, IEEE Trans. Electron. Devices, vol. 31, pp. 821-828, 1984.
[Baliga, 87] B.J. Baliga, “Modern power devices”, New York, John Wiley & Sons,
1987.
[Cand, 86] M. Cand, E. Demoulin, J.-L. Laroy, D. Senn, “Conception des circuits
intégrés MOS”, Eyrolles & CNET-ENST, 1986.
51
Chapitre 1 : Etude bibliographique sur les modules IGBT
[Duong, 97] Viet-Son Duong, “Etude de l’intégration d’une protection par fusible dans
les convertisseurs à IGBT”, Thèse de l’INPG, Grenoble, 1997.
[Garry, 90] W.J. Garry, R.H. Seilh, T.A. Jennings, “Reliability analysis/assessment of
advanced technologies”, Final Technical report, 1990.
[Hefner, 94] A.R. Hefner, “An experimentally verified IGBT model implemented in the
Saber circuit simulator”, IEEE transaction on Power Electronics, 1994.
[Hsu, 96] T.S. Hsu, “Behavioural modeling of the IGBT using the Hammerstein
configuration”, IEEE transaction on Power Electronics, 1996.
52
Chapitre 1 : Etude bibliographique sur les modules IGBT
[Mehrotra, 99] Mehrotra, V.; Jun He; Dadkhah, M.S.; Rugg, K.; Shaw, M.C., “Wirebond
reliability in IGBT-power modules: application of high resolution strain
and temperature mapping”, Power Semiconductor Devices and ICs, 1999.
ISPSD '99. Proceedings., The 11th International Symposium, pp. 113 –
116, 1999.
[Musumeci, 96] S. Musumeci, “PT-IGBT model with new parameters extraction for life-
time and Epy dependent behaviour simulation”, 27th Annual IEEE Power
Electronics Specialists Conference, 1996.
[Protiwa, 96] F.F. Protiwa, “New IGBT model for PSpice”, Electronics Letters, Vol 32
N° 25, 1996.
[Russel, 95] J.P. Russel, “The COMFET – A new high conductance MOS-gated device”,
IEEE Electronic Device Lett, vol. 38, N°3, pp. 561-566, 1995.
[Schafft, 72] Schafft H., “Testing and fabrication of wire bonds electrical connections –
A comprehensive survey”, National Bureau of Standards, Technical Note,
Vol. 726, pp. 106-109, 1972.
53
Chapitre 1 : Etude bibliographique sur les modules IGBT
[Sheng, 96] K. Sheng, “A new analytical IGBT model with Improved Electrical
Characteristics” IEEE transaction on Power Electronics and Application,
1996.
[Sheng, 00] K. Sheng, B.W. Williams, S.J. Finney, “A review of IGBT models”, IEEE
Transactions on Power Electronics, Vol 15, Issue 6, pp 1250-1266, 2000.
[Thebaud, 00] J.-M. Thebaud, E. Woirgard, C. Zardini, K.-H. Sommer, “Thermal fatigue
resistance evaluation of solder joints in IGBT power modules for traction
applications”, PESC Record - IEEE Annual Power Electronics Specialists
Conference, pp. 1285 – 1290, 2000.
[Tzou, 93] J.T. Tzou, “Practical Spice macro model for IGBT”, IECON Proceeding,
1993.
[Wondrak, 99] W. Wondrak, “Physical limits and lifetime limitations of semi conductor
devices at high temperature”, Microelectronic Reliability, Vol 39, issue 6-
7, pp.1113-1120, 1999.
54
Chapitre II : Les plans d’expériences, étude de criblage
Chapitre II :
Les plans d’expériences,
Etude de criblage
55
Chapitre II : Les plans d’expériences, étude de criblage
56
Chapitre II : Les plans d’expériences, étude de criblage
Le premier chapitre de cette thèse a permis de présenter l’IGBT, transistor sur lequel porte
ce travail de recherche. L’objectif exposé dans ce premier chapitre réside dans la modélisation
de deux performances ayant lieu lors du blocage d’un IGBT utilisé en traction ferroviaire. Ces
deux performances sont la surtension et la vitesse de commutation. Pour effectuer cette
modélisation nous avons opté pour une méthode empirique, celle des plans d’expériences. Les
second et troisième chapitres traiteront de cette méthode et présenteront leur application à
notre cas d’étude.
La méthode des plans d’expériences (MPE) cherche à déterminer une relation entre 2
types de grandeurs :
La méthode des plans d’expériences peut être utilisée dans deux types d’investigations :
57
Chapitre II : Les plans d’expériences, étude de criblage
k k k −1 k
η = α 0 + ∑ α i xi + ∑ α ii xi ² + ∑ ∑ α ij xi x j (2.1)
i =1 i =1 i =1 j =i +1
Dans lequel, α représente les coefficients du modèle à identifier (α0 la constante, αi les
coefficients associés aux facteurs, αii les coefficients associés aux termes quadratiques et αij
les coefficients associés aux interactions d’ordre 1), k désigne le nombre de facteurs xi pris en
considération dans le modèle.
Comme nous le verrons au chapitre III consacré aux plans pour l’étude des surfaces de
réponse, ces plans nécessitent un nombre important d’essais. Ce nombre d’essais doit être au
moins égale au nombre p de coefficients à déterminer dans le modèle. Cependant, ce nombre
p est étroitement lié au nombre k de facteurs présent dans le modèle comme nous l’indique la
formule du calcul de p dans le cas d’un modèle d’ordre 2 :
( k + 1)( k + 2)
p= (2.2)
2
Rappelons que dans le contexte industriel qui englobe cette thèse en contrat CIFRE au
sein de la société Alstom Transport de Tarbes, il est important de minimiser les dépenses et
donc dans notre cas, le nombre d’essais sans pour autant perdre en efficacité.
On comprend alors mieux la nécessité d’identifier les facteurs ayant une influence
statistiquement significative sur nos réponses avant de chercher à établir ces modèles. Les
études de criblage répondent à ce besoin et font l’objet de ce deuxième chapitre.
Un certain nombre de termes de vocabulaire couramment utilisés dans une étude par plan
d’expériences [ISO 3534-3, 98] est donné en annexe 1.
58
Chapitre II : Les plans d’expériences, étude de criblage
On peut représenter l’évolution des méthodes de plan d’expériences pour l’étude des
effets des facteurs (études de criblage) par la figure 1 :
Le père fondateur des plans d’expériences est le britannique Sir Ronald Aymler Fisher
(1890-1962). Les dispositifs d’expérimentations qu’il proposa permettent hélas de ne prendre
en considération que peu de facteurs qui, de plus, doivent posséder un même nombre de
modalité [Fisher, 25], [Fisher, 35]. La taille du plan d’expériences correspond alors au carré
du nombre de modalités et le modèle sous-jacent est un modèle additif sans interactions. Ces
plans sont les plans en carré gréco-latin. On peut citer par exemple le plan en carré gréco-latin
destiné à l’étude des effets de 4 facteurs à 3 modalités nécessitant 9 essais.
Sir Ronald Aymler Fisher, professeur de mathématiques, développa et utilisa les plans en
carré gréco-latin à la station agronomique de Rothamsted, près de Londres, dès 1924. Il fut
rejoint un peu plus tard par Franck Yates (1902-1994), plus connu pour les notations qu’il
proposa pour l’étude des plans factoriels.
C’est en 1946 qu’une nouvelle famille de plans d’expériences apparaît. Ces nouveaux
plans permettent l’étude d’un grand nombre de facteurs auxquelles on affecte 2 modalités et
respectent les règles d’orthogonalité ce qui facilite l’analyse des résultats d’essais. Il s’agit des
plans proposés par R.L. Plackett et J.P. Burman auxquels on associe immédiatement les
problèmes de criblage [Plackett, 46]. La taille des plans de ce type est égale au multiple de 4
directement supérieur au nombre d’inconnues du modèle additif sans interactions.
59
Chapitre II : Les plans d’expériences, étude de criblage
En 1961, G.E.P. Box et J.S. Hunter montrent qu’il est possible de préciser l’effet d’un
facteur à l’aide d’interactions en ne réalisant qu’une fraction régulière du plan factoriel
complet. Ils créent ainsi les méthodes de construction et d’analyse des plans factorielles
fractionnaires, notés 2k-p dans [Box, 62].
Toutefois, une fraction d’un plan complet reste encore une puissance de 2 et peut
occasionner un grand nombre d’essais à réaliser. En 1962, pour estimer les interactions en
présence de 4 facteurs, P.J.M. John propose de ne réaliser que les ¾ du plan complet soit 12
essais [John, 62]. Malheureusement cette méthode n’est pas suffisamment généralisable.
Les dispositifs expérimentaux cités ci-dessus sont tous symétriques. C’est en 1962 que S.
Addelmann [Addelmann, 62] a proposé des dispositifs asymétriques respectant des règles
d’orthogonalité, marquant ainsi la fin des grands développements associés à la construction
des plans d’expériences pour l’étude des effets des facteurs à partir de règles combinatoires.
En 1967, R.L. Rechtschaffner propose dans son article [Rechtschaffner, 67] une méthode
de construction de matrices d’expériences par permutation circulaire, permettant d’estimer les
interactions à partir d’un nombre d’expériences distinctes rigoureusement identique au
nombre d’inconnues du modèle empirique (plan saturé).
Enfin, il n’est pas envisageable de parler des plans d’expériences pour l’étude des effets
des facteurs sans évoquer Genichi Taguchi. Les dispositifs expérimentaux proposés par
Taguchi ne sont pas originaux, ils reprennent les travaux antérieurs en les présentant de façon
pragmatique [Taguchi, 87]. Mais Taguchi va plus au-delà de simples matrices d’expériences
rendues prêtes à l’emploi, en proposant une méthode qui donnera naissance à l’ingénierie
robuste. Pour Taguchi, la mise en œuvre d’un plan d’expériences doit permettre la
minimisation du coût de la non-qualité, traduite par le ratio Signal/Bruit, notion introduite en
1962.
Les dernières évolutions des plans d’expériences concernent les plans optimaux. Les
méthodes d’optimisation permettent aux expérimentateurs de construire une matrice
d’expériences « à la carte ». Cette technique permet d’outrepasser les limites des plans
traditionnels, en particulier en laissant la possibilité d’affecter à chaque facteur un nombre
spécifique de modalités et en permettant de ne choisir que certaines interactions à mettre dans
le modèle additif.
La première famille de problèmes auxquels les plans d’expériences peuvent apporter une
aide concerne les plans dits de criblage ou screening. Ces plans concernent la compréhension
de l’effet des facteurs qui affectent le processus.
Pour illustrer la technique du sceerning, nous pouvons nous référer à [Srinivasaiah, 04]
dans lequel l’auteur utilise un plan en 28 essais, proposé par Plackett et Burman et identifie 10
facteurs ayant une influence significative sur le comportement du CMOS (Complementary
60
Chapitre II : Les plans d’expériences, étude de criblage
Nous allons maintenant revenir sur le contenu des 12 étapes citées dans le premier
paragraphe dans le cas d’une étude de criblage avant de les appliquer à notre cas.
Voici quelques voies d’investigation pour lesquelles les plans d’expériences de criblage
peuvent s’appliquer :
• Hiérarchiser les conséquences des changements de modalité des facteurs sur une
variable réponse et identifier ainsi les facteurs ayant une influence significative sur
cette réponse, comme ce sera le cas dans notre étude.
• Estimer les effets moyens des facteurs avec une incertitude minimale.
• Préciser les effets moyens des facteurs par des interactions.
• Proposer une orientation de réglage pour un processus.
• Mettre en œuvre l’ingénierie robuste.
L’estimation et la comparaison des effets des facteurs s’appuient sur l’analyse de résultats
d’essais qui représentent les valeurs particulières de grandeurs que la terminologie des plans
d’expériences appelle des réponses. Les modifications des réglages de tout processus
conduisent à l’observation des variations d’une ou plusieurs réponses.
Les réponses d’une étude correspondent à des traductions métrologiques des besoins
industriels. Il est important de mener une réflexion approfondie sur le choix, la définition et
les méthodes d’obtention des réponses.
61
Chapitre II : Les plans d’expériences, étude de criblage
Dans notre application, nous observerons deux réponses de type continu sur lesquelles
nous reviendrons dans la partie applicative de ce chapitre.
Les plans d’expériences pour l’étude des effets des facteurs constituent la méthode qui
semble s’imposer, dès lors qu’il est impossible, pour des raisons souvent matérielles, de
réaliser un plan complet c'est-à-dire l’ensemble des combinaisons des modalités des facteurs.
Lorsqu’on décide d’estimer et de comparer les effets des facteurs, il faut rendre les
comparaisons les plus équitables possible de façon à uniformiser et à minimiser les
incertitudes qui affectent les inconnues du problème.
62
Chapitre II : Les plans d’expériences, étude de criblage
changement de son niveau. En effet, lors du choix de la matrice d’expériences cela permettra
d’éviter d’avoir à modifier à chaque expérimentation, un facteur difficilement modifiable.
Une étude par plan d’expériences peut mettre en jeu des facteurs de toute nature
(qualitative, quantitative, temporelle). Cependant, lorsque l’objectif d’une étude est d’estimer
puis de comparer les effets des facteurs, la stratégie expérimentale conduit à postuler à un
modèle additif, préalablement à la construction d’un plan d’expériences adapté à l’objectif. En
conséquence de quoi et d’après la définition de l’effet d’un facteur, tous les paramètres de
réglage mis en œuvre au cours du plan d’expériences seront considérés comme étant des
variables quantitatives, auxquelles on associe au moins deux états distincts appelés modalités.
Le passage du plan d’expérimentation, composé des valeurs utilisées pour les différents
facteurs lors des essais, à la matrice d’expérience ξN, composée des diverses modalités des
facteurs s’illustre avec l’exemple d’une table L4 à trois facteurs (plan en carré gréco-latin)
présenté dans la table 1 :
Il ne s’agit là que de remplacer les valeurs réelles des niveaux des facteurs par les
modalités A, B, …Il est également courant de voir les modalités A, B de la matrice
d’expériences remplacées par les modalités +/- notamment dans les plans du type
Rechtschaffner [Rechtschaffner, 67] utilisés pour l’étude des interactions lorsque les facteurs
ne prennent que 2 modalités.
Comme nous le montre l’exemple de la table 1, la matrice d’expérience (ξN) est une entité
mathématique présentée sous forme de tableau comportant autant de colonnes que de facteurs
(k ici égal à 3) et autant de lignes que de combinaisons (N ici égal à 4) de modalités retenues
dans le plan d’expériences.
63
Chapitre II : Les plans d’expériences, étude de criblage
Peu d’ouvrages présentent les relations de codage utilisées dans les logiciels dédiés à la
construction des plans d’expériences pour les études de criblage. Dans [Louvet, 06], on trouve
explicitées les 2 relations de codage utilisées pour les études de criblage qui sont définies dans
les paragraphes 3.3.1 et 3.3.2.
k
Nombre de colonnes du tableau disjonctif complet = ∑m
i =1
i (2.4)
On illustre cette relation avec le plan proposé par Ronald Aylmer Fisher et repris par
Genichi Taguchi sous la notation L9(34) dans la table 2 :
A B C D
1 A1 B1 C1 D1
2 A1 B2 C2 D2
3 A1 B3 C3 D3
4 A2 B1 C2 D3
5 A2 B2 C3 D1
6 A2 B3 C1 D2
7 A3 B1 C3 D2
8 A3 B2 C1 D3
9 A3 B3 C2 D1
On attribue une colonne à chacune des modalités de chacun des facteurs. Cette matrice
d’expérience donne après codage la table 3 :
A1 A2 A3 B1 B2 B3 C1 C2 C3 D1 D2 D3
1 1 0 0 1 0 0 1 0 0 1 0 0
2 1 0 0 0 1 0 0 1 0 0 1 0
3 1 0 0 0 0 1 0 0 1 0 0 1
4 0 1 0 1 0 0 0 1 0 0 0 1
5 0 1 0 0 1 0 0 0 1 1 0 0
6 0 1 0 0 0 1 1 0 0 0 1 0
7 0 0 1 1 0 0 0 0 1 0 1 0
8 0 0 1 0 1 0 1 0 0 0 0 1
9 0 0 1 0 0 1 0 1 0 1 0 0
64
Chapitre II : Les plans d’expériences, étude de criblage
logiciels comme la combinaison des dernières modalités de chacun des facteurs. Dans le cas
présent, l’état de référence serait donc défini à partir de la combinaison :
1 1 0 1 0 1 0 1 0
1 1 0 0 1 0 1 0 1
1 1 0 0 0 0 0 0 0
1 0 1 1 0 0 1 0 0
X = 1 0 1 0 1 0 0 1 0
1 0 1 0 0 1 0 0 1
1 0 0 1 0 0 0 0 1
1 0 0 0 1 1 0 0 0
1 0 0 0 0 0 1 1 0
Il existe une deuxième relation de codage, définie par [Eriksson, 00], qui offre l’avantage
d’être facilement applicable au problème d’estimation des interactions d’ordre 1. Cette
relation consiste à coder chaque colonne de la matrice d’expériences en (mi-1) colonnes
comme le montre la table 5 :
65
Chapitre II : Les plans d’expériences, étude de criblage
1 − 1 − 1 − 1 − 1 − 1 − 1 − 1 − 1
1 − 1 − 1 1 0 1 0 1 0
1 − 1 − 1 0 1 0 1 0 1
1 1 0 −1 −1 1 0 0 1
X = 1 1 0 1 0 0 1 − 1 − 1
1 1 0 0 1 −1 −1 1 0
1 0 1 −1 −1 0 1 1 0
1 0 1 1 0 −1 −1 0 1
1 0 1 0 1 1 0 − 1 − 1
Cette relation permet notamment de retrouver la notation +1/-1 souvent rencontrée lors de
l’utilisation des plans d’expériences mettant en jeu 2 modalités par facteurs, comme le montre
l’exemple de la table 8 :
Lorsqu’on décide de préciser l’effet moyen d’un premier facteur en fonction des modalités
d’un second facteur (interaction d’ordre 1), la matrice du modèle est complétée par une ou
plusieurs colonnes résultat du produit des colonnes relatives aux facteurs concernés. Voyons
dans la table 9 comment s’effectue ce calcul d’interactions avec cet exemple d’un plan
complet mettant en jeu un facteur A à 2 modalités et un facteur B à 3 modalités.
66
Chapitre II : Les plans d’expériences, étude de criblage
C’est ce type de codage que nous utiliserons dans notre application présenté dans le 4ème
paragraphe de ce chapitre.
Lorsque tous les facteurs ont le même nombre de modalités, le domaine est dit
symétrique, dans le cas contraire, il est asymétrique. Par exemple pour 3 facteurs à 4
modalités, 2 facteurs à 3 modalités et 1 facteur à 2 modalités, le domaine expérimental est
asymétrique et se compose de 4x4x4x3x3x2=1152 combinaisons possibles.
67
Chapitre II : Les plans d’expériences, étude de criblage
• Adopter un modèle additif sans couplage pour estimer et comparer les effets moyens
des facteurs :
k k
Y = C te + ∑Wi et p = 1 + ∑ ( mi − 1) (2.6)
i =1 i =1
• Adopter un modèle additif avec interactions pour préciser les effets moyens des
facteurs par des interactions (généralement limités au 1er ordre) comme ce sera le cas
dans notre application :
k k −1 k k k −1 k
Y = C te + ∑Wi + ∑ ∑ Cij et p = 1 + ∑ (mi − 1) + ∑ ∑ (mi − 1)( m j − 1) (2.7)
i =1 i =1 j =i +1 i =1 i =1 j =i +1
Parmi les plans construits à partir des règles d’orthogonalité, les plus souvent rencontrés
sont les plans en carré gréco-latin de Fisher [Fisher, 49], les plans de Plackett et Burman
[Plackett, 46] ou les plans de Box et Hunter [Box-Hunter, 62]. Le but de ces plans est
d’extraire du domaine expérimental, généralement symétrique, tout ou une partie des
combinaisons des modalités des facteurs, à partir de règles basées sur des permutations
circulaires, de manière à estimer avec une incertitude minimale les inconnues du modèle et les
informations recherchées en terme d’effet des facteurs.
68
Chapitre II : Les plans d’expériences, étude de criblage
L’utilisation des uns ou des autres de ces critères étant indépendant de l’objectif recherché
par l’étude, nous détaillerons dans ce chapitre la notion de critères d’orthogonalité tandis que
le chapitre suivant, portant sur la méthode de surface de réponse, présentera les critères
d’optimalité et l’utilisation des algorithmes d’échange.
L’exemple de la table 10, d’un plan de Plackett et Burman mettant en jeu trois facteurs à
deux modalités illustre cette notion d’orthogonalité :
A B C
1 A2 B2 C1
2 A1 B2 C2
3 A2 B1 C2
4 A1 B1 C1
A1 A2 A1 A2 B1 B2
B1 1 1 C1 1 1 C1 1 1
B2 1 1 C2 1 1 C2 1 1
Cette matrice est bien orthogonale, chaque tableau de contingence est rempli d’une même
valeur (ici 1) dans chacune de ces cases. En effet, dans cette table, l’association A1-B1 par
exemple n’apparaît qu’une seule fois (lors de l’essai 4). De plus ici, le fait que chaque facteur
69
Chapitre II : Les plans d’expériences, étude de criblage
soit doté d’un même nombre de modalités engendre le fait que cette valeur est la même dans
chacun des tableaux de contingence.
On peut citer parmi les plans basés sur ce critère d’orthogonalité les plans en carré gréco-
latin et hyper gréco-latin et les plans de Plackett et Burman sans oublier les plans Taguchi qui
pour l’essentiel reprennent les tables citées précédemment.
3.7. Expérimentation
Avant l’expérimentation, il convient de préparer pour chacun des essais, une fiche
indiquant les modalités des facteurs à respecter. De plus, il est préférable d’effectuer une
randomisation des essais si cela est possible. Cette randomisation permet de limiter
l’éventuelle influence perturbatrice de facteurs non contrôlés.
Pour effectuer cette analyse, on fera appel à des constructions graphiques sous forme de
nuages de point ou de « boîtes à moustaches » lorsque les traitements du plan d’expériences
donnent lieu à des répétitions.
La représentation de « boîtes à moustaches » (Box and Whiskers Plot) est une technique
récente de statistique descriptive pour résumer des distributions unidimensionnelles de
données.
Ce mode de visualisation graphique a été initialement proposé par John W. Tukey (1915-
2000) en 1977 [Tukey, 97]. Il connaît de nombreuses variantes développées par différents
auteurs. L’objectif consiste à représenter sur un même graphique les caractéristiques
suivantes :
70
Chapitre II : Les plans d’expériences, étude de criblage
Cette méthode a été proposée en 1990, par Robert H. Lochner et Joseph E. Matar dans un
ouvrage intitulé designing for quality [Lochner, 90]. Elle répond parfaitement à un besoin
d’analyse rapide et manuelle des résultats d’essais.
71
Chapitre II : Les plans d’expériences, étude de criblage
La structure des cellules vides correspond aux combinaisons particulières des modalités
des facteurs retenues dans le plan d’expériences. Cette présentation facilite ainsi le calcul des
moyennes propres à chacune des modalités des différents facteurs.
Avec :
{Y} le vecteur des résultats d’essais,
(X) la matrice du modèle,
{Coefficients} le vecteur des estimations des coefficients.
{E} le vecteur d’erreur.
La matrice (X) n’étant pas souvent une matrice carrée, nous avons recourt pour résoudre
ce problème à l’écriture matricielle de la méthode des moindres carrés [Dodge, 99]
[Goupy, 06] dont l’équation est :
Cette équation fait appel au calcul de la pseudo inverse de la matrice du modèle (X). La
matrice (X) étant de rang plein en colonne (le nombre de colonnes indépendantes est inférieur
au nombre de lignes), cette pseudo inverse se calcule de la façon suivante [Rotella, 95] :
(X ) = ( XX ) ( X )
+ t −1 t
(2.10)
72
Chapitre II : Les plans d’expériences, étude de criblage
méthode des moindres carrés offre ainsi le meilleur ajustement des résultats par le
modèle mathématique.
• La somme des résidus est nulle, ce qui implique que la moyenne des résultats
observés est égale à la moyenne des résultats calculés à partir du modèle. Il s’agit
d’un critère de vérification lorsqu’on met en œuvre la méthode des moindres carrés à
l’aide d’un tableur.
• La méthode des moindres carrés suppose que les résidus sont distribués suivant une
loi normale d’espérance mathématique nulle, la dispersion des résidus autour de la
moyenne servant à estimer un écart type résiduel, utilisé dans la mise en œuvre des
tests statistiques quand on ne dispose pas d’informations sur la variabilité naturelle
des résultats.
Connaissant une estimation des coefficients du modèle, il est possible d’utiliser ce dernier
afin de calculer une estimation de la réponse pour chacun des traitements du plan
d’expériences. Il suffit pour cela d’utiliser le produit scalaire entre le vecteur des estimations
des coefficients et le vecteur représentant la fonction du modèle, pour une combinaison x0 des
modalités des facteurs donnée [Draper, 81] :
∧
y ( x0 )= t f (x0 ){Coefficients} (2.11)
Pour une combinaison x0 donnée du plan d’expériences, le résidu est défini à partir de la
relation suivante :
∧
Résidu = y(x0 ) − y(x0 ) (2.12)
La méthode des moindres carrés, utilisée dans le calcul des coefficients du modèle, est
basée sur la minimisation de la somme des carrés de ces résidus.
Cette méthode d’analyse repose sur la construction d’un graphique. On ordonne dans un
premier temps la valeur absolue des effets moyens dans un ordre croissant, ce qui permet
d’obtenir le rang i de chacune de ces valeurs absolues (i=1,…, k).
73
Chapitre II : Les plans d’expériences, étude de criblage
La valeur des effets moyens constitue l’axe des abscisses du graphe de Daniel. On calcul
alors la fréquence correspondante à partir de la relation :
i − 0,5
P= (2.13)
k
P +1
F −1 (2.14)
2
Si tous les effets moyens étaient nuls, le nuage de point s’alignerait alors sur une droite
passant par l’origine du graphique, la dispersion des points autour de cette droite étant due à la
variabilité naturelle des résultats d’essais. Dès qu’il n’y a plus alignement, les points qui se
détachent de la droite traduisent des facteurs aux effets moyens probablement actifs.
La méthode de Lenth [Lenth, 89] consiste à estimer une pseudo erreur-type, pour mettre
en œuvre un test statistique dont le résultat se traduit sous forme graphique semblable à une
carte de contrôle.
La première étape de l’application de cette méthode consiste à classer les valeurs absolues
des coefficients aj du modèle obtenu dans l’ordre croissant. On défini ensuite la grandeur s0 à
partir de la médiane de ces valeurs absolues :
On élimine les coefficients dont la valeur absolue est supérieure à 2,5 s0. En appliquant la
même démarche aux coefficients restants, on estime à nouveau s0.
Il n’y a plus de coefficients à éliminer. On a atteint ainsi la valeur d’une pseudo erreur-
type, désignant l’écart-type sur l’estimation d’un coefficient :
Ce dernier résultat est utilisé de façon classique pour construire un intervalle bilatéral de
confiance associé aux coefficients dont les limites sont définies par :
74
Chapitre II : Les plans d’expériences, étude de criblage
Lenth définit de façon empirique par le tiers du nombre m de coefficients restants [Lenth, 89].
La valeur du coefficient t est définie à partir de la loi de Student.
Par ailleurs, R.V. Lenth propose la construction d’autres limites à partir d’une probabilité
γ définie par :
1
(1 + 0,95 m ) (2.18)
γ =
2
On obtient alors :
Les coefficients aj dont les valeurs estimées sont situées à l’extérieur des limites définies
par la valeur de ME correspondent à des effets actifs. Inversement, les coefficients aj dont les
valeurs estimées sont situées à l’intérieur des limites définies par la valeur de ME
correspondent à des effets non actifs.
L’application de cette méthode peut amener parfois à ne considérer aucun facteur comme
actif. Ce n’est pas pour autant que les résultats de l’analyse mathématique ne sont pas
exploitables. Il est alors préférable d’analyser ces résultats à l’aide d’une autre méthode
comme la méthode de Daniel ou l’analyse de la variance et d’associer à cette analyse les
connaissances du groupe de travail.
Remarque : la méthode de Daniel tout comme celle de Lenth repose sur l’hypothèse qui
stipule que 20% seulement des facteurs expliquent 80% de la variation de la réponse. En cas
de non respect de cette hypothèse il sera plus hasardeux de différencier les facteurs influents
des non influents.
Contrairement à ce que laisse penser son nom, l’analyse de variance n’étudie pas les
différences de variances entre populations mais les différences de moyenne. Cette méthode
doit son nom au fait qu’elle utilise des mesures de variance afin de juger du caractère
significatif ou non, c'est-à-dire de la significativité des différences de moyenne mesurées entre
populations.
75
Chapitre II : Les plans d’expériences, étude de criblage
par rapport à la deuxième [Droesbeke, 97]. Les composantes factorielle et résiduelle seront
mathématiquement représentées par des carrés moyens, c'est-à-dire des variances.
La variance des facteurs s’obtient en calculant la somme des carrés des écarts (SCE) que
l’on divise par le nombre de degré de liberté (ddl) associés au facteur f considéré.
ddl f = Nn f − 1 (2.20)
( ) = γ ∑ (y − y )
Nn f Nn f
2
SCE f = γ f ∑ E f f i
(2.21)
f =i
i =1 i =1
Avec :
1 N
y=
N
∑y
i =1
i la moyenne des réponses,
N
γf = le nombre d’expériences pour lesquelles le facteur f prend un de ses Nn f
Nn f
niveaux,
yi la moyenne des réponses observées pour les expériences où le facteur f prend son
i ème niveau.
Le nombre de ddl associés à une interaction de facteur correspond au produit des ddl des
facteurs mis en jeu dans cette interaction, soit :
Pour les interactions mettant en jeu 2 facteurs f et g, la somme des carrés des écarts vaut :
76
Chapitre II : Les plans d’expériences, étude de criblage
Nni Nn j
(
SCE fg = δ fg ∑∑ yij − yi − y j + y )
2
(2.23)
i =1 j =1
Avec :
N
δ fg = le nombre d’expériences pour lesquelles le facteur f prend un de ces Nnf
Nn f .Nn g
niveaux et lorsque le facteur g adopte un de ces Nng niveaux,
yij la moyenne des réponses observées pour les expériences où le facteur f prend son
ième niveau et où le facteur g prend son jème niveau,
La généralisation aux interactions d’ordre supérieur se fait de la même façon. Par exemple
pour une interaction d’ordre 3 mettant en jeu les facteurs f, g et l, on aura :
Nni Nn j Nnk
(
SCE fgl = φ fgl ∑ ∑ ∑ y ijl + y i + y j + y l − y ij − y il − y jl − y )
2
(2.24)
i =1 j =1 k =1
SCE x
CM x = (2.25)
ddl x
( ) (
yij − y = yi − y + y j − y + yij − yi − y j + y ) ( ) (2.26)
On réalise alors une somme sur i et j, des deux cotés de l’égalité mis préalablement au
carré. La somme se fait ainsi sur les niveaux de tous les facteurs. On aboutit alors à l’équation
de variance, démontrant l’additivité des sommes des carrés des écarts (membres de droite) :
Nni Nn j
(
SCEt = ∑∑ yij − y = ∑ SCE x )2
(2.27)
i =1 j =1
Avec :
SCEt la somme totale des carrés des écarts ;
SCEx la somme factorielle des carrés (x désignant un facteur ou une interaction).
Enfin notons la relation donnant entre autre la valeur de ddlt (le nombre total de degrés de
liberté) :
ddlt = ∑ ddl
facteur
i + ∑ ddl
int eraction
ij (2.28)
77
Chapitre II : Les plans d’expériences, étude de criblage
Lorsqu’il existe une erreur expérimentale non nulle, l’équation de variance fait apparaître
un nouveau terme appelé communément variance résiduelle (SCEr) :
C’est à cette variance résiduelle SCEr que les SCEx sont comparés afin de déterminer les
caractères significatifs des facteurs et des interactions x. La variance résiduelle est un point de
comparaison. Elle doit traduire une variation des valeurs de réponse, dont l’amplitude est
arbitrairement considérée comme faible. Tout facteur influent doit donc posséder des
caractéristiques fortement différenciées de celles de cette composante.
Dans le cas des expérimentations réelles, la variation résiduelle est prise comme étant un
estimateur de la variance expérimentale, qui traduit la variabilité inhérente des résultats sur
plusieurs réalisations d’expériences identiques. L’utilisation d’expériences virtuelles exclut
donc cette possibilité [Vivier, 02].
La variance résiduelle est le plus souvent calculée comme étant la somme des carrés des
résidus, i.e. des écart entre les réponses mesurées (y) et les réponses correspondantes,
calculées grâce au modèle (ymod) [Pillet, 94] [Schimmerling, 98].
N 2
Le nombre de degrés de liberté ddlr associé vaut N-p. On comprend en effet que les
résidus n’existent que grâce aux N-p (>0) expériences réalisées en plus des p simulations
absolument nécessaires au calcul des p coefficients du modèle.
2
SCEr 1 N
CM r =
ddlr
= ∑
N − p i =1
( y (i x ) − y mod (i x )) (2.31)
Calculer le SCEr de cette façon permet, en définitive, de tester le caractère significatif des
facteurs et des interactions et dans le même temps d’évaluer la qualité du modèle utilisé (ymod)
[Vivier, 02].
Cette solution n’est pas applicable dans le cas de plans saturés. Dans ces cas précis,
certains auteurs ([Goupy, 96], [Droesbeke, 97], [Sapora, 90]) proposent la construction de la
variance résiduelle à partir des interactions dont les variances (carrés moyens) sont les plus
faibles ; leurs valeurs devant être du même ordre de grandeur.
78
Chapitre II : Les plans d’expériences, étude de criblage
prend en compte le nombre de degrés de liberté de chacune d’elles. Les variances concernées
doivent être celles de variables aléatoires suivant une distribution normale et à variance
constante.
Pour effectuer ce test on calcule le ratio suivant pour le terme du modèle considéré
(facteur ou interaction) :
CM x
Fobs = (2.32)
CM r
On compare ensuite cette valeur à une valeur critique Fcrit extraite de la table de la loi F.
Si la valeur de Fobs est inférieure à celle de Fcrit, on considère la variance associée au facteur
ou à l’interaction (CMx) comme égale à la variance résiduelle (CMr). On définie ainsi
l’hypothèse H0, selon laquelle l’affirmation précédente est vraie. Si c’est le cas, Fobs est alors
une valeur observée d’une variable F de Fisher-Snedecor, à ddlf et ddlr degrés de liberté.
Il est courant de résumer les calculs réalisés dans un tableau d’analyse de variance dont la
structure est donnée dans la table 12
Somme des
Source de
ddl carrés des Carrés moyens Fobs Fcrit Conclusion
variation
écarts
Facteur 1 ddl1 SCE1 CM1=SCE1/ddl1 CM1/CMr
… … … … … Source
Facteur k ddlk SCEk CMk=SCEk/ddlk CMk/CMr F1-α/2(ddlx ;ddlr) influente ?
Interaction ddlfg SCEfg Fobs>Fcrit ?
CMfg=SCEfg/ddlfg CMfg/CMr
fg… … …
Variation
ddlr SCEr CMr=SCEr/ddlr
résiduelle
Totaux ddlt SCEt
Ce tableau d’analyse de variance est fréquemment complété d’une colonne indiquant pour
chaque élément du modèle (facteurs et interactions) la probabilité P de rejeter à tord
l’hypothèse H0 qui qualifie de non significatif l’élément qui lui est associé.
Cette opération est très importante dans une étude de screening car en diminuant le
nombre de dimensions du problème, elle autorise l’utilisation de démarches coûteuses et
généralement dépendantes du nombre de facteurs : il s’agit principalement d’applications de
la méthode des surfaces de réponses et des optimisations par plans d’expériences [Vivier, 02].
79
Chapitre II : Les plans d’expériences, étude de criblage
2 SCM SCE
R = =1− (3.38)
SCT SCT
SCE
2 N−p
Rajusté = 1 − SCT (3.39)
N −1
L’effet moyen d’un facteur est définie comme étant la variation de la réponse observée ou
modélisée lorsque le facteur change de modalité [Droesbeke, 97]. Le tracé des effets moyens
des facteurs, comme présenté sur la figure 3, consiste à reporter les valeurs calculées à la
dernière ligne de la grille de dépouillement en regard de chacune des modalités des facteurs.
Pour chacun des facteurs, on relie par un trait les moyennes des résultats d’essais
correspondant à chacune des modalités.
80
Chapitre II : Les plans d’expériences, étude de criblage
L’effet moyen d’un facteur est défini à partir de la différence observée ou modélisée d’une
variable de réponse, lorsque ce facteur subit un changement de modalité. La grille de
dépouillement et le tracé des effets moyens facilitent l’estimation et la visualisation des effets
moyens. Le tracé des effets moyens facilite la restitution de l’information. C’est un atout
incontestable de la démarche méthodologique associée aux plans d’expériences.
Dans un système complexe, les paramètres sont souvent couplés. La connaissance des
effets de chaque paramètre n'est pas suffisante pour pouvoir estimer une réponse. Il faut donc
une information sur l’influence de la variation de chacun des facteurs sur l’effet des autres
facteurs. Cette notion, appelée interaction, est représentée graphiquement par la figure 4 :
81
Chapitre II : Les plans d’expériences, étude de criblage
CTR j =
a j
k (2.34)
∑a
2
j
j =1
Avec :
CTRj la contribution du facteur j à la variation de la réponse.
aj le coefficient du modèle associé au facteur j,
k le nombre de facteurs de l’étude.
Les contributions des facteurs sont alors ordonnées par ordre croissant puis représentées
sous forme de diagramme en bâtons associé à une représentation cumulative tel que
représentée figure 5 :
82
Chapitre II : Les plans d’expériences, étude de criblage
100 100
s
80 80
Contribution d'un facteur
Contribution cumulée
60 60
40 40
20 20
0 0
B D E F A C
Facteur
Dans cet exemple, nous voyons que l’effet des facteurs B, D et E est important et
contribue à eux trois à expliquer près de 90% des variations de la réponse. En revanche, les
facteurs A et C ne semblent pas significatifs. Il est alors nécessaire de vérifier que ces facteurs
ne sont pas impliqués dans une interaction, si cela n’est pas le cas, ces facteurs peuvent être
supprimés de l’étude.
Le diagramme des coefficients est obtenu directement à partir des résultats de l’analyse
mathématique des résultats d’essais. Les estimations des coefficients des monômes du
premier degré traduisent les effets moyens des facteurs. Les estimations des coefficients des
monômes du second degré présents dans le modèle sont représentatives de la nature des
interactions.
83
Chapitre II : Les plans d’expériences, étude de criblage
20
15
s
10
Estimation des coefficients
5
0
A B C AB AC BC
-5
-10
-15
-20
-25
-30
Mônomes de degré 1 et 2
L’axe horizontal précise les différents termes du modèle polynomial en distinguant les
monômes de degré 1 et les monômes de degré 2, respectivement représentatifs des effets
moyens et de la nature des interactions. L’axe vertical indique la valeur des estimations des
coefficients. On distingue alors immédiatement les effets moyens et les interactions
importants.
Dans cet exemple on remarque que les facteurs A et B semblent avoir un effet important,
en ce qui concerne les interactions, on peut suggérer que les interactions A*B et A*C sont
importantes.
Une validation expérimentale des hypothèses doit toujours venir compléter et enrichir une
analyse mathématique et statistique du modèle.
84
Chapitre II : Les plans d’expériences, étude de criblage
On utilise pour cette étude des modules IGBT du fabricant allemand Eupec fréquemment
utilisés dans les onduleurs de tractions fabriqués par Alstom. La figure 7 présente un IGBT
utilisé pour cette étude :
Ces modules sont de technologie NPT (Non Punch Through) de calibre 3,3 kV et dont le
courant nominale est de 1200 A. On retrouve ces modules dans les onduleurs des RER, loco
Fret, et TGV première génération à IGBT.
Comme nous l’avons précisé dans le premier chapitre, les réponses observées dans ce
travail sont :
Ces performances sont observées lors du deuxième blocage d’un test double impulsion,
test couramment utilisé par les fabricants et les utilisateurs d’IGBT. Pour effectuer ce type de
test, le signal envoyé par la commande est programmé pour avoir une forme telle que celle
présenté sur la figure 8 :
85
Chapitre II : Les plans d’expériences, étude de criblage
L’évolution de la tension et du courant aux bornes du module IGBT pendant ce test est
schématisée par la figure 9 :
Initialement, le signal envoyé par la commande à la grille du module IGBT est de -12V.
Pendant le premier pulse, d’une durée t1, la commande envoie un signal de +15 V, l’IGBT se
ferme (Amorçage 1) et le courant se charge dans une inductance Lload. Au bout du temps t1, le
signal de commande repasse au niveau bas (-12 V), l’IGBT est bloqué, le courant devient nul
et la tension passe de 0 V au niveau de tension délivrée par l’alimentation, c’est le premier
blocage (Blocage 1). Lorsque le signal de commande repasse au niveau haut (+15 V) après un
temps t2 resté à -12 V, on assiste au deuxième amorçage (Amorçage 2), la tension chute et le
courant retrouve quasiment la valeur qu’il avait au moment du premier blocage. Ce courant va
alors continuer à charger l’inductance pendant un temps t3, jusqu’au deuxième blocage
(Blocage 2). C’est lors de ce deuxième blocage que les réponses sont observées. Le courant
est alors au niveau souhaité pour l’observation des performances. Ce courant repasse alors à
0 A alors que la tension jusqu’ici nulle atteint la valeur délivrée par l’alimentation à une
vitesse dV/dt et en passant par une surtension ∆V. Les temps t1, t2 et t3 dépendent du couple
tension-courant désiré.
La figure 10 montre le blocage d’un module IGBT sur lequel sont précisées les
performances observées, surtension et vitesse de commutation :
86
Chapitre II : Les plans d’expériences, étude de criblage
La surtension est considérée ici comme le pic de tension maximal atteint lors de la
commutation et la vitesse de commutation se mesure entre 60% et 100% de la tension
commutée. Cette mesure du dV/dt est définie par le fournisseur et tend à maximiser la vitesse
de commutation.
87
Chapitre II : Les plans d’expériences, étude de criblage
Le choix a été fait, dans un premier temps, de dissocier ces 10 facteurs en deux groupes.
Un premier groupe concerne les facteurs liés aux conditions de fonctionnement et au module
IGBT (ces caractéristiques intrinsèques). Un second groupe de facteur se compose des
paramètres liés aux paramètres de conception.
Une étude de criblage est effectuée indépendamment sur ces deux groupes de facteurs.
Ceci nous permet d’éviter les contraintes relationnelles présentes entre certains facteurs de ces
deux groupes comme par exemple entre la tension, le courant et l’inductance Lcom. Ces
contraintes seront définies dans le chapitre 3 lors de la définition du domaine expérimental.
En ce qui concerne les facteurs liés aux conditions de fonctionnement (tension et courant
commutés, température de fonctionnement), l’avis des experts, a priori, est qu’ils sont tous les
trois influents sur les réponses mais ne savent pas en quelle mesure ni s’il existe des
interactions entre certains de ces facteurs. De plus, la définition donnée à la surtension dans
notre étude tend à supposer un effet prépondérant de la tension sur cette dernière. En ce qui
concerne les caractéristiques statiques intrinsèques à chacun des modules IGBT, il est
intéressant de connaître leurs effets, s’ils existent, sur les performances dynamiques des
modules. Un premier plan de criblage concernera donc ces 6 facteurs (3 conditions de
fonctionnement et 3 caractéristiques statiques).
En ce qui concerne les facteurs liés aux paramètres de conception, l’objectif est
classiquement d’identifier les facteurs et les interactions influentes sur les réponses. Un
second plan de criblage concernera ces quatre facteurs.
Dans un premier temps l’étude de criblage portant sur les facteurs liés aux conditions de
fonctionnement et les caractéristiques statiques sera présentée. Ensuite les étapes seront
redéfinies à partir de ce point en s’intéressant au plan de criblage utilisant les facteurs liés aux
paramètres de conception.
Cette première étude de criblage cherche mesurer les effets des facteurs et des interactions
sur la surtension et la vitesse de commutation en considérant les 6 facteurs suivants :
88
Chapitre II : Les plans d’expériences, étude de criblage
S’il est relativement aisé de faire varier les niveaux de U, I ou T°C, il est plus compliqué
de faire varier les caractéristiques statiques des modules testés. En effet, ces caractéristiques
étant intrinsèques à chacun des modules, le seul moyen de les faire varier est d’utiliser
différents modules.
Le choix des modules fera suite à une analyse succincte des distributions statistiques des
caractéristiques statiques Vcesat, Vf et Ices intrinsèques à chacun des modules.
L’objectif de cette étude est d’observer les distributions statistiques des caractéristiques
statiques intrinsèques aux modules IGBT afin de choisir les modules sur lesquelles réaliser le
premier plan de criblage. Il est d’autant plus facile de mesurer l’effet d’un paramètre lorsque
les modalités qu’il prend sont distinctes. Nous nous intéresserons donc plus particulièrement
aux bornes de ces distributions et aux modules possédant ces caractéristiques extrêmes.
Pour cela, nous disposons des mesures du fabricant réalisées à 25°C et 125°C sur un
échantillon de 223 modules. Les étendues des distributions statistiques sont résumées dans la
table 13 :
A 25°C A 125°C
Vcesat (V) Vf (V) Ices (mA) Vcesat (V) Vf (V) Ices (mA)
Minimum 3,484 2,485 0,003 4,285 2,569 4
Maximum 3,661 3,091 0,296 4,579 2,993 49,34
Table 13 Bornes des distributions des caractéristiques statiques de 223 modules IGBT
Ne disposant pas de ces 223 modules mais de 30 seulement, nous avons observé ces
mêmes caractéristiques sur notre échantillon ce qui donne les résultats fournis dans la table
14 :
A 25°C A 125°C
Vcesat (V) Vf (V) Ices (mA) Vcesat (V) Vf (V) Ices (mA)
Minimum 3,484 2,779 0,005 4,285 2,778 4
Maximum 3,661 3,091 0,081 4,579 2,993 34
Table 14 Bornes des distributions des caractéristiques statiques des 30 modules IGBT
Nous constatons donc que, malgré un léger manque au niveau des faibles valeurs de Vf et
des valeurs élevées d’Ices, notre échantillon représente convenablement la population de ces
modules IGBT du point de vue des bornes des distributions. Nous pourrons donc choisir les
modules à tester parmi ces 30 packs.
89
Chapitre II : Les plans d’expériences, étude de criblage
Afin de mesurer l’effet des caractéristiques statiques sur les réponses observées dans notre
étude, il est nécessaire de disposer de modules possédant des caractéristiques statiques
proches de ces bornes. Mathématiquement, cela nécessite un lot de 6 modules à tester (2
modules pour chacune des trois caractéristiques). Cependant, la présence de corrélations entre
certaines de ces caractéristiques pourrait limiter ce nombre.
Nous nous sommes donc intéressés à la présence possible de corrélations entre les
caractéristiques statiques des modules IGBT. La seule corrélation ayant un sens physique est
celle pouvant être au niveau de l’IGBT entre la chute de tension Vcesat et le courant de fuite
Ices, les autres corrélations n’ayant pas de sens physique (par exemple, une corrélation entre
les chute de tension aux bornes de IGBT et des diode ne peut pas être réelle).
En utilisant le r de Pearson défini ci-dessous, nous avons observé les corrélations aux deux
températures fournies par le fournisseur.
s xy
rxy = (2.36)
sx s y
Où :
Sxy désigne la covariance entre les variables x et y,
Sx et Sy désignent les écart-types des variables x et y.
Ces tests fournis en annexe 2 nous ont permis d’identifier une corrélation à 125°C entre la
chute de tension (Vcesat) et le courant de fuite (Ices) aux bornes de l’IGBT.
Cette corrélation peut s’expliquer grâce à la physique du composant. En effet ces deux
caractéristiques dépendent d’un même élément à savoir la couche N- de la puce silicium. De
plus cette dépendance est accentuée à haute température c’est pourquoi cette observation se
fait à 125°C et non à 25°C.
Six modules IGBT ont donc été sélectionnés pour leurs caractéristiques statiques à 25°C
et quatre modules pour leurs caractéristiques à 125°C. Ces paramètres intrinsèques à chacun
de ces modules sont donnés dans les tables 15 et 16. Les caractéristiques déterminantes pour
le choix de ces modules sont soulignées dans les tables, il s’agit des bornes des distributions
statistiques de ces paramètres.
90
Chapitre II : Les plans d’expériences, étude de criblage
Nous verrons par la suite que les niveaux de températures utilisés dans ce plan sont -40°C,
25°C et 125°C. Si les valeurs des caractéristiques statiques sont connues à 25°C et 125°C,
elles ne le sont pas à -40°C et leur mesure nous est impossible avec les moyens dont nous
disposons.
4,600
4,550
s
4,500
Vcesat 125°C (V)
4,450
4,400
4,350
4,300
4,250
3,460 3,480 3,500 3,520 3,540 3,560 3,580 3,600 3,620 3,640 3,660 3,680
Vcesat 25°C (V)
3,050
3,000
2,950
2,900
2,850
Vf 125°C s
2,800
2,750
2,700
2,650
2,600
2,550
2,500
2,400 2,500 2,600 2,700 2,800 2,900 3,000 3,100 3,200
Vf 25°C
91
Chapitre II : Les plans d’expériences, étude de criblage
60
50
40
Ices 125°C s
30
20
10
0
0,000 0,050 0,100 0,150 0,200 0,250 0,300 0,350
Ices 25°C
Aux vues des résultats fournis en figure 12 et 13, il semble que la température ait un effet
homogène sur la chute de tension aux bornes de l’IGBT (Vcesat) et de la diode (Vf). En
revanche, en ce qui concerne le courant de fuite, la température a une influence différente
selon les modules comme nous le montre la figure 14.
De ce constat, nous pouvons donc émettre l’hypothèse qu’à -40°C, les modules possédant
des valeurs limites de Vcesat ou Vf sont les mêmes que ceux en possédant à 25°C. Les
modules IGBT testés à -40°C sont donc les mêmes que ceux utilisés pour les tests à 25°C
possédant des valeurs extrêmes de Vcesat et Vf. En revanche, aucune hypothèse n’est faite
concernant les module possédant des valeur extrême de courant de fuite Ices à -40°C.
Nous avons donc identifié un lot de 4 modules pour les essais à -40°C, un lot de 6
modules pour les essais à 25°C et un lot de 4 modules pour les tests à 125°C.
Facteurs Modalités
Tension U 500V ; 2400V
Courant I 600A ; 1200A ; 2400A
Température T°C -40°C ; 25°C ; 125°C
IGBT 4 à 6 modules suivant la température
92
Chapitre II : Les plans d’expériences, étude de criblage
Nous avons vu dans la partie théorique de ce chapitre que les modèles associés aux études
de criblage sont des modèles additifs. Nous souhaitons affiner la connaissance des effets
moyens des facteurs pris en considération par le calcul des interactions présentes entre ces
facteurs et éviter ainsi le phénomène d’aliase. En ne considérant pas les interactions dans les
modèles, les effets calculés pour chaque facteur seraient en réalité la combinaison de ce
dernier et de certaines interactions. Par exemple, en considérant un modèle sans interaction,
l’effet calculé pour la tension regrouperait en réalité l’effet de la tension et l’effet de
l’interaction entre le courant et la température. On dit alors que la tension est aliasée à
l’interaction courant-température.
Dans lesquels :
Y représente la réponse observée (surtension ou vitesse de commutation),
Wi est le poids du facteur i,
Wij est le poids de l’interaction entre les facteurs i et j.
On remarque dans ces modèles l’absence des caractéristiques statiques intrinsèques aux
modules. En effet, l’observation de l’effet de ces paramètres et des interactions les mettant en
jeu devra se faire graphiquement dans un premier temps. Pour cela, les résultats en chaque
point seront observés en fonction des valeurs des caractéristiques Vcesat, Vf et Ices des
modules utilisés. Si une tendance est observée, une étude plus approfondie sera effectuée afin
d’estimer avec précision l’effet de la/les caractéristique(s) statique(s) présentant une influence
sur la/les réponse(s).
Les facteurs courant (I) et température (T°C) possèdent chacun trois modalités alors que la
tension n’en possède que deux. Le nombre total d’inconnues du modèle est donc :
93
Chapitre II : Les plans d’expériences, étude de criblage
k k −1 k
p = 1 + ∑ ( mi − 1) + ∑ ∑ (mi − 1)( m j − 1) = 1 + 1 + 2 + 2 + 2 + 2 + 4 = 14 (2.38)
i =1 i =1 j =i +1
Essai U I T°C
1 500 600 -40
2 2400 600 -40
3 500 1200 -40
4 2400 1200 -40
5 500 2400 -40
6 2400 2400 -40
7 500 600 25
8 2400 600 25
9 500 1200 25
10 2400 1200 25
11 500 2400 25
12 2400 2400 25
13 500 600 125
14 2400 600 125
15 500 1200 125
16 2400 1200 125
17 500 2400 125
18 2400 2400 125
Le codage de cette matrice se fait grâce à la relation de codage donnée en 3.3.2 et donne la
matrice du modèle X de la table 19 :
94
Chapitre II : Les plans d’expériences, étude de criblage
4.3.5. Expérimentation
La température pour les essais 1 à 6 est fixée à -40°C, ces essais sont réalisés sur 4
modules IGBT. Pour obtenir cette température sans recourir à une étuve, non disponible lors
de cette étude de criblage, nous avons utilisé une centrale à air. Les modules IGBT sont alors
fixés sur une semelle usinée sur laquelle est branché la centrale à air et qui permet un
refroidissement des modules par une lame d’air qui vient lécher la semelle AlSiC des modules
IGBT testés. La semelle utilisée est présentée en figure 16 :
95
Chapitre II : Les plans d’expériences, étude de criblage
Les essais à 25°C sont réalisés sur 6 modules IGBT et les essais à 125°C sur un lot de 4
modules IGBT. On utilise une plaque chauffante pour les essais à 125°C.
Pour les essais réalisés à -40°C et 125°C, un temps de mise en température de 2h a été
respecté. Le dispositif expérimental est présenté en figure 17 :
Pour palier à ce phénomène et avoir une idée des dispersions des résultats en chacun des
points d’essai, chacune des expériences du plan complet à été répétée trois fois pour chaque
module IGBT. L’écart observé entre les valeurs maximale et minimale obtenues lors de ces
trois répétitions est associé au dispositif de mesure.
L’analyse de ces résultats va permettre de calculer les coefficients des modèles recherchés
et surtout d’identifier les facteurs ne présentant pas d’influence significative sur les réponses
mesurées et qui, par conséquent, pourront être supprimés de notre étude.
96
Chapitre II : Les plans d’expériences, étude de criblage
Essai U I T°C Vcesat faible Vcesat fort Vf faible Vf fort Ices faible Ices fort
1 500 600 -40 765 773 770 758
2 2400 600 -40 2754 2753 2762 2768
3 500 1200 -40 901 893 896 893
4 2400 1200 -40 2922 2927 2921 2907
5 500 2400 -40 1007 1014 1018 1018
6 2400 2400 -40 3087 3063 3053 3061
7 500 600 25 770 766 769 755 766 768
8 2400 600 25 2776 2781 2780 2780 2781 2776
9 500 1200 25 880 885 888 883 889 883
10 2400 1200 25 2959 2967 2962 2948 2949 2943
11 500 2400 25 1013 1008 1026 1016 1019 1025
12 2400 2400 25 3107 3098 3100 3093 3109 3082
13 500 600 125 716 723 714 716 716 723
14 2400 600 125 2827 2802 2808 2808 2827 2802
15 500 1200 125 823 834 819 825 823 834
16 2400 1200 125 3000 3033 3001 3020 3000 3033
17 500 2400 125 954 944 933 942 954 944
18 2400 2400 125 3160 3147 3135 3141 3160 3147
Essai U I T°C Vcesat faible Vcesat fort Vf faible Vf fort Ices faible Ices fort
1 500 600 -40 1,387 1,450 1,409 1,412
2 2400 600 -40 2,954 2,998 2,961 3,020
3 500 1200 -40 1,389 1,388 1,430 1,473
4 2400 1200 -40 2,994 3,070 3,041 3,083
5 500 2400 -40 1,340 1,378 1,373 1,383
6 2400 2400 -40 3,185 3,267 3,259 3,280
7 500 600 25 1,321 1,318 1,367 1,279 1,339 1,334
8 2400 600 25 2,853 2,911 2,902 2,904 2,949 2,924
9 500 1200 25 1,294 1,298 1,316 1,343 1,367 1,286
10 2400 1200 25 2,941 2,997 2,962 2,993 3,009 3,029
11 500 2400 25 1,215 1,269 1,269 1,313 1,295 1,320
12 2400 2400 25 3,080 3,112 3,105 3,116 3,144 3,085
13 500 600 125 1,092 1,221 1,125 1,144 1,092 1,221
14 2400 600 125 2,728 2,732 2,750 2,736 2,728 2,732
15 500 1200 125 1,114 1,225 1,189 1,195 1,114 1,225
16 2400 1200 125 2,816 2,817 2,830 2,796 2,816 2,817
17 500 2400 125 1,190 1,217 1,174 1,180 1,190 1,217
18 2400 2400 125 2,837 2,859 2,796 2,871 2,837 2,859
On remarque dans ces tableaux que les résultats obtenus à 125°C pour les valeurs faibles
et fortes d’Ices sont les mêmes que celles obtenues pour les valeurs faibles et fortes de Vcesat.
En effet nous avons vu au paragraphe 4.3.1 qu’une corrélation a lieu entre ces deux
caractéristiques à 125°C. En réalité, seulement 4 modules ont été testés.
Il est alors possible pour chacun des essais d’observer les résultats en fonction de la valeur
des caractéristiques statiques des modules utilisés. Par exemple, les résultats de l’essai 10 en
fonction de la chute de tension aux bornes de la diode (Vf) donne le tableau 22 :
97
Chapitre II : Les plans d’expériences, étude de criblage
IGBT 1 2 3 4 5 6
Essai 10
Vf 2,779V 2,932V 2,989V 3,008V 3,077V 3,091V
Surtension
Tension 2400V 2962 2949 2943 2967 2959 2948
(V)
Courant 1200A
dV/dt
Température 25°C 2,962 3,009 3,029 2,941 2,997 2,993
(kV/µs)
L’essai 10, utilisé pour cet exemple est réalisé à 25°C, 6 modules IGBT sont donc testés et
chacun de ces modules possède sa propre valeur de chute de tension aux bornes de la diode
Vf. Nous pouvons donc observer graphiquement sur la figure 18 l’effet de la chute de tension
aux bornes de la diode sur la surtension et la vitesse de commutation.
2970 3,040
3,030
2965 3,020
3,010
2960
Surtension s
3,000
dV/dt s
2,990 Surtension
2955
2,980 dV/dt
2,970
2950
2,960
2945 2,950
2,940
2940 2,930
2,750 2,800 2,850 2,900 2,950 3,000 3,050 3,100 3,150
Vf
Ce constat étant général à l’ensemble des points et sur les trois caractéristiques statiques,
comme peut le voir le lecteur en se référant à l’annexe 3, nous avons conclu à l’absence
d’effet des caractéristiques statiques sur la surtension ou la vitesse de commutation. Ces 3
facteurs peuvent d’ores et déjà être supprimé de l’étude.
La suite de l’analyse sera donc réalisée sur les résultats obtenus pour les 4 à 6 répétitions
suivant la température (4 répétitions à -40°C et 125°C, 6 répétitions à 25°C).
98
Chapitre II : Les plans d’expériences, étude de criblage
La méthode des moindres carrés permet d’obtenir les coefficients des modèles fournis
dans la table 23 :
Surtension dV/dt
Cste 1909,8305 2,1294
WU 1039,7746 0,835
WI1 5,7322 -0,0011
WI2 137,6975 0,0439
WT1 6,7672 0,0272
WT2 -0,4727 -0,1444
WU*I1 7,173 -0,0133
WU*I2 15,9173 0,0583
WU*T1 -12,5087 0,0117
WU*T2 40,9818 -0,0233
WI1*T1 -2,6405 -0,0006
WI1*T2 4,3792 0,0111
WI2*T1 3,629 -0,0056
WI2*T2 -2,5655 -0,0139
Une analyse de variance effectuée sur les résultats d’essais permet d’identifier les
éléments statistiquement significatifs dans les modèles. L’effet des caractéristiques
intrinsèques aux modules IGBT n’étant pas significatif sur les réponses observées, nous
considérons pour l’analyse des modèles 4 répétitions pour les essais réalisés à -40°C et 125°C
et 6 répétitions pour ceux réalisés à 25°C. Ces répétitions étant associées aux différents
modules utilisés aux différentes températures. Dans ces conditions nous obtenons pour la
surtension, l’analyse de variance présentée dans la table 24 :
99
Chapitre II : Les plans d’expériences, étude de criblage
Les éléments influents dans le modèle de surtension sont donc la tension U, le courant I, la
température T°C, l’interaction entre U et I ainsi que celle entre U et T°C.
Le modèle additif faisant intervenir le poids des facteurs et des interactions influentes
s’écrit donc :
On retrouve dans ce modèle les éléments jugés influents sur les variations de la surtension
ainsi que leur coefficient associé, calculés par la méthode des moindres carrés au paragraphe
4.3.7. Les valeurs des éléments influents utilisés dans ce modèle (U, I1,…, U*T2) proviennent
de la matrice du modèle, ce sont donc des valeurs codées et centrées réduites.
2
Rajusté = 99,918 % (2.40)
2
Rajusté = 99,79 % (2.42)
Les valeurs de R²ajusté sont proche de 100% et traduise donc la bonne qualité descriptive
des modèles.
100
Chapitre II : Les plans d’expériences, étude de criblage
Remarque : Pour cette étude nous nous contenterons des résultats de l’analyse statistique par
analyse de variance. En effet, la quasi-totalité des éléments des modèles étant influents,
l’hypothèse sur laquelle repose l’analyse par la droite de Daniel ou la méthode de Lenth qui
stipule que 80% des variations de la réponse est attribué à 20% des facteurs n’est pas
respectée.
Les effets des facteurs U, I et T°C sur la surtension peuvent être représentés de manière
graphique comme sur la figure 19 :
3500
3000
2500
2000
Surtension s
1500
1000
500
0
U=500V U=2400V I=600A I=1200A I=2400A T°C=-40°C T°C=25°C T°C=125°C
Rappelons que les pointillés entre les points de mesure ne supposent en aucun cas une
évolution linéaire de la réponse entre les différentes modalités mais servent uniquement à
faciliter la lecture du graphique.
La tension est le facteur ayant le plus d’influence sur la surtension comme le montre la
figure 19. Ce phénomène se comprend aisément puisque la surtension observée dans cette
étude est définie comme la tension maximale atteinte lors de la commutation. Il est donc
normal que la valeur de la tension commutée ait sur elle un effet prépondérant. La
température semble ne pas avoir d’influence sur cette visualisation graphique des effets des
facteurs sur la surtension, cependant, l’analyse de variance effectuée au paragraphe 4.3.8 a
permis de juger ce facteur comme influent. L’analyse graphique des résultats ne semble donc
pas être la plus adéquate pour juger de l’influence d’un facteur.
Les effets des facteurs U, I et T°C sur la vitesse de commutation sont représentés de
manière graphique sur la figure 20 :
101
Chapitre II : Les plans d’expériences, étude de criblage
3,5
2,5
dV/dt .
1,5
0,5
0
U=500V U=2400V I=600A I=1200V I=2400A T°C=-40°C T°C=25°C T°C=125°C
100 100
s
Contribution de chaque facteur
80 80
Contribution cumulée
60 60
40 40
20 20
0 0
U T°C U*I I U*I*T U*T I*T
Facteurs
D’après l’analyse de variance, l’interaction entre U et T°C est celle dont l’effet est le plus
important sur la surtension car elle possède la valeur de Fobs la plus élevée. Graphiquement
elle se représente par la figure 22 :
102
Chapitre II : Les plans d’expériences, étude de criblage
3500
3000
2500
Surtension s
2000
U=500V
U=2400V
1500
1000
500
0
T°C=-40°C T°C=25°C T°C=125°C
L’interaction est faible mais son poids a cependant été jugé significatif par l’analyse de
variance.
L’interaction présente entre U et I est celle jugée la plus influente sur la vitesse de
commutation, sa représentation graphique est donnée en figure 23 :
2,8
2,6
2,4
dV/dt s
2,2 U=500V
U=2400V
2
1,8
1,6
1,4
1,2
I=600A I=1200A I=2400A
L’analyse graphique permet d’observer les tendances sur les réponses observées.
Cependant il est dangereux de conclure à la significativité des éléments du modèle à partir de
ces tendances. En effet, comme c’est le cas ici, certains facteurs ou interactions semblent ne
pas avoir d’effet sur la réponse d’un point de vu graphique mais sont jugés influents par une
analyse de variance.
103
Chapitre II : Les plans d’expériences, étude de criblage
Dans cette étude nous avons pris en considération 6 facteurs, soit dans la construction
d’un plan factoriel complet soit dans la répétition de ce plan sur plusieurs produits. Ceci nous
a permis d’identifier les facteurs influents et surtout d’éliminer les facteurs ne présentant pas
un effet statistiquement significatif sur les réponses observées.
La prise en compte des interactions au sein des modèles a permis d’éviter le phénomène
d’aliase. Ce phénomène fausse le jugement apporté par l’analyse statistique sur le caractère
significatif ou non d’un facteur et peut amener à supprimer un facteur influent sur les
variations de la réponse.
Les facteurs tension, courant et température ont donc été jugés influents et seront donc
présents dans la construction du plan d’expériences visant à modéliser la surtension et la
vitesse de commutation au chapitre suivant. En revanche, les caractéristiques statiques,
intrinsèques à chaque module IGBT ne présentent pas un effet significatif sur les
performances dynamiques observées dans cette étude.
Afin de compléter la liste des facteurs influents présents dans la mise en place du plan
d’expériences pour l’étude de surface de réponse, qui sera présenté dans le chapitre suivant,
une étude de criblage portant sur les 4 facteurs relatifs aux paramètres de conception a été
réalisée et est exposée dans le paragraphe 4.4.
Ce deuxième plan de criblage cherche à identifier les éléments influents parmi 4 facteurs.
Ces 4 facteurs, liés aux paramètres de conception de l’onduleur, sont :
La figure 24 présente le montage utilisé sur lequel nous retrouvons les éléments associés
aux 4 facteurs pris en compte dans ce plan de criblage.
104
Chapitre II : Les plans d’expériences, étude de criblage
La résistance de grille Rgoff est intégrée à l’allumeur. Différents allumeurs possédant des
résistances Rgoff de différentes valeurs ont été utilisés dans cette étude.
105
Chapitre II : Les plans d’expériences, étude de criblage
Le temps ton est obtenu par réglage du générateur basse fréquence (GBF) utilisé pour
généré les impulsions de commande.
Chacun des 4 facteurs utilisés pour cette étude de criblage est dotés de 2 modalités
correspondantes aux bornes minimales et maximales rencontrées en application. Ces niveaux
sont donnés dans la table 26 :
Mini Maxi
Lcom 60 nH 160 nH
Lge câble court (cc) câble long (cl)
Rgoff 3,7 Ω 6,8 Ω
ton 10 µs 100 µs
Chacun des 4 facteurs possédant 2 modalités, l’ensemble des 16 points candidats peut être
représenté par la figure 27 :
Tout comme lors de la précédente étude, le modèle recherché est un modèle additif faisant
intervenir les interactions afin d’éviter le phénomène d’aliase. Il se présente donc sous la
forme :
Y = cst + W Lcom + W Lge + W Rgoff + Wton + WLcom / Lge + WLcom / Rg off + W Lcom / ton + WLge / Rgoff +
(2.43)
W Lge / ton + WRg off / ton
Dans ce modèle :
Y représente la réponse observée (surtension ou vitesse de commutation),
Wi désigne le poids du facteur i,
Wij est le poids de l’interaction entre les facteurs i et j.
106
Chapitre II : Les plans d’expériences, étude de criblage
Ce modèle possède 11 inconnues à déterminer. Pour cela, nous avons utilisé une matrice
d’expériences de taille supérieure ou égale à 11 dont l’analyse des résultats permettra de
calculer la valeur de ces 11 inconnues.
Cst Lcom Lge Rgoff ton Lcom/Lge Lcom/Rgoff Lcom/ton Lge/Rgoff Lge/ton Rgoff/ton
1 -1 -1 -1 -1 1 1 1 1 1 1
1 1 -1 -1 -1 -1 -1 -1 1 1 1
1 -1 1 -1 -1 -1 1 1 -1 -1 1
1 1 1 -1 -1 1 -1 -1 -1 -1 1
1 -1 -1 1 -1 1 -1 1 -1 1 -1
1 1 -1 1 -1 -1 1 -1 -1 1 -1
1 -1 1 1 -1 -1 -1 1 1 -1 -1
1 1 1 1 -1 1 1 -1 1 -1 -1
1 -1 -1 -1 1 1 1 -1 1 -1 -1
1 1 -1 -1 1 -1 -1 1 1 -1 -1
1 -1 1 -1 1 -1 1 -1 -1 1 -1
1 1 1 -1 1 1 -1 1 -1 1 -1
1 -1 -1 1 1 1 -1 -1 -1 -1 1
1 1 -1 1 1 -1 1 1 -1 -1 1
1 -1 1 1 1 -1 -1 -1 1 1 1
1 1 1 1 1 1 1 1 1 1 1
4.4.4. Expérimentation
Le plan d’expériences choisi permet d’affiner l’estimation des effets moyens des 4
facteurs pris en compte en calculant les interactions présentes eux. En revanche, les
interactions entre ces facteurs liés et les facteurs associés aux conditions d’utilisation (tension,
courant, température) ne peuvent pas être calculer directement. Pour palier à ce problème, les
16 points de la matrice d’expériences ont été réalisés en 3 points de fonctionnement (tension-
courant). Si un facteur est jugé non influent aux trois points de fonctionnement, nous
vérifierons l’absence d’interaction avec la température avant de le supprimer. En effet, en
107
Chapitre II : Les plans d’expériences, étude de criblage
présence d’interaction, un facteur peut sembler ne pas avoir d’effet sur les réponses alors
qu’en réalité ce n’est vrai qu’à cette température.
Les réglages en tension et courant des trois points de fonctionnement auxquels les tests
ont été effectués sont fournis par la table 28 :
Tension Courant
a 500 V 600 A
b 1200 V 1000 A
c 2000 V 1500 A
Ces trois points de fonctionnement on été choisis de façon à éviter la casse du module
pendant l’essai.
Les résultats obtenus pour chacune des 2 réponses en chacun des 3 points de
fonctionnement sont résumés dans la table 29 :
Le point de fonctionnement joue un rôle déterminant dans le résultat des essais que ce soit
pour la surtension ou pour la vitesse de commutation. On remarque également l’importance
de l’effet de l’inductance Lcom sur la surtension et du couplage Rgoff/ton sur la vitesse de
commutation. Une analyse plus précise permet de confirmer ces premiers constats.
108
Chapitre II : Les plans d’expériences, étude de criblage
On obtient les coefficients associés à chacune des variables du modèle grâce à la table 30
utilisant l’exemple de la surtension au point de fonctionnement noté a :
La matrice fournie dans la table 30 reprend les 11 colonnes de la matrice du modèle (X) et
la colonne de résultats. Dans le cas, comme ici, où nous sommes en présence de facteurs ne
possédant que deux modalités, il est possible de calculer le coefficient associé à la variable de
la colonne j de la façon suivante :
Cj =
∑X Y
ij i
(2.44)
N
Avec :
Xij issu de la ième ligne de la jème colonne de la matrice du modèle X.
Yi la réponse mesurée lors de l’essai i,
N le nombre total d’essais de la matrice d’expériences.
En calculant les coefficients de chaque modèle, on obtient les résultats fournis par la table
31 :
109
Chapitre II : Les plans d’expériences, étude de criblage
Comme pressentie lors de l’analyse globale des résultats d’essais, nous pouvons observer,
dans la table 31, l’importance des coefficients attribués à l’inductance Lcom sur la surtension
et aux facteur Rgoff et ton sur la vitesse de commutation.
La pertinence des effets des facteurs va maintenant être jugée par le biais d’une analyse
statistique.
Le but de cette analyse est d’identifier les facteurs et interactions ayant une influence
statistiquement significative sur les réponses observées afin d’éliminer les autres. Dans le
paragraphe 3.10, consacré à ces méthodes d’analyses, 3 méthodes d’analyses sont décrites.
L’application de ces méthodes est présentée ici.
2,5
Fractile théorique semi-normal
2
Rgoff
1,5
ton
1 Rgoff/ton
0,5
0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7
Valeur absolue des effets moyens
110
Chapitre II : Les plans d’expériences, étude de criblage
Les points alignés sur la droite passant par l’origine représentent les variables non
statistiquement influentes. Au contraire, le positionnement sur le graphique des points
associés à la résistance de grille, au temps de commutation et à leur interaction tend à montrer
que ces variables seraient statistiquement significatives sur la variance globale du modèle.
L’application de cette méthode aux autres points de fonctionnement nous montre que les
variables influentes sur la vitesse de commutation semblent être la résistance de grille Rgoff, le
temps de commutation ton ainsi que l’interaction entre ces deux facteurs.
Sur la surtension, l’application de la méthode de Daniel tend à montrer que les variables
influentes seraient l’inductance de boucle Lcom, la résistance de grille Rgoff, le temps de
commutation ton ainsi que les 3 interactions issues des combinaison de ces facteurs.
L’inconvénient majeur rencontré dans l’application de cette méthode réside dans le tracé
de la droite, ce dernier étant subjectif et laissé à la libre appréciation de l’utilisateur. Il arrive
alors dans certains cas, que le tracé de 2 droites, paraissant pourtant toutes les deux correctes,
engendre des conclusions différentes.
0,15
0,1
0,05
0
s
ff
f
ge
on
n
n
om
Coefficients
of
e
-0,05
n
go
/to
of
to
Lg
/L
to
Rg
f/t
Rg
/R
e/
Lc
om
om
of
Lg
e/
om
Rg
Lc
Lg
Lc
-0,1
Lc
-0,15
-0,2
-0,25
-0,3
-0,35
Variables du modèle
Sur ce graphique sont représentés les coefficients associés à chacune des variables du
modèle ainsi que les limites définies à partir des probabilités de 1-α/2 pour un niveau de
signification α =5% (en traits pleins) et de γ ici d’une valeur de 0,996 (en pointillés) calculée
comme indiqué dans le paragraphe 3.10.2.
111
Chapitre II : Les plans d’expériences, étude de criblage
pour la résistance de grille Rgoff, le temps de commutation ton et l’interaction entre ces deux
facteurs Rgoff/ton. En revanche, pour une probabilité γ, la limite est beaucoup plus restrictive et
ne laisse apparaître comme significatif que les facteurs Rgoff et ton. Les graphiques issus de
l’ensemble de ces applications sont fournis en annexe 5.2.
D’une manière générale, la méthode de Lenth, appliquée aux 6 modèles obtenus dans cette
étude, est plus restrictive que la méthode de Daniel.
L’analyse de la variance est sans doute la plus rigoureuse des méthodes d’analyse
statistique utilisées lors de ce travail. Son application sur ces mêmes résultats obtenus dans le
cas de la vitesse de commutation au point de fonctionnement a donne le tableau d’analyse de
variance fourni dans la table 32 :
Les facteurs Rgoff, ton et leur interaction Rgoff/ton semblent être influents sur la vitesse de
commutation. Leur caractère influent est confirmé par une nouvelle analyse de variance,
présentée dans la table 33, réalisé seulement à partir de ces variables, jugées influentes dans la
table 32.
On retrouve bien les conclusions trouvées précédemment avec les méthodes de Daniel et
de Lenth à savoir l’influence statistiquement significative des facteurs Rgoff, ton et de leur
interaction Rgoff/ton.
112
Chapitre II : Les plans d’expériences, étude de criblage
L’ensemble des analyses de variance réalisées sur chacune des deux réponses aux trois
points de fonctionnement est présenté en annexe 5.3.
La table 34 résume les résultats obtenus par les trois méthodes d’analyse statistiques
utilisées sur la surtension et la vitesse de commutation.
Les différences observées sur les variables influentes aux différents points de
fonctionnement laissent présumer la présence d’interactions entre les paramètres tension,
courant et certains des facteurs utilisés ici. La présence de ces interactions sera vérifiée dans
la modélisation des réponses par l’application de la méthode des plans d’expériences pour
l’étude de surfaces de réponses présentée dans le chapitre 3.
On retiendra dans les modèles additifs les variables jugées influentes par l’analyse de la
variance, cette méthode étant la plus précise. Les modèles obtenus sont donc les suivants :
Au point a :
Surtension = 846 + 90 Lcom − 21Rg off − 24ton − 14 Lcom * ton + 11Rg off * ton (2.45)
113
Chapitre II : Les plans d’expériences, étude de criblage
Au point b :
Surtension = 1773,75 + 131,25 Lcom − 33,75 Rg off − 46,25t on − 11,25 Lcom * Rg off
(2.47)
− 13,75 Lcom * t on + 16,25 Rg off * t on
Au point c :
Surtension = 2720 + 140 Lcom − 25 Rg off − 90ton − 20 Lcom * ton + 45 Rg off * ton (2.49)
Les indicateurs issus de l’analyse de régression de chacun des modèles sont restitués par
la table 35 :
Point a Point b Point c
Surtension dV/dt Surtension dV/dt Surtension dV/dt
R² 98,97 99,07 99,76 90,61 98,56 97,72
R²ajusté 98,46 98,84 99,59 89,17 97,84 97,37
Les indicateurs reflètent la qualité descriptive des modèles qui semblent bien traduire les
valeurs mesurées de surtension et de vitesse de commutation. Une analyse graphique des
résultats et plus précisément un graphe d’adéquation permettra d’observer cette qualité.
2100
s
2000
Réponses mesurées
1900
1800
1700
1600
1500
1500 1600 1700 1800 1900 2000 2100
Réponses calculées par le modèle
114
Chapitre II : Les plans d’expériences, étude de criblage
Ce graphique montre bien que les réponses calculées par le modèle traduisent bien la
réalité et par le fait, que les conclusions déduites des analyses statistiques sont correctes.
L’inductance liée au câble reliant l’allumeur à la commande de l’IGBT, notée Lge dans
cette étude, n’a pas été retenue dans les modèles additifs présentés dans l’analyse statistique
des résultats. En effet son influence sur les réponses n’a été jugée influente en aucun des trois
points de fonctionnement. Avant d’éliminer définitivement ce facteur de l’étude, nous nous
avons vérifié qu’il ne présentait pas d’interaction avec la température. Cette vérification est
donnée en annexe 7.
Cette étude traitant des 4 facteurs liés aux paramètres de fonctionnement a permis
d’éliminer le facteur Lge, jugé non influent sur l’une et l’autre des réponses observées.
5. Conclusion
Ce type d’étude est une étape quasi obligatoire dans la modélisation d’une réponse par
l’utilisation des plans d’expériences. En effet, les plans d’expériences pour l’étude des
surfaces de réponse étant très gourmand en essais, et le nombre d’essais étant étroitement liés
au nombre de facteurs de l’étude, il est nécessaire de les aborder en ne prenant en
considération que les facteurs dont l’influence sur la réponse a été préalablement vérifiée.
Dans notre application, nous avons opté pour la réalisation de deux études de criblage
successives afin d’éviter dans un premier temps les problèmes posés par la présence de
contraintes relationnelles présentes entre les différents facteurs. La première étude utilisait 6
facteurs parmi lesquels 3 ont été jugés statistiquement significatifs sur la surtension et la
vitesse de commutation. La deuxième étude, quant à elle, a permis d’identifier 3 facteurs
influents dans un ensemble initial de 4.
Parmi les 10 facteurs potentiellement influents identifiés avec l’aide des experts IGBT
d’Alstom Transport de Tarbes, nous avons donc identifié 6 facteurs présentant une influence
significative sur la surtension et la vitesse de commutation.
115
Chapitre II : Les plans d’expériences, étude de criblage
Par cette phase de criblage, nous avons donc diminué de plus de moitié le nombre
minimal de lignes nécessaire dans la matrice du modèle X qui servira à la modélisation des
réponses, présentée dans le chapitre suivant.
Références du chapitre II
[Addelmann, 62] S. Addelmann, “Orthogonal main effect plans for asymmetrical factorial
experiment”, Technometrics, 1962.
[Box, 62] G.E.P. Box, J.S. Hunter, “The 2k-p fractional factorial plans”,
Technometrics, Vol 4, 1962.
[Fisher, 25] R.A. Fisher, “Statistical methods for research workers”, Oliver and
Boyd, Ed. Edinburgh, 1925.
116
Chapitre II : Les plans d’expériences, étude de criblage
[Fisher, 35] R.A. Fisher, “The design of experiments”, Oliver and Boyd, Ed.
Edinburgh, 1935.
[Goupy, 96] J. Goupy, “La méthode des plans d’expériences – Optimisation du choix
des essais et de l’interprétation des résultats”, Ed. Dunod, 1996.
[Goupy, 06] J. Goupy, “Tutorial, Les Plans d’Expériences”, Revus Modulad, N° 34,
2006.
[John, 62] P.W.M. John, “Three quarter replicates of 2n”, Biometrics, Vol 18,
1962.
[Kiefer, 59] J. Kiefer, “Optimum experimental designs”, J.R. Statist. Soc. B, Vol 21,
1959.
[Lochner, 90] R.H. Lochner, J.E. Matar, “Designing for quality, an introduction to the
best of Taguchi and western methods and statistical experimental
design”, Productivity press, ed. Portland, Oregon, 1990.
[Plackett, 46] R.L. Plackett J.P. Bur,man, “The design of optimum multifactorial
experiments”, Biometrika, 1946.
[Sapora, 90] G. Sapora, “Probabilité, analyse des données statistiques”, Eds Technip,
1990.
117
Chapitre II : Les plans d’expériences, étude de criblage
[Taguchi, 87] G. Taguchi, S. Konishi, “Taguchi methods, Orthogonal arrays and linear
graphs, tools for quality”, ASI Press, Ed. Allen Park, 1987.
118
Chapitre III : Les plans d’expériences, étude de surface de réponse
Chapitre III :
Les plans d’expériences,
Etude de surface de réponse
119
Chapitre III : Les plans d’expériences, étude de surface de réponse
120
Chapitre III : Les plans d’expériences, étude de surface de réponse
1. Introduction
Les premiers plans d’expériences diffusés dans la littérature ont été destinés à l’estimation
des effets des facteurs. Cependant, du point de vue industriel, tous les problèmes rencontrés
ne consistent pas uniquement à estimer puis à comparer les effets des facteurs. De nombreuses
études consistent à trouver, s’il existe, un optimum dans un domaine d’étude appelé domaine
expérimental. Pour ce faire, on utilise la méthodologie des plans d’expériences pour surfaces
de réponse, traitée dans ce chapitre.
Dans le second chapitre, deux études de criblage ont permis d’identifier six facteurs ayant
une influence statistiquement significative sur la surtension et la vitesse de commutation
observées au blocage des modules IGBT. Nous avons ainsi limité le nombre de facteurs à
prendre en considération dans la modélisation des réponses. Le principal intérêt de cette
réduction du nombre de facteurs présents dans cette étude réside dans la minimisation du
nombre d’expérimentations à effectuer. Une fois validés, les modèles obtenus permettront de
calculer la surtension et la vitesse de commutation des modules IGBT en fonction de
l’ensemble des paramètres présents dans un onduleur et ainsi d’améliorer la connaissance du
comportement des modules IGBT en fonctionnement.
Les plans d’expériences pour l’étude des surfaces de réponses sont apparus dans la
seconde moitié du XXème siècle. Il s’agit de dispositifs expérimentaux plus onéreux que ceux
destinés à l’étude des effets des facteurs car nécessitant davantage d’essais, mais permettant
de répondre à un objectif spécifique qui correspond à la recherche d’un optimum. Le modèle
sous-jacent à la construction de ce type de plan est de forme polynomiale du second degré.
Les plans mis en place avant 1970 sont utilisables dans des domaines isotropes. En présence
d’une ou plusieurs contraintes rationnelles, il faut alors avoir recourt à la recherche d’un plan
optimal basée sur l’utilisation d’un algorithme d’échange dont la technique est apparue après
1970, comme l’indique la figure 1. Dans tous les cas, l’analyse des résultats d’essais, passant
par le calcul des coefficients du modèle, nécessite la mise en œuvre de la méthode des
moindres carrés.
121
Chapitre III : Les plans d’expériences, étude de surface de réponse
L’évolution des plans d’expérience pour l’étude des surfaces de réponse s’est faite dans
une période plus courte que celle des plans d’expériences pour l’étude des effets des facteurs.
En effet, l’évolution des plans d’expériences pour l’étude des surfaces de réponse s’étend de
1950 à 1970 alors qu’au cours du second chapitre, nous avons vu que l’évolution des plans
pour l’étude des effets des facteurs a débuté dès 1925 pour s’achever également vers 1970.
Si l’on fait exception des plans pour l’étude de mélange, cette période s’articule autour de
trois travaux :
• Les plans composites centrés proposés par G.E.P. Box et K.B. Wilson en 1951
[Box, 51].
• Les plans proposés par G.E.P. Box et D.W. Behnken en 1960 [Box, 60].
• Les réseaux uniformes proposés par D.H. Doehlert en 1970 [Doehlert, 70].
N = 2 k + 2k + 1 (3.1)
N = k2 + k +1 (3.2)
122
Chapitre III : Les plans d’expériences, étude de surface de réponse
En ce qui concerne les plans optimaux pour l’étude de surfaces de réponse en présence
d’un domaine anisotrope comme ce sera le cas dans cette étude, ils reposent sur l’utilisation
d’un algorithme d’échange. Cet algorithme cherche les essais à intégrer dans la matrice
d’expériences, qui optimisent un critère d’efficacité parmi un ensemble de points candidats.
Les critères d’efficacité les plus fréquemment utilisés par les méthodes de plans d’expériences
pour l’étude de surfaces de réponses seront présentés dans le paragraphe 3.6.3.2.
Nous avons vu dans le second chapitre qu’une étude de criblage permet, à travers
l’obtention d’un modèle additif, d’identifier les éléments ayant une influence significative sur
une réponse parmi une liste de facteurs. Une étude de surface de réponse quant à elle permet,
à travers un modèle polynomiale le plus souvent, de traduire les variations d’une réponse dans
un domaine expérimental.
Les étapes à suivre dans le cas d’une étude de surface de réponse sont les mêmes que
celles réalisées lors d’une étude de criblage. Cependant, leur contenu est différent. En effet, le
modèle à établir lors d’une étude de surface de réponse n’a pas la même forme que celui
recherché dans une étude de criblage. Or, le contenu des étapes à suivre lorsqu’on mène une
étude par plan d’expériences est étroitement lié à la forme du modèle recherché.
Les étapes d’une étude par plan d’expériences sont rappelées ici :
Nous allons maintenant décrire de manière théorique le contenu de chacune de ces étapes
dans le cas d’une étude basée sur la méthode des plans d’expériences pour l’étude de surface
de réponse avant de les appliquer à notre étude.
123
Chapitre III : Les plans d’expériences, étude de surface de réponse
L’objectif visé lors d’une étude de surface de réponse peut être de différentes natures
[Goupy, 99] :
Les grandeurs traduites par les réponses étant le plus souvent de nature différente, il
convient, dans le cas d’une optimisation, de procéder à une transformation avant de
rechercher le meilleur réglage des facteurs permettant d’atteindre un compromis. Différentes
méthodes on été décrites dans la littérature, on peut citer la méthode utilisant la transformation
des réponse à partir des fonctions de désirabilité, initialement développé par E.C. Harrington
en 1965 [Harrington, 65], puis adapté par R. Derringer et R. Suich en 1980 [Derringer, 80].
La désirabilité traduit le degré de satisfaction des expérimentateurs, en fonction du niveau de
la réponse observée ou modélisée.
124
Chapitre III : Les plans d’expériences, étude de surface de réponse
Lorsque l’objectif visé n’est pas une optimisation mais plutôt d’observer les variations
d’une ou plusieurs réponses dans un domaine expérimental, comme c’est le cas ici, il convient
d’utiliser les méthodes indirectes et de traduire ces variations à travers un modèle.
Pour ce type d’études, les facteurs doivent être quantitatifs à variation continue de par la
nature polynomiale du modèle utilisé pour l’exploration du domaine expérimental.
Dans l’approche traditionnelle des plans d’expériences pour l’étude des surfaces de
réponse, les niveaux sont fixés par la méthode de construction du plan, au sein d’un domaine
dont les bornes sont définies par l’utilisateur.
125
Chapitre III : Les plans d’expériences, étude de surface de réponse
La présence d’un optimum au sein d’un domaine expérimental se traduit par des dérivées
partielles de la surface de réponse nulles. La recherche de réglages particuliers pour lesquels
les dérivées partielles du modèle polynomial sont nulles impose le choix d’un modèle du
deuxième degré au minimum. La construction d’un plan pour l’étude de surface de réponse
nécessite donc 3 niveaux au minimum pour chacun des facteurs. Toutefois pour respecter des
critères de qualité en terme de prédiction d’une réponse, certains dispositifs expérimentaux,
comme les réseaux de Doehlert [Doehlert, 70] par exemple, imposent parfois plus de trois
niveaux aux facteurs. Il est donc intéressant d’intégrer les difficultés de modification des
réglages des facteurs lors du choix d’un dispositif expérimental particulier.
Tout comme dans le cas des plans d’expériences pour l’étude des effets des facteurs, les
plans destinés à l’étude de surfaces de réponse utilisent une relation de codage.
Les paramètres de réglage d’un processus traduisent le plus souvent des grandeurs
différentes.
Il convient donc de standardiser les variations de ces paramètres pour avoir accès aux
outils généraux de construction des plans d’expériences. Pour cela on utilise une relation de
codage unique définie à partir de la transformation bijective définissant la valeur xi à partir de
la relation (3.3) que l’on peut retrouver dans l’ensemble des ouvrages traitant des plans pour
étude de surface de réponses comme par exemple [Goupy, 99] :
u + umin i
ui − max i
2
xi = (3.3)
umax i − u min i
2
umaxi et umini étant les bornes définies par l’utilisateur et ui le niveau réel donné au facteur i
lors de l’expérimentation.
Le facteur codé x, transformé du facteur u, est sans dimension et ses valeurs sont
comprises dans l’intervalle borné [-1 ; 1].
La nature quantitative continue des facteurs induit un nombre de combinaisons infini pour
le domaine expérimental, chacun des facteurs pouvant prendre un nombre infini de niveaux
126
Chapitre III : Les plans d’expériences, étude de surface de réponse
particuliers, dans la plage de variation qui leur est associée [Droesbeke, 97]. Nous nous
intéressons donc, dans le cas d’un plan pour l’étude de surface de réponse, à l’enveloppe du
domaine expérimental qui, suite à la relation de codage présentée ci-dessus peut présenter
deux géométries :
Dans cet exemple les facteurs température et pression ne peuvent pas prendre leur valeur
maximale en même temp. On défini donc une aire dans laquelle aucun traitement
expérimental ne doit se trouver (zone hachurée sur la figure 2).
Pour le cas particulier des plans de mélange, une contrainte s’impose. En effet dans ce cas
la somme des composantes du modèle (pourcentages respectifs des différents composants)
doit naturellement être égale à 1.
127
Chapitre III : Les plans d’expériences, étude de surface de réponse
Le choix de modèle du second degré repose sur le fait que la recherche d’un optimum
nécessite la présence d’une dérivée nulle et qu’il est toujours possible de définir au voisinage
d’un point un développement en série de Taylor-McLaurin pour toute fonction [Goupy, 99],
[Faucher, 06].
k k k −1 k
η = α 0 + ∑ α i xi + ∑ α ii xi ² + ∑ ∑ α ij xi x j (3.4)
i =1 i =1 i =1 j =i +1
Dans lequel, α représente les coefficients du modèle à identifier (α0 la constante, αi les
coefficients associés aux facteurs, αii les coefficients associés aux termes quadratiques et αij
les coefficients associés aux interactions d’ordre 1), k désigne le nombre de facteurs xi pris en
considération dans le modèle.
( k + 1)( k + 2)
p= (3.5)
2
Dans le cas de problème de mélange, un modèle quadratique classique ne peut pas être
appliqué [Goupy, 00]. En effet en raison des contraintes particulière que présente un plan de
mélange (ex : somme des constituants = 1) les modèles quadratiques tels que ceux présentés
en (3.4), ne peuvent pas décrire les variations de la réponse. On utilise alors généralement un
modèle de forme canonique du second ordre de la forme :
q q
η = ∑ β i xi + ∑ β ij xi x j (3.6)
i =1 i< j
Dans lequel
q est le nombre de constituants,
βi et βij sont définis de la manière suivante :
β i = α 0 + α i + α ii (3.7)
β ij = α ij − α ii − α jj (3.8)
Dans lesquels αi est le coefficient associé au constituant i et αij est associé à l’interaction
entre les facteurs i et j.
128
Chapitre III : Les plans d’expériences, étude de surface de réponse
Dans tous les cas, la matrice d’expériences doit posséder au moins autant de lignes (N)
que le modèle a de coefficients (p).
Notre étude ne traitant pas d’un problème de mélange, nous aurons, pour notre part,
recours à un modèle polynomiale du second degré de la forme donnée en (3.4).
Une matrice optimale peut être obtenue à l’aide de deux type de constructions :
Ces plans sont ceux cités dans l’historique présent au début de ce chapitre à savoir pour
les plus connus :
• Les plans composites centrés de G.E.P. Box et K.B. Wilson [Box, 51] : la
construction des plans composites centrés consiste à rajouter des points en étoile à
partir d’un plan factoriel complet. L’éloignement des points en étoile par rapport au
centre du domaine ainsi que le nombre de répétitions au point central obéit à certains
critères algébriques.
• Les plans de Box et Behnken [Box, 60] : les matrices d’expériences associées à ces
plans ne font appel qu’à trois niveaux par facteur. Ceci est intéressant lorsque le
changement de niveau des facteurs est long et délicat.
129
Chapitre III : Les plans d’expériences, étude de surface de réponse
• Les réseaux de Doehlert [Doehlert, 70] : les matrices d’expérience associées à ces
plans sont construites de manière séquentielle à partir d’un simplexe. Il est ainsi
possible de faire glisser le domaine expérimental dans l’espace des facteurs, en
récupérant un nombre important d’expériences déjà réalisées. En contrepartie, tous
les facteurs n’ont pas le même nombre de niveaux. Cette dissymétrie dans le nombre
de niveaux est à prendre en compte, en particulier lorsque le réglage des facteurs est
délicat.
On peut également citer les plans hybrides mis au point par [Roquemore, 76], les plans de
[Mozzo, 90] ou les plans de [Rechtschaffner, 67] pour le second degré.
Les critères majoritairement utilisés pour la construction de ces matrices sont l’isovariance
par rotation et le critère de précision uniforme. Nous allons maintenant préciser ces notions.
Les niveaux des facteurs sont des valeurs particulières de variables aléatoires définies
pour chacun des traitements d’un plan d’expériences. Par voie de conséquence, les
estimateurs des différents coefficients du modèle mathématique choisi pour la description des
variations de la réponse dans le domaine expérimental sont également des valeurs
particulières de variables aléatoires. En effet, les estimateurs des coefficients sont obtenus à
partir des combinaisons linéaires appropriées des résultats d’essais. Les prévisions faites à
partir du modèle sont donc également des valeurs particulières d’une variable aléatoire. Pour
quantifier leur dispersion autour de leur tendance centrale, on utilise la relation (3.9) :
∧ [
Var y (x0 ) = σ 2 t f (x0 )(t XX ) f ( x0 )
−1
] (3.9)
Var y ( x0 )
∧
130
Chapitre III : Les plans d’expériences, étude de surface de réponse
Dans [Louvet, 06], les auteurs démontrent que la condition d’isovariance par rotation est
satisfaite pour une valeur de la distance des points en étoile au point central α définie comme
étant :
2 (3.11)
k
α =4
La condition d’isovariance par rotation s’exprime donc de manière simple ; elle est
indépendante du nombre n0 de répétitions au centre du domaine expérimental.
Le fascicule [FD X 06-080, 89] stipule qu’un dispositif expérimental présente des
propriétés de précision uniforme si la fonction de variance est constante à l’intérieur d’une
sphère ayant le même centre que le domaine expérimental. Elle ne peut être obtenue que si
l’isovariance par rotation est déjà assurée.
Dans [Louvet, 06], les auteurs démontrent que la condition de précision uniforme est
satisfaite pour un nombre de répétitions n0 au centre du domaine définie comme :
n0 ≈ γ ( 2 + 2 ) − 2 − 2k
k
2
(3.12)
γ=
(k + 3) + 9k 2 + 14k − 7
(3.13)
4(k + 2 )
Les plans dont la construction est basée sur ces critères couvrent un domaine expérimental
isotrope. En présence d’une ou plusieurs contraintes relationnelles entre différents facteurs,
c'est-à-dire dans le cas d’un domaine anisotrope comme cela est le cas dans notre application,
ces plans ne conviennent plus. En effet, certains points exigés par ces plans se trouvant en
dehors du domaine expérimental ne peuvent pas être réalisés. On a alors recours à la
construction algorithmique d’une matrice d’expériences optimale.
Les contraintes expérimentales ne permettent pas toujours d’être dans les conditions
idéales des plans d’expériences précédemment décrits. Par exemple, les réglages de l’appareil
ne permettent pas d’atteindre le niveau préconisé par la théorie ou des combinaisons de
niveaux peuvent se révéler dangereuses (réaction explosive pour les chimistes, concentrations
toxique pour les médecins,…). Dans cette situation, l’obtention d’un plan optimal passe par
une construction algorithmique.
131
Chapitre III : Les plans d’expériences, étude de surface de réponse
[Gauchi, 05]. Il existe aujourd’hui de nombreux critères d’optimalité. L’objectif ici n’est pas
de les lister de façon exhaustive mais plutôt de présenter les critères les plus utilisés ainsi que
leurs formules de calcul pour une application concrète. Pour une description plus détaillée, le
lecteur pourra de se rapporter à [Gauchi, 97].
Critère de D-optimalité
Ainsi, plus le déterminant de la matrice d’information sera grand et plus la précision sur
les coefficients du modèle sera fine. En effet, un plan D-optimal minimise le carré du volume
de l’ellipsoïde de confiance des coefficients du modèle.
Il est possible de calculer la D-efficacité d’un plan d’expérience grâce à la formule définie
dans [Gauchi, 05] par :
1
det ( t XX ) p
Deff = 100 × (3.14)
( )
det X (π D ) X (π D )
t
Avec πD la matrice d’information d’un plan D-optimal à mesure continue. Cette efficacité
présente un grand intérêt dès lors que l’on est en mesure de calculer un plan D-optimal à
mesure continue. La notion de plan D-optimal à mesure continue est une idée majeure et
originale due à [Kiefer, 59]. Il considère le plan d’expériences comme une mesure de
probabilité continue sur un domaine expérimental compact, on parle alors de plan à mesure
continue.
132
Chapitre III : Les plans d’expériences, étude de surface de réponse
Cependant, il n’est pas toujours possible de calculer cette matrice πD, pour calculer
l’efficacité D d’une matrice, on peut utiliser alors la formule donnée dans [Chomtee, 03]
utilisant la matrice des moments élevé à la puissance 1/p :
1
det ( XX )
p
t
(3.15)
Deff = 100 ×
N
Critère de A-optimalité
p
Aeff = 100 × (3.16)
[
trace N ( t XX )
−1
]
Numériquement, le calcul d’un plan A-optimal est plus coûteux que celui d’un plan D-
optimal puisqu’il nécessite l’inversion de la matrice d’information afin d’obtenir la matrice de
dispersion. Enfin, un plan A-optimal dépend des unités des variables explicatives, ce qui est
un handicap supplémentaire à l’utilisation de ce critère [Gauchi, 97].
Critère de E-optimalité
Soit λ1,…,λp les valeurs propres de la matrice d’information. Les valeurs propres de la
matrice de dispersion sont 1/λ1,…,1/λp. Un plan E-optimal (E comme « eigen value ») à N
expériences vise à minimiser la valeur propre maximale de la matrice de dispersion. En
d’autres termes, un plan E-optimal minimise la longueur du plus grand axe de l’ellipsoïde de
confiance. Il est possible de suivre l’évolution de la E-optimalité pour des matrices du modèle
de taille différentes en calculant pour chacune :
[
E eff = min λ ( t XX ) ] (3.17)
D’après l’ouvrage de Galil et Kiefer [Galil, 77] la E-optimalité traduit l’étalement des
expériences au sein du domaine expérimental, ce qui s’approche aux réseaux uniformes,
contrairement à la D-optimalité.
La détermination d’un plan E-optimal est une tâche mathématiquement lourde puisqu’elle
nécessite le calcul répété des valeurs propres de la matrice de dispersion. Ceci peut être une
raison de sa faible utilisation.
133
Chapitre III : Les plans d’expériences, étude de surface de réponse
Critère de MV-optimalité
Ce critère, proche du critère de E-optimalité, est un critère de type min-max qui vise à
minimiser la variance maximale des estimateurs.
Critère de Turing
Ce critère est dû à Sutton et McGregor [Sutton, 77]. Il traduit la sphéricité des régions de
confiance. Il s’écrit :
Tu eff =
1
p
{
trace (t XX ) −1
× trace (t XX )} (3.18)
Il vaut 1 si la région de confiance est une hypersphère, il est supérieur à 1 si la région est
ellipsoïdale. Plus la région de confiance est sphérique, plus l’homogénéité des variances des
estimateurs est grande.
Critère de G-efficacité
p
G − efficacité = (3.19)
max{d (ξ N , x0 )}
Avec
{
d (ξ N , x0 ) = N t f ( x0 )(t XX ) f ( x0 )
−1
} (3.20)
Il est alors aisé de comparer les matrices d’expériences proposées par un algorithme
d’échange en observant leur G-efficacité. C’est ce critère que nous utiliserons dans notre
étude.
134
Chapitre III : Les plans d’expériences, étude de surface de réponse
Critère de J-optimalité
Le critère J également appelé IMSE pour « Integrated Mean Square Error » est connu en
français sous le nom de critère de « variance+biais ». Il a été proposé par Box et Draper dans
[Box1, 59]. On le trouvera largement explicité dans [Khuri, 87].
L’originalité de ce critère réside dans le fait qu’il prend en compte à la fois la variance de
la prédiction de la réponse et le biais induit sur les estimateurs du modèle postulé quand celui-
ci n’est pas forcement le modèle idéal. En général, le modèle idéal est un sur-modèle, c'est-à-
dire un modèle englobant le modèle postulé et qui contient des termes supplémentaires. On
cherche à se protéger contre ce sur-modèle en minimisant l’impact de l’omission des termes
supplémentaires sur la qualité des estimateurs obtenus avec le modèle postulé.
Cependant, à notre connaissance, tous les algorithmes d’échange rencontrés dans les
logiciels de plan d’expériences utilisent le critère de D-optimalité et cherche donc à
maximiser le déterminant de la matrice d’information. Ce choix est dû à l’efficacité de cet
outil et à la rapidité du calcul nécessaire. En effet, à chaque itération, s’il est très rapide de
calculer le déterminant d’une matrice, il est en revanche assez long de calculer par exemple la
fonction de variance (3.10) en chacun des points candidats nécessaire au calcul de la G-
efficacité ou les valeurs propre de la matrice d’information (E-efficacité). Nous nous
concentrerons donc par la suite sur les algorithmes d’échanges basés sur le principe de D-
optimalité.
135
Chapitre III : Les plans d’expériences, étude de surface de réponse
Pour converger vers une matrice optimale, il faut établir une matrice de départ. Les
logiciels de plans d’expériences utilisent généralement un générateur de nombres aléatoires,
pour extraire du domaine expérimental une première matrice d’expériences de taille N
donnée.
On peut se demander comment trouver très rapidement l’expérience à rajouter, pour faire
croître au maximum le déterminant de la matrice d’information. Pour répondre à cette
question, on utilisera la fonction de variance standardisée.
Les coefficients du modèle étant affectés d’une incertitude, il en va de même pour les
prévisions que l’on pourra faire à partir de ce modèle, pour toute combinaison des modalités
des facteurs, notée symboliquement x0. La variance de prévision de la réponse pour toute
combinaison du domaine expérimental donnée en (3.9) et rappelée ici s’écrit sous la forme :
∧ { }
Var y ( x0 ) = σ 2 t f ( x0 )(t XX ) f ( x0 )
−1
(3.21)
Il est alors possible de détecter la combinaison pour laquelle la variance de prévision est la
plus grande et c’est naturellement cette combinaison que l’on va introduire comme expérience
complémentaire dans la matrice d’expériences.
136
Chapitre III : Les plans d’expériences, étude de surface de réponse
NVar y ( x0 )
∧
d (ξ N , x0 ) =
σ 2
{ 0 0}
= N t f ( x )(t XX )−1 f ( x ) (3.22)
Cette fonction est calculée systématiquement pour chacune des combinaisons du domaine
expérimental non retenue dans une matrice d’expérience, afin d’identifier celle pour laquelle
cette fonction présente un maximum. Si plusieurs combinaisons présentent une valeur
maximale pour la fonction de variance standardisée, on en retient une au hasard, pour
l’introduire dans la matrice d’expériences.
d (ξ N , x0 )
det (t X N +1 X N +1 ) = det (t X N X N )1 + (3.23)
N
H = X (X t X ) X t
−1
(3.24)
La matrice H est donc une matrice NxN dans laquelle chacun des termes diagonaux Hii est
associé au ième traitement du plan d’expériences. La trace de la matrice H est égale à p donc la
valeur moyenne des Hii est p/N. En pratique, un tracé de Hii est effectué et l’on cherche les
points leviers dont le Hii est supérieur à 3p/N ou 2 p/N ou alors qui semblent très différents
des autres.
En présence d’un ou plusieurs points leviers, il est possible de choisir un autre plan
d’expériences ne présentant pas de points leviers ou de réaliser les essais en portant une
attention particulière à la valeur de la réponse en ce(s) point(s).
3.7. Expérimentation
Cette phase se déroule de la même façon que lors d’une étude des effets des facteurs. Les
recommandations sont donc les mêmes que celles établies dans le second chapitre.
Avant l’expérimentation, il convient de préparer pour chacun des essais, une fiche
indiquant les modalités des facteurs à respecter. De plus, il est préférable d’effectuer une
randomisation des essais si cela est possible. Cette randomisation permet de limiter
137
Chapitre III : Les plans d’expériences, étude de surface de réponse
Avec :
(Y) le vecteur des résultats d’essais,
(X) la matrice du modèle,
(Coefficients) le vecteur des estimations des coefficients.
(E) la matrice d’erreur.
La matrice (X) n’étant pas souvent une matrice carrée, nous avons recourt pour résoudre
ce problème à l’écriture matricielle de la méthode des moindres carrés [Dodge, 99] [Goupy,
06] présentée dans le chapitre précédent et rappelée ici, dont l’équation est :
Cette équation fait appel au calcul de la pseudo inverse de la matrice du modèle (X). La
matrice (X) étant de rang plein en colonnes (le nombre de colonnes indépendantes est
138
Chapitre III : Les plans d’expériences, étude de surface de réponse
inférieur au nombre de lignes), cette pseudo inverse se calcule à partir de la relation (3.27)
[Rotella, 95] :
(X ) = ( XX ) ( X )
+ t −1 t
(3,27)
Connaissant une estimation des coefficients du modèle, il est possible d’utiliser ce dernier
afin de prévoir la réponse pour chacun des traitements du plan d’expériences. Il suffit pour
cela d’utiliser le produit scalaire entre le vecteur des estimations des coefficients et le vecteur
représentant la fonction du modèle, pour une combinaison donnée, x0, des modalités des
facteurs [Draper, 81] :
∧
y ( x0 )= t f (x0 ){Coefficients} (3.28)
Pour une combinaison donnée, x0, du plan d’expériences, le résidu ei est défini à partir de
la relation (3.29) :
∧
ei = y(x0 ) − y(x0 ) (3.29)
La méthode des moindres carrés utilisée pour calculer les coefficients des modèles repose
en partie sur l’hypothèse de normalité des résidus, il sera donc nécessaire lors de l’analyse
statistique des résultats de vérifier cette normalité comme nous le verrons au paragraphe
3.10.3.
La mise en œuvre de tests statistiques doit permettre de porter un jugement sur les
résultats obtenus à savoir :
139
Chapitre III : Les plans d’expériences, étude de surface de réponse
N
SCT = ∑ yi − y ( ) 2
(3.30)
i =1
Cette quantité est indépendante du modèle postulé. On décompose ensuite cette somme de
carrés en une somme de deux termes SCM et SCE.
Le premier terme traduit la variation des réponses calculées autour de leur moyenne, soit
encore :
N 2
SCM = ∑ y i − y
∧
(3.31)
i =1
On rappelle que l’application de la méthode des moindres carrés utilisée pour la
détermination des coefficients du modèle, induit la relation (3.32) :
1 N
1 N ∧
y=
N
∑y
i =1
i
=
N
∑y
i =1
i (3.32)
Le second terme traduit la somme des carrés des résidus, dont on sait qu’elle est minimale
grâce à l’utilisation de la méthode des moindres carrés :
N 2
SCE = ∑ yi − y i
∧
(3.33)
i =1
SCT=SCM+SCE (3.34)
L’analyse statistique du modèle dans sa globalité se poursuit par la construction d’un test
statistique, visant à affecter une probabilité à l’hypothèse nulle (H0) qui dit que le modèle ne
permet pas de décrire la variation des résultats d’essais.
SCM
p −1
Fobs = (3.35)
SCE
N−p
140
Chapitre III : Les plans d’expériences, étude de surface de réponse
valeur particulière de la variable aléatoire caractérisant la réponse pour ce traitement. Par voie
de conséquence, la statistique Fobs est elle-même une variable aléatoire dont les valeurs
suivent une fonction de répartition théorique, appelée loi de F ou loi de Snedecor.
On utilise cette loi pour savoir à partir de quelle valeur particulière, appelée valeur
critique, le numérateur de la quantité Fobs est significativement supérieur au dénominateur.
On peut également à partir de cette même fonction de répartition affecter une probabilité
P de rejeter à tort l’hypothèse nulle (H0) énoncée ci-dessus. En comparant cette probabilité au
seuil de significativité choisi on peut conclure quant à la véracité de l’hypothèse (H0).
Un tableau d’analyse de régression, tel que celui présenté en table 1, permet de regrouper
les différentes étapes permettant d’aboutir au calcul de cette probabilité.
Source Somme des carrés Degrés de liberté Carré moyen Fobs Probabilité
Modèle SCM p-1 SCM/(p-1)
Fobs P
Résidus SCE N-p SCE/(N-p)
Total SCT N
Dans le chapitre II, nous avons vu comment calculer la qualité descriptive d’un modèle à
partir du coefficient de régression ajusté :
SCE
2 N−p
Rajusté = 1 − SCT (3.36)
N −1
PRESS
Q2 = 1− (3.37)
SCT
Dans lequel :
N
yi − yˆ i
PRESS = ∑ (3.38)
i =1 1 − hii
Avec :
yi la réponse mesurée au point i,
ŷi la réponse calculée par le modèle au point i,
hii le ième terme diagonal de la matrice H définie comme :
141
Chapitre III : Les plans d’expériences, étude de surface de réponse
H = X (X t X ) X t
−1
(3.39)
Les valeurs de hii sont donc les valeurs de la fonction de variance au point i.
On conçoit qu’un modèle sera d’autant plus prédictif que l’erreur de prédiction sera faible
pour chacun des traitements expérimentaux du plan. Dans la relation (3.38), PRESS est
l’acronyme de la locution anglaise PRediction Error Sum of Square. Plus la valeur de PRESS
est faible, plus le modèle est prédictif.
Une autre étape de l’analyse statistique du modèle concerne l’analyse statistique des
coefficients basée sur l’hypothèse nulle (H0) qui affirme que le coefficients ai associé à
l’élément Xi du modèle (constante, facteur, terme quadratique ou interaction) est nul. La
probabilité associée à cette hypothèse est obtenue à partir du test statistique de comparaison à
la valeur 0.
Pour cela, on établit pour chaque coefficient la statistique, notée tobs, à partir de la relation
(3.40) :
ai − 0 a
tobs = = i (3.40)
s (ai ) s (ai )
La valeur de l’estimateur ai est une valeur particulière d’une variable aléatoire qui dépend
en effet directement des résultats d’essais et du modèle postulé. L’incertitude associée à sa
détermination est définie par le dénominateur s(ai) qui traduit l’erreur-type, à savoir l’écart-
type d’un estimateur.
Lorsque la variance expérimentale est difficilement calculable ainsi que dans les logiciels,
on adopte comme estimation de la variance expérimentale, la variance résiduelle définie à
partir de la relation générale :
N 2
y − y∧
SCE ∑
i i
(3.42)
σ r = νE = N − p
i =1
2
142
Chapitre III : Les plans d’expériences, étude de surface de réponse
s r
= σ r2 (3.43)
ai
tobs = (3.44)
sr cii
Cette statistique est une variable aléatoire dont les valeurs suivent une fonction de
répartition théorique, appelée loi de t ou encore loi de Student. On utilise cette fonction de
répartition pour savoir à partir de quelle valeur particulière, appelée valeur critique, le
numérateur de la quantité tobs est significativement différent de 0 pour une probabilité α.
On peut également, à partir de cette même fonction de répartition, affecter une probabilité
de rejeter à tort l’hypothèse nulle (H0).
Les résultats de l’analyse des coefficients sont généralement regroupés dans un tableau.
La normalité de la distribution des résidus est une hypothèse importante de la méthode des
moindres carrés. Compte tenu du nombre N d’essais on utilise généralement la méthode
graphique de la droite d’Henry.
On détermine tout d’abord le rang r des résidus, ces derniers étant ordonnés de manière
non décroissante. On affecte ensuite à chacun des résidus une fréquence dont la définition
respecte la relation (3.46) :
r−3 8
P= (3.46)
N −1 4
143
Chapitre III : Les plans d’expériences, étude de surface de réponse
Si le nuage de point est approximativement aligné le long d’une droite, on conclu que les
résidus sont normalement distribués. Seules des causes aléatoires sont alors à l’origine de la
dispersion des résidus autour de leur moyenne.
Au-delà de 2 facteurs, il est nécessaire de maintenir à un niveau constant les facteurs dont
les variations ne sont pas décrites dans le plan horizontal.
144
Chapitre III : Les plans d’expériences, étude de surface de réponse
Les courbes iso-réponses, comme celle présenté en figure 4, constituent une projection de
la surface de réponse dans le plan horizontal. Elles s’interprètent comme les courbes de
niveaux, dessinées sur une carte topographique. Tout comme pour les surfaces de réponse,
cette représentation ne fait intervenir que 2 facteurs à la fois, les autres devant être fixés à un
niveau constant.
145
Chapitre III : Les plans d’expériences, étude de surface de réponse
Une validation expérimentale des hypothèses doit toujours venir compléter et enrichir une
analyse mathématique et statistique du modèle. Cette validation passe par la définition de
nouveaux traitements expérimentaux. Ces derniers contribueront à conforter l’interprétation
industrielle des premiers résultats. C’est cette validation expérimentale qui permettra de
vérifier les deux hypothèses exposées précédemment en comparant les réponses mesurées par
l’expérimentation à celles fournies par le modèle.
(
CI = hi × S r × t 1 − α ; DFr
2
) (3.47)
Dans lequel :
hi est la valeur de la variance prédictive au point considéré dont le calcul est donné en
(3.10),
Sr est l’estimation de la variance expérimentale, lorsque celle-ci n’est pas calculable,
donnée en (3.43),
t(1-α/2 ; DFr) est la valeur du t de Student pour une valeur de seuil de 1-α/2 et le degré
de liberté du résidu.
Le modèle sera validé si les réponses mesurées pour les expériences de validation sont
comprises dans l’intervalle de tolérance prédit par le modèle au point considéré.
Nous allons pour cela reprendre les différentes étapes de la méthode des plans
d’expériences pour l’étude de surface de réponse présentées dans le paragraphe 3 et les mettre
en pratique dans le cas de notre application industrielle.
146
Chapitre III : Les plans d’expériences, étude de surface de réponse
La figure 5 rappelle ces deux performances mesurées lors du blocage de ces modules.
Nous cherchons, à travers cette étude, à établir une cartographie des variations de ces deux
performances dynamiques en fonction de paramètres liés aux conditions de fonctionnement,
identifiées dans le second chapitre et rappelées dans le paragraphe 4.3.
Dans cette étude, l’objectif n’est pas tant d’atteindre un réglage optimum des facteurs
considérés que de traduire les réponses pour chacune des combinaisons de facteurs qu’il est
possible de rencontrer en application.
147
Chapitre III : Les plans d’expériences, étude de surface de réponse
148
Chapitre III : Les plans d’expériences, étude de surface de réponse
149
Chapitre III : Les plans d’expériences, étude de surface de réponse
Facteurs Modalités
Tension U Maillage fin respectant les contraintes à partir de 500 V.
Courant I Maillage fin respectant les contraintes à partir de 600 A.
Température T -40°C ; 42°C ; 125°C.
Inductance Lcom 60nH ; 120nH ; 200nH.
Résistance Rgoff 3,7Ω ; 4,2Ω ; 6,8Ω.
Temps ton Maillage fin entre 10µs et 100µs.
Les deux études de criblage présentées dans le second chapitre ont permis d’identifier 6
facteurs ayant une influence statistiquement significative sur les réponses observées. Dans ce
contexte il est aisé de calculer le nombre de coefficients à identifier dans chacun des modèles
à partir de la formule (3.5) rappelée ici :
( k + 1)( k + 2)
p= (3.49)
2
Le plan d’expériences devra donc être constitué d’au minimum 28 expériences. Il s’agit
alors d’identifier parmi les 1311 points candidats, les 28 traitements permettant d’obtenir la
meilleure matrice possible puis d’augmenter sa taille afin d’observer si la qualité de la matrice
ainsi obtenue justifie le surcoût engendré par l’ajout d’un traitement supplémentaire. Ce
travail constitue l’étape de construction du plan d’expériences.
150
Chapitre III : Les plans d’expériences, étude de surface de réponse
À chaque itération l’algorithme identifie les 3 points du design possédant la plus petite
variance prédictive et les remplace par des points du domaine expérimental choisis
aléatoirement. Si un, ou plusieurs, de ces échanges fait croître le déterminant de la matrice
d’information (XtX) de façon significative, le ou les points sont échangés. Cet algorithme se
base donc sur le critère de D-optimalité.
Malgré l’utilisation d’un algorithme d’échange basé sur la D-optimalité, nous avons choisi
pour cette étude d’utiliser le critère de G-efficacité. Les modèles obtenus étant utilisés dans un
but de prédiction dans l’ensemble du domaine expérimental, il est important de garantir une
incertitude minimale dans l’ensemble du domaine, ce sur quoi traite la G-efficacité. En effet
contrairement à d’autres critères plus fréquemment utilisés comme la D- ou la A-efficacité qui
se concentre sur la précision des coefficients, la G-efficacité va plus loin en proposant de
traiter l’ensemble du domaine expérimental.
Pour un nombre N défini, le logiciel MODDE permet de réaliser 200 tirages aléatoires
dans le domaine expérimental et l’algorithme d’échange fait converger chacun de ces tirages
vers un optimum local. Il est alors possible de classer les 200 matrices résultantes en fonction
de leur G-efficacité.
Pour augmenter la chance de trouver parmi ces optimums locaux l’optimum global, ces
200 tirages sont répétés plusieurs fois et la meilleure matrice est retenue. De plus, un lien
existe entre G- et D-optimalité. Il y a même équivalence entre G- et D-optimalité continues
[Gauchi, 05]. Cette similitude se base sur le théorème d’équivalence générale de [Kiefer, 60].
Nous pouvons donc dire que si une matrice D-optimale n’est pas toujours G-optimale, elle
possède, malgré tout, une bonne G-efficacité.
Le but de cet algorithme est d’identifier les N expérimentations parmi les 1311 points
candidats qui donnent les meilleurs résultats en terme d’efficacité. Le nombre de coefficients
p à déterminer étant de 28, le nombre N d’expérimentations, constituant la matrice
d’expériences, doit être au moins 28. Pour des raisons matérielles, la taille maximale de la
matrice X a été limitée à 50 expériences.
151
Chapitre III : Les plans d’expériences, étude de surface de réponse
80
75
70
G-efficacité s
65
60
55
50
45
28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50
N
Comme nous le voyons sur les figures 8 et 9, cette matrice satisfait également le critère de
D-optimalité. En revanche, la matrice du modèle n’est pas A-optimal, la somme des erreurs
sur les coefficients n’est donc pas minimale ce qui ne l’empêche pas de garantir une précision
maximale sur ses prévisions (G-optimalité).
152
Chapitre III : Les plans d’expériences, étude de surface de réponse
50
49
48
D-efficacité s
47
46
45
44
43
28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50
N
26
25
24
A-efficacité s
23
22
21
20
19
18
17
28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50
N
153
Chapitre III : Les plans d’expériences, étude de surface de réponse
Point U (V) I (A) T (°C) Lcom (nH) Rgoff (Ω) ton (µs)
1 2400 600 -40 200 3,7 10
2 500 2400 -40 200 3,7 10
3 1800 2400 -40 200 3,7 100
4 500 600 -40 200 6,8 10
5 2400 1100 -40 200 6,8 55
6 500 2400 -40 200 6,8 100
7 1500 600 -40 200 5,2 100
8 1900 2400 -40 120 5,2 10
9 500 1500 -40 120 3,7 100
10 500 600 -40 60 6,8 100
11 2400 600 -40 60 6,8 10
12 500 2400 -40 60 6,8 10
13 2400 2400 -40 60 6,8 100
14 500 600 -40 60 3,7 10
15 1500 2400 -40 60 3,7 55
16 2400 600 -40 60 3,7 100
17 2400 1400 42 60 3,7 10
18 500 2400 42 60 5,2 100
19 2400 600 42 120 6,8 100
20 1500 2400 42 200 6,8 10
21 500 600 42 200 3,7 55
22 500 600 125 60 3,7 100
23 500 2400 125 60 3,7 10
24 2400 2400 125 60 3,7 100
25 2400 600 125 60 5,2 55
26 500 600 125 60 6,8 10
27 1500 1500 125 60 6,8 100
28 2200 2400 125 60 6,8 10
29 500 2400 125 120 6,8 55
30 1500 600 125 120 3,7 10
31 500 2400 125 200 3,7 100
32 2400 600 125 200 3,7 100
33 1700 2400 125 200 3,7 55
34 500 1500 125 200 5,2 10
35 500 600 125 200 6,8 100
36 2400 600 125 200 6,8 10
37 1800 2400 125 200 6,8 100
Cette matrice nous assure un intervalle de tolérance optimal autour des prédictions
effectuées à partir des modèles qui en résulteront. En effet le critère de G-efficacité retenu
permet de minimiser la valeur maximale prise par cet intervalle dans le domaine
expérimental.
On remarque que cette matrice d’expériences est composée de points situés pour la plupart
sur l’extérieur du domaine, c'est-à-dire aux valeurs extrêmes des niveaux des facteurs et de
quelques points utilisant les valeurs centrales des niveaux des facteurs (120 nH, 55 µs,
4,2 Ω,…). Ceci rappele les formes géométriques utilisées dans les constructions historiques
citées au paragraphe 3.6.1. Les réseaux de Doehlert [Doehlert, 70] par exemple cherchent à
couvrir le domaine expérimental de plus uniformément possible et se rapproche alors d’une
figure géométrique en étoile.
154
Chapitre III : Les plans d’expériences, étude de surface de réponse
Nous avons vu au paragraphe 3.6.2.3 que les points leviers représentent des traitements
expérimentaux pour lesquels la réponse mesurée tient une place prépondérante dans le calcul
final des coefficients du modèle. La présence de points leviers n’est pas souhaitée et nécessite
une certitude absolue de la valeur de la réponse mesurée en ces points.
0,9
0,8
0,7
0,6
Leviers s
0,5
0,4
0,3
0,2
0,1
0
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
1
2
3
4
5
6
7
8
9
Points
La présence d’un point levier se traduit par une valeur du terme diagonal de la matrice H
qui lui est associé supérieur à 2p/N ou très différent des autres. Dans notre cas 2p/N est
supérieur à 1,5 et aucun des termes diagonaux n’est très supérieur aux autres.
Nous pouvons donc conclure à l’absence de points leviers dans notre matrice
d’expériences. Les essais seront donc tous réalisés avec la même rigueur et aucune des
réponses mesurées aux différents points ne pèsera plus que les autres sur les calculs des
coefficients des modèles.
4.7. Expérimentation
Les essais à -40°C et 42°C ont été réalisés en étuve. Les essais à 125°C quant à eux ont
été effectués sur plaque chauffante. Les allumeurs ne résistant qu’à 70°C, il était impossible
de pratiquer ces essais en étuve dans une atmosphère à 125°C. Le montage en étuve est
présenté en figure 11 :
155
Chapitre III : Les plans d’expériences, étude de surface de réponse
Le montage pour les essais à 125°C est le même que celui utilisé lors des études de
criblages et présenté dans le second chapitre excepté pour la mesure du courant. En effet lors
des études de criblage, le courant était mesuré à l’aide d’un shunt or dans cette étude et
notamment lors des essais dans une atmosphère à -40°C nous n’avons pas pu utiliser ce même
shunt sans risquer de le détruire. Nous avons donc mesuré le courant à l’aide d’un tore lors de
cette étude.
156
Chapitre III : Les plans d’expériences, étude de surface de réponse
L’amplitude des variations des réponses est importante. Nous pouvons donc supposer que
les effets des facteurs sont supérieurs à l’erreur expérimentale. Dans ce cas seulement les
résultats peuvent être analysés correctement.
L’application de la méthode des moindres carrés sur les résultats d’essais a permis
d’obtenir les 28 coefficients de chacun des modèles, fournis en table 8 :
On note que dans ces modèles certains coefficients comme par exemple le coefficient
associé à l’interaction entre le courant I et le temps ton dans le modèle de surtension ont une
valeur très faible (-0,3223). On peut donc supposer que ces coefficients ne sont pas influents.
Une analyse statistique des éléments des modèles, qui sera présentée au paragraphe 4.10.2,
permettra de répondre à cette question.
157
Chapitre III : Les plans d’expériences, étude de surface de réponse
réponses. Enfin, nous avons vérifié la normalité de la distribution des résidus pour les
modèles retenus.
Source Somme des carrés Degrés de liberté Carré moyen Fobs Probabilité P
Modèle 26234959,751 27 971665,176 195,253 1,3597E-09
Résidus 44788,035 9 4976,448
Total 26279747,390 36
Source Somme des carrés Degrés de liberté Carré moyen Fobs Probabilité P
Modèle 36,952 27 1,369 107,563 1,9488E-08
Résidus 0,115 9 0,013
Total 37,067 36
Nous obtenons pour nos deux réponses une valeur très faible de P ce qui conforte
l’hypothèse de l’utilisation des modèles quadratiques pour modéliser les réponses.
Les qualités descriptives (R²ajusté) et prédictives (Q²) ont été calculées pour ces modèles et
sont fournis en table 11 :
∆V dV/dt
R²ajusté 0,9932 0,9876
Q² 0,9711 0,9472
Ces coefficients sont élevés et devraient augmenter grâce à l’analyse statistique des
coefficients des modèles qui permettra d’éliminer certains facteurs non influents.
Pour cette analyse, nous avons mené en parallèle une analyse de variance et un calcul des
coefficients R²ajusté et Q² associés à chacun des sous modèles obtenus.
158
Chapitre III : Les plans d’expériences, étude de surface de réponse
éléments du modèle dans les figures 12 et 13) et de calculer les coefficients R²ajusté et Q²
associés à ce sous modèle. On réalise ensuite une nouvelle analyse de variance sur ce sous
modèle, on calcule R²ajusté et de Q² et ainsi de suite jusqu’à ce que chacun des éléments
présents dans les sous modèles soient jugés influents.
1
0,995
0,99
0,985
0,98
0,975
0,97
0,965
0,96
0,955
ff
n
ff
et
-T ff²
-R off
co
co n
n
co on
n²
.T
T
go
-I. .I
m
.to
to
-R ²
-I²
-T
-I²
go
o
.to
-T
pl
-U
go
-I.
-to
.L
-U
t
co
Rg
ff.
-L I.t
.R
m
m
.
.R
-U
-T
-T
go
-L
-
m
co
-L
R²adj Q²
0,99
0,98
0,97
0,96
0,95
0,94
0,93
0,92
ff
n
m
om
ff
om
et
f
m
T
go
.I
.to
of
-I²
²
-L -I
.to
go
-T
co
pl
-U
co
co
-I.
Rg
.R
Lc
.lc
m
.R
.L
-U
-L
-L
co
m
co
-T
-I.
-I.
-U
-T
co
-L
R²adj Q²
Fig 13. Evolution des coefficients d'ajustement des modèles de vitesse de commutation
Nous pouvons voir que, pour chacune des deux réponses, l’évolution des deux coefficients
R²ajusté et de Q² se fait en deux étapes. Dans un premier temps, le coefficient augmente et
atteint un maximum puis diminue dans un deuxième temps.
Nous avons donc sélectionné pour chaque réponse le modèle possédant les meilleurs
qualités descriptives (R²ajusté) et prédictives (Q²).
159
Chapitre III : Les plans d’expériences, étude de surface de réponse
Dans le cas où l’optimum de R²ajusté et de Q² n’est pas atteint pour le même modèle, nous
avons choisi de privilégier la qualité prédictive Q² puisque l’utilisation de ces modèles sera
faite avant tout dans un but de prédiction. Ces modèles correspondent à ceux dont les qualités
descriptives et prédictives sont entourées sur les figures 12 et 13.
Les coefficients constituant les modèles résultant de cette analyse sont fournis en
table 12 :
Les qualités descriptives (R²ajusté) et prédictives (Q²) de ces modèles sont fournies en
table 13 :
∆V dV/dt
R²ajusté 0,9953 0,9914
Q² 0,9896 0,9827
Ces valeurs proches de 1 témoignent de la bonne qualité de nos modèles. Nous disposons
donc d’un modèle de surtension et d’un modèle de vitesse de commutation, il nous faut
maintenant vérifier la normalité de la distribution des résidus avant d’effectuer la validation
de ces modèles.
160
Chapitre III : Les plans d’expériences, étude de surface de réponse
Bien que les résidus aient été minimisés grâce à l’utilisation de la méthode des moindres
carrés, il est important de s’assurer que ces résidus ne sont pas anormalement importants en
certains points.
Pour cela, nous avons utilisé la méthode graphique d’Henry présenté en figures 14 et 15 :
2,5
s
1,5
Fractile de la loi normale réduite
0,5
0
-110 -90 -70 -50 -30 -10 10 30 50 70 90
-0,5
-1
-1,5
-2
-2,5
Residus
2,5
e
1,5
Fractile de la loi normale réduite
0,5
0
-0,15 -0,1 -0,05 0 0,05 0,1 0,15 0,2
-0,5
-1
-1,5
-2
-2,5
Résidus
La construction des droites d’Henry donne des nuages de points dont l’alignement est
proche d’une droite. Un test d’Anderson-Darling réalisé sur ces populations donne une valeur
de P pour la surtension et la vitesse de commutation de respectivement 0,504 et 0,146. La
condition de normalité des résidus est donc bien respectée pour chacun des deux modèles à un
seuil α supérieur à 14% pour la vitesse de commutation et 50% pour la surtension. En effet la
valeur P calculée par ce test correspond à la probabilité de rejeter à tord l’hypothèse « la
distribution de la population testée ne suit pas une loi normale ».
161
Chapitre III : Les plans d’expériences, étude de surface de réponse
3000
s
2500
Réponses Calculées
2000
1500
1000
500
500 1000 1500 2000 2500 3000
Réponses mesurées
4,4
3,9
s
Réponses calculées
3,4
2,9
2,4
1,9
1,4
0,9
0,9 1,4 1,9 2,4 2,9 3,4 3,9 4,4
Réponses mesurées
Il est également à noter que les réponses obtenues pour les 37 essais réalisés couvrent
l’ensemble de la plage de variation des réponses sans laisser d’importantes zones de vide.
162
Chapitre III : Les plans d’expériences, étude de surface de réponse
Les surfaces de réponses peuvent présenter les variations des réponses en fonction de
seulement 2 facteurs à la fois, les autres facteurs étant réglés sur une valeur fixe. Les figures
18 et 19 représentent les surfaces de réponses associées aux modèles de surtension et de
vitesse de commutation. Nous avons choisi de présenter la variation de surtension en fonction
de l’inductance Lcom et du temps ton et la variation de vitesse de commutation en fonction de
la tension U et du temps ton, les autres facteurs étant fixés à des valeurs respectant le domaine
expérimental.
163
Chapitre III : Les plans d’expériences, étude de surface de réponse
Les modèles obtenus permettent d’obtenir ces surfaces de réponses pour tout réglage
appartenant au domaine expérimental.
Pour valider entièrement les modèles, nous avons effectué de nouvelles expérimentations
dans le domaine expérimental en des points non testés par le plan d’expériences et utilisant si
possible des niveaux de facteurs non utilisés. La table 14 présente les points de validation et
les résultats obtenus d’une part par l’expérimentation et d’autre part par l’utilisation des
modèles.
164
Chapitre III : Les plans d’expériences, étude de surface de réponse
3100
2900
2700
2500
Surtension s
Mesuré
2300 Calculé
2100 Min
Max
1900
1700
1500
1300
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14
Points de validation
4,5
3,5
3
Mesuré
dV/dt s
2,5 Calculé
2 Min
Max
1,5
0,5
0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14
Points de validation
Bien que parfois proche des bornes de l’intervalle de confiance comme dans le cas de la
vitesse de commutation au point de validation n° 2, l’ensemble des points de validation se
situe à l’intérieur de l’intervalle de tolérance. Les modèles de surtension et de vitesse de
commutation des modules IGBT remplissent donc l’ensemble des conditions pour être
validés.
5. Conclusion
A travers les deux études de criblages présentées dans le second chapitre, 6 facteurs on été
identifiés comme ayant une influence statistiquement significative sur la surtension et la
vitesse de commutation. Un modèle polynomial du second degré prenant en considération 6
facteurs se compose de 28 coefficients.
165
Chapitre III : Les plans d’expériences, étude de surface de réponse
dV dt = 2,48 + 0,87xU − 0,24xT °C − 0,53x Rgoff − 0,26xton − 0,41xU *U + 0,21x Rgoff *Rgoff + 0,16x ton*ton − 0,03xU *I
(3.51)
− 0,08xU *T °C − 0,16xU *Rgoff − 0,03x I *T − 0,04x I *Rgoff − 0,05x I *ton + 0,04xT *Rgoff − 0,12xT *ton + 0,13x Rgoffµton
Ces modèles permettront d’obtenir, pour chaque application, à partir des valeurs des
paramètres de conception, un nuage de point représentant les valeurs de surtension et de
vitesse de commutation en fonction de l’ensemble des paramètres influents et de leurs
variations connues pour l’application traitée.
[Box, 60] G.E.P. Box, D.W. Behnken, “Some new three level designs for
study of quantitative variables”, Technometrics, Vol 2, N°4, 1960.
[Box, 51] G.E.P. Box, K.B. Behnken, “On the experimental attainment of
optimum conditions”, Journal of the Royal Statistical Society, serie
B, Vol 13, 1951.
166
Chapitre III : Les plans d’expériences, étude de surface de réponse
[Box1, 59] G.E.P. Box, N.R. Draper, “A basis for selection of a response
surface design”, Journal of the ASA, 54, 1959.
[Box, 87] G.E.P. Box, N.R. Draper, “Empirical model-building and response
surfaces”, Ed John Wiley & Sons, 1987.
[Chin, 98] W.W. Chin, “The partial least square approach to structural
equation modelling”, Modern methods for business research, G.A.
Marcoulides. Mahwah/NJ/USA, 1998.
[Doehlert, 70] D.H. Doehlert, “Uniform shell designs”, Journal of the Royal
Statistical Society, serie C, N° 19, 1970.
167
Chapitre III : Les plans d’expériences, étude de surface de réponse
[Gauchi, 97] J.P. Gauchi, “Plan d’expériences optimaux pour modèles linéaires,
in : Plans d’expériences, Application à l’entreprise”, Technip, Ed
Paris, 1997.
[Johnson, 83] M.E. Johnson, C.J. Nachtsheim, “Some guidelines for constructing
exact D-optimal designs on convex design spaces”, Technometrics,
Vol. 25, n°3, pp.271-277, 1983.
[Khuri, 87] A.I. Khuri, J.A. Cornell, “Response surfaces: designs and
analysis”, Marcel Dakker, 1987.
[Khuri, 96] A.I. Khuri, J.A. Cornell, “Response surfaces: designs and
analysis”, Marcel Dakker, seconde edition, 1996.
[Kiefer, 59] J. Kiefer, “Optimum experimental designs”, J.R. Statist. Soc. B, vol
21, 1959.
168
Chapitre III : Les plans d’expériences, étude de surface de réponse
[Mitchell, 74] T.J. Mitchell, “An algorithm for the construction of D-Optimal
experimental designs”, Technometrics, vol 16, 1974.
[Shapiro, 65] S.S. Shapiro, M.B. Wilk, “An analysis of variance test for
normality (complete samples)”, Biometrika, Vol. 52, pp. 591-611,
1965.
[Silvey, 80] S.D. Silvey, “Optimal designs: an introduction to the theory for
parameters estimation”, London : Chapman and Hall, 1980.
[Sutton, 77] T.L. Sutton, J.F. McGregor, “The analysis and design of binary
vapour-liquid experiments, part II: The design”, The Canadian
journal of chemical engineering, vol 55, 1977.
169
Chapitre III : Les plans d’expériences, étude de surface de réponse
170
Conclusion et perspectives
Conclusion et perspectives
Ce travail de thèse a été réalisé dans le but d’approfondir la notion d’aire de sécurité d’un
module IGBT de forte puissance utilisé en traction ferroviaire. C’est dans cette optique que
nous avons modélisé deux performances considérées comme critiques pour l’IGBT lors de
son fonctionnement, à savoir la surtension et la vitesse de commutation. L’application des
méthodes de plan d’expériences a permis de traduire ces deux performances dynamiques au
travers de modèles quadratiques.
Deux études de criblage ont permis d’éliminer les facteurs ne présentant pas une influence
statistiquement significative sur les réponses. La réduction du nombre de facteurs à prendre en
compte dans la modélisation a ainsi permis de minimiser le nombre de coefficients à identifier
dans les modèles et par conséquent le nombre minimal d’expériences à effectuer pour cette
modélisation. Au final, sur un ensemble de 10 paramètres considérés comme potentiellement
influents, six facteurs ont été identifiés comme présentant une influence significative sur les
réponses observées. Le nombre de coefficients présents dans les modèles quadratiques s’élève
alors à 28.
Suite à une analyse statistique des résultats, les modèles ont été affinés afin d’optimiser
leurs qualités descriptive et prédictive. Ces modèles ont ensuite été testés dans des régions du
domaine expérimental non explorées par le plan d’expériences. Les prédictions données par
les modèles ont alors été comparées aux résultats réels obtenus par expérimentation en ces
mêmes points ce qui a permis de les valider.
Pour chacune des applications des onduleurs de traction utilisant les modules IGBT
étudiés, il est possible de connaître les valeurs, fixes ou variables, des paramètres présents
dans les modèles. Ces derniers permettent désormais de visualiser la surtension et la vitesse de
commutation au travers d’un nuage de points correspondant aux conditions d’utilisation pour
chaque application. Le point de fonctionnement le plus critique est ensuite identifié et une
combinaison optimale des facteurs peut être trouvée.
Pour compléter cette étude et obtenir une idée précise des marges réelles de sécurité il
parait judicieux d’effectuer des tests à la casse en fonction des différents paramètres de
fonctionnement au point identifié comme étant le plus critique pour l’application. Les
ingénieurs d’Alstom disposeraient alors d’une définition exacte de l’aire de sécurité et
pourrait ajuster certains paramètres de fonctionnement dans le but d’assurer une qualité et une
fiabilité optimale de leurs onduleurs.
171
Conclusion et perspectives
En ce qui concerne les plans d’expériences et plus précisément les algorithmes d’échange
utilisés dans la construction de matrices optimales, le développement d’un algorithme basé sur
le critère de G-efficacité semble intéressant. Ce travail a été entamé. En effet, nous avons
développé un algorithme basé sur ce critère dont le principe reprend celui de Fedorov adapté à
la G-optimalité. Cet algorithme extrait aléatoirement une matrice X à partir d’un ensemble de
points candidats, puis, à chaque itération, réalise l’inversion entre la ligne de la matrice X et la
ligne de l’ensemble des points candidats restant qui maximise l’augmentation de la G-
efficacité de la matrice X. L’algorithme s’arrête lorsque la G-efficacité de X a atteint un
optimum.
Cet algorithme nécessitant un temps de calcul très long, nous avons cherché à l’optimiser.
Le calcul de la G-efficacité nécessite en effet un calcul lourd en chacun des points candidats
du domaine expérimental. En revanche, le critère de D-optimalité, utilisé dans les algorithmes
d’échange des logiciels tels que MODDE, ne calcul lui que le déterminant d’une matrice
p x p, p étant, rappelons-le, le nombre de coefficients du modèle recherché, ce qui est
mathématiquement plus léger. Nous avons alors cherché à associer la puissance de la G-
efficacité à la rapidité de calcul de la D-efficacité. Pour cela, nous avons réalisé un algorithme
composé de deux parties. La première partie utilise un algorithme semblable à celui de
Fedorov basé sur la D-optimalité pour identifier une matrice D-optimale. Le programme
calcul ensuite la G-efficacité de cette matrice et une deuxième partie de l’algorithme, basée
cette fois sur la G-efficacité des matrices, utilisant toujours la même technique d’optimisation
que celle développé par Fedorov et décrite ci-dessus cherche à augmenter ce critère jusqu’à
identifier une matrice G-optimale.
172
Références
Références
[Baliga, 84] B.J. Baliga, M.S. Adler, R.P. Love, P.V. Gray, M.S. Zommer, “The
insulated gate transistor, a new three-terminal-MOS-controlled
bipolar power device”, IEEE Trans. Electron. Devices, vol. 31, pp.
821-828, 1984.
[Baliga, 87] B.J. Baliga, “Modern power devices”, New York, John Wiley &
Sons, 1987.
[Box, 51] G.E.P. Box, K.B. Behnken, “On the experimental attainment of
optimum conditions”, Journal of the Royal Statistical Society, serie
B, Vol 13, 1951.
[Box1, 59] G.E.P. Box, N.R. Draper, “A basis for selection of a response surface
design”, Journal of the ASA, 54, 1959.
173
Références
[Box, 60] G.E.P. Box, D.W. Behnken, “Some new three level designs for study
of quantitative variables”, Technometrics, Vol 2, N°4, 1960.
[Box, 62] G.E.P. Box J.S. Hunter, “The 2k-p fractional factorial plans”,
Technometrics, Vol 4, 1962.
[Box, 87] G.E.P. Box, N.R. Draper, “Empirical model-building and response
surfaces”, Ed John Wiley & Sons, 1987.
[Chin, 98] W.W. Chin, “The partial least square approach to structural equation
modelling”, Modern methods for business research, G.A.
Marcoulides. Mahwah/NJ/USA, 1998.
174
Références
[Doehlert, 70] D.H. Doehlert, “Uniform shell designs”, Journal of the Royal
Statistical Society, serie C, N° 19, 1970.
[Duong, 97] Viet-Son Duong, “Etude de l’intégration d’une protection par fusible
dans les convertisseurs à IGBT”, Thèse de l’INPG, Grenoble, 1997.
[Fisher, 25] R.A. Fisher, “Statistical methods for research workers”, Oliver and
Boyd, Ed. Edinburgh, 1925.
[Fisher, 35] R.A. Fisher, “The design of experiments”, Oliver and Boyd, Ed.
Edinburgh, 1935.
175
Références
[Gauchi, 97] J.P. Gauchi, “Plan d’expériences optimaux pour modèles linéaires, in
: Plans d’expériences, Application à l’entreprise”, Technip, Ed Paris,
1997.
[Hefner, 94] A.R. Hefner, “An experimentally verified IGBT model implemented
in the Saber circuit simulator”, IEEE transaction on Power
Electronics, 1994.
[Hsu, 96] T.S. Hsu, “Behavioural modeling of the IGBT using the
Hammerstein configuration”, IEEE transaction on Power Electronics,
1996.
176
Références
[John, 62] P.W.M. John, “Three quarter replicates of 2n”, Biometrics, Vol 18,
1962.
[Johnson, 83] M.E. Johnson, C.J. Nachtsheim, “Some guidelines for constructing
exact D-optimal designs on convex design spaces”, Technometrics,
Vol. 25, n°3, pp.271-277, 1983.
[Johnstone, 98] P.D. Johnstone, “Planning and Managing Agricultural and Ecological
Experiments”, Routledge, 1998.
[Khuri, 87] A.I. Khuri, J.A. Cornell, “Response surfaces: designs and analysis”,
Marcel Dakker, 1987.
[Khuri, 96] A.I. Khuri, J.A. Cornell, “Response surfaces: designs and analysis”,
Marcel Dakker, seconde edition, 1996.
[Kiefer, 59] J. Kiefer, “Optimum experimental designs”, J.R. Statist. Soc. B, Vol
21, 1959.
[Lochner, 90] R.H. Lochner, J.E. Matar, “Designing for quality, an introduction to
the best of Taguchi and western methods and statistical experimental
design”, Productivity press, ed. Portland, Oregon, 1990.
177
Références
[Mehrotra, 99] Mehrotra, V.; Jun He; Dadkhah, M.S.; Rugg, K.; Shaw, M.C.,
“Wirebond reliability in IGBT-power modules: application of high
resolution strain and temperature mapping”, Power Semiconductor
Devices and ICs, 1999. ISPSD '99. Proceedings., The 11th
International Symposium, pp. 113 – 116, 1999.
[Mitchell, 74] T.J. Mitchell, “An algorithm for the construction of D-Optimal
experimental designs”, Technometrics, vol 16, 1974.
[Musumeci, 96] S. Musumeci, “PT-IGBT model with new parameters extraction for
life-time and Epy dependent behaviour simulation”, 27th Annual
IEEE Power Electronics Specialists Conference, 1996.
[Nelder, 65] J.A. Nelder R. Mead, “A simplex method for function minimization”,
Computer Journal, Vol. 7 1965.
[Plackett, 46] R.L. Plackett J.P. Burman, “The design of optimum multifactorial
experiments”, Biometrika, 1946.
178
Références
[Protiwa, 96] F.F. Protiwa, “New IGBT model for PSpice”, Electronics Letters, Vol
32 N° 25, 1996.
[Roquemore, 76] K.G. Roquemore, “Hybrid designs for quadratic response surfaces”,
Technometrics, Vol. 18, pp. 419-423, 1976.
[Russel, 95] J.P. Russel, “The COMFET – A new high conductance MOS-gated
device”, IEEE Electronic Device Lett, vol. 38, N°3, pp. 561-566,
1995.
[Schafft, 72] Schafft H., “Testing and fabrication of wire bonds electrical
connections – A comprehensive survey”, National Bureau of
Standards, Technical Note, Vol. 726, pp. 106-109, 1972.
[Shapiro, 65] S.S. Shapiro, M.B. Wilk, “An analysis of variance test for normality
(complete samples)”, Biometrika, Vol. 52, pp. 591-611, 1965.
[Sheng, 00] K. Sheng, B.W. Williams, S.J. Finney, “A review of IGBT models”,
IEEE Transactions on Power Electronics, Volume 15, Issue 6, pp
1250-1266, 2000.
[Sheng, 96] K. Sheng, “A new analytical IGBT model with Improved Electrical
Characteristics” IEEE transaction on Power Electronics and
Application, 1996.
[Silvey, 80] S.D. Silvey, “Optimal designs: an introduction to the theory for
parameters estimation”, London : Chapman and Hall, 1980.
179
Références
[Sutton, 77] T.L. Sutton, J.F. McGregor, “The analysis and design of binary
vapour-liquid experiments, part II: The design”, The Canadian
journal of chemical engineering, vol 55, 1977.
[Tzou, 93] J.T. Tzou, “Practical Spice macro model for IGBT”, IECON
Proceeding, 1993.
180
Annexes
Annexes
181
Annexes
182
Annexes
Annexe 1 : Vocabulaire employé lors d’une étude par plan d’expériences ........................... 185
Annexe 2 :Tests de corrélations sur caractéristiques statiques .............................................. 189
Annexe 3 :Influence des caractéristiques statiques ................................................................ 193
Annexe 4 : Plan 1 ; Analyse de variance sur dV/dt ................................................................ 213
Annexe 5 : Plan 2 ; Analyse statistique des résultats ............................................................. 217
Annexe 5.1 : Méthode de Daniel......................................................................................... 219
Annexe 5.2 : Méthode de Lenth .......................................................................................... 221
Annexe 5.3 : Analyse de Variance ...................................................................................... 223
Annexe 6 : Plan 2 ; Analyse graphique des résultats ............................................................. 229
Annexe 7 : Etude de l’interaction entre l’inductance Lge et la température T°C .................. 233
183
Annexes
184
Annexe 1 : Vocabulaire employé lors d’une étude par plan d’expériences
Annexe 1 :
Vocabulaire employé lors d’une étude
par plan d’expériences
185
Annexe 1 : Vocabulaire employé lors d’une étude par plan d’expériences
186
Annexe 1 : Vocabulaire employé lors d’une étude par plan d’expériences
187
Annexe 1 : Vocabulaire employé lors d’une étude par plan d’expériences
188
Annexe 2 : Tests de corrélation sur les caractéristiques statiques
Annexe 2 :
Tests de corrélations sur caractéristiques
statiques
189
Annexe 2 : Tests de corrélation sur les caractéristiques statiques
190
Annexe 2 : Tests de corrélation sur les caractéristiques statiques
Corrélation entre la chute de tension Vcesat et le courant de fuite Ices aux bornes de
l’IGBT à 25°C :
0,350
0,300
0,250
Ices à 25°C
0,200
0,150
0,100
0,050
0,000
3,460 3,480 3,500 3,520 3,540 3,560 3,580 3,600 3,620 3,640 3,660 3,680
Vcesat à 25°C
La valeur de r calculé est de 0,113 ce qui n’est pas significatif comme le laisse supposer
la représentation graphique.
Corrélation entre la chute de tension Vcesat et le courant de fuite Ices aux bornes de
l’IGBT à 125°C :
60
50
40
Ices 125°C
30
20
10
0
4,250 4,300 4,350 4,400 4,450 4,500 4,550 4,600
Vcesat 125°C
La valeur de r calculé est de 0,714 ce qui est significatif, il existe donc une corrélation
entre la chute de tension Vcesat et le courant de fuite Ices aux bornes de l’IGBT.
191
Annexe 2 : Tests de corrélation sur les caractéristiques statiques
192
Annexe 3 : Influence des caractéristiques statiques
Annexe 3 :
Influence des caractéristiques statiques
193
Annexe 3 : Influence des caractéristiques statiques
194
Annexe 3 : Influence des caractéristiques statiques
Les 18 réglages testés dans ce premier plan d’expériences sont les suivants :
195
Annexe 3 : Influence des caractéristiques statiques
774 1,46
772 1,45
770
1,44
768
Surtension s
1,43
dV/dt s
766 Surtension
1,42
764 dV/dt
1,41
762
1,40
760
758 1,39
756 1,38
3,450 3,500 3,550 3,600 3,650 3,700
Vcesat
Point 2 :
2770 3,03
2768 3,02
2766
3,01
2764
Surtension s
3,00
2762 dV/dt s Surtension
2,99
2760 dV/dt
2,98
2758
2,97
2756
2754 2,96
2752 2,95
3,450 3,500 3,550 3,600 3,650 3,700
Vcesat
Point 3 :
902 1,48
901 1,47
900 1,46
899 1,45
Surtension s
898 1,44
dV/dt s
Surtension
897 1,43
dV/dt
896 1,42
895 1,41
894 1,40
893 1,39
892 1,38
3,450 3,500 3,550 3,600 3,650 3,700
Vcesat
196
Annexe 3 : Influence des caractéristiques statiques
Point 4 :
2930 3,09
3,08
2925 3,07
3,06
Surtension s
3,05
2920
dV/dt s
3,04 Surtension
3,03 dV/dt
2915
3,02
3,01
2910 3,00
2,99
2905 2,98
3,450 3,500 3,550 3,600 3,650 3,700
Vcesat
Point 5 :
1020 1,39
1,39
1018
1,38
1016 1,38
Surtension s
1,37
dV/dt s
1014 1,37 Surtension
1,36 dV/dt
1012
1,36
1010 1,35
1,35
1008
1,34
1006 1,34
3,450 3,500 3,550 3,600 3,650 3,700
Vcesat
Point 6 :
3090 3,30
3085 3,28
3080
3,26
Surtension s
3075
dV/dt s
3,24
Surtension
3070
dV/dt
3,22
3065
3,20
3060
3055 3,18
3050 3,16
3,450 3,500 3,550 3,600 3,650 3,700
Vcesat
197
Annexe 3 : Influence des caractéristiques statiques
Point 7 :
772 1,38
770 1,37
768 1,36
1,35
766
Surtension s
1,34
764
dV/dt s
1,33 Surtension
762
1,32 dV/dt
760
1,31
758
1,30
756 1,29
754 1,28
752 1,27
3,450 3,500 3,550 3,600 3,650 3,700
Vcesat
Point 8 :
2781 2,96
2780 2,94
2779 2,92
Surtension s
dV/dt s
Surtension
2778 2,90
dV/dt
2777 2,88
2776 2,86
2775 2,84
3,450 3,500 3,550 3,600 3,650 3,700
Vcesat
Point 9 :
890 1,38
1,37
888
1,36
1,35
886
Surtension s
1,34
dV/dt s
Surtension
884 1,33
dV/dt
1,32
882
1,31
1,30
880
1,29
878 1,28
3,450 3,500 3,550 3,600 3,650 3,700
Vcesat
198
Annexe 3 : Influence des caractéristiques statiques
Point 10 :
2970 3,04
3,03
2965 3,02
3,01
2960
Surtension s
3,00
dV/dt s
2,99 Surtension
2955
2,98 dV/dt
2,97
2950
2,96
2945 2,95
2,94
2940 2,93
3,450 3,500 3,550 3,600 3,650 3,700
Vcesat
Point 11 :
1030 1,34
1,32
1025
1,30
Surtension s
1020
dV/dt s
1,28
Surtension
dV/dt
1,26
1015
1,24
1010
1,22
1005 1,20
3,450 3,500 3,550 3,600 3,650 3,700
Vcesat
Point 12 :
3110 3,15
3,14
3105
3,13
3100
Surtension s
3,12
dV/dt s
Surtension
3095 3,11
dV/dt
3,10
3090
3,09
3085
3,08
3080 3,07
3,450 3,500 3,550 3,600 3,650 3,700
Vcesat
199
Annexe 3 : Influence des caractéristiques statiques
Point 13 :
723 1,24
722
1,22
721
1,20
720
Surtension s
1,18
719
dV/dt s
Surtension
718 1,16
dV/dt
717
1,14
716
1,12
715
1,10
714
713 1,08
4,250 4,300 4,350 4,400 4,450 4,500 4,550 4,600
Vcesat
Point 14 :
2830 2,76
2825 2,75
2820 2,75
Surtension s
dV/dt s
Surtension
2815 2,74
dV/dt
2810 2,74
2805 2,73
2800 2,73
4,250 4,300 4,350 4,400 4,450 4,500 4,550 4,600
Vcesat
Point 15 :
836 1,24
834
1,22
832
1,20
830
Surtension s
dV/dt s
828 1,18
Surtension
826 dV/dt
1,16
824
1,14
822
1,12
820
818 1,10
4,250 4,300 4,350 4,400 4,450 4,500 4,550 4,600
Vcesat
200
Annexe 3 : Influence des caractéristiques statiques
Point 16 :
3035 2,84
3030 2,83
3025 2,83
2,82
Surtension s
3020
dV/dt s
2,82 Surtension
3015
2,81 dV/dt
3010
2,81
3005 2,80
3000 2,80
2995 2,79
4,250 4,300 4,350 4,400 4,450 4,500 4,550 4,600
Vcesat
Point 17 :
960 1,22
1,22
955
1,21
1,21
950
Surtension s
1,20
dV/dt s
Surtension
945 1,20
dV/dt
1,19
940
1,19
1,18
935
1,18
930 1,17
4,250 4,300 4,350 4,400 4,450 4,500 4,550 4,600
Vcesat
Point 18 :
3165 2,88
2,87
3160
2,86
3155
2,85
Surtension s
dV/dt s
3130 2,79
4,250 4,300 4,350 4,400 4,450 4,500 4,550 4,600
Vcesat
201
Annexe 3 : Influence des caractéristiques statiques
774 1,46
772 1,45
770
1,44
768
Surtension s
1,43
dV/dt s
766 Surtension
1,42
764 dV/dt
1,41
762
760 1,40
758 1,39
756 1,38
2,750 2,800 2,850 2,900 2,950 3,000 3,050 3,100 3,150
Vf
Point 2 :
2770 3,03
2768 3,02
2766 3,01
2764
Surtension s
3,00
2762 dV/dt s Surtension
2,99
2760 dV/dt
2,98
2758
2756 2,97
2754 2,96
2752 2,95
2,750 2,800 2,850 2,900 2,950 3,000 3,050 3,100 3,150
Vf
Point 3 :
902 1,48
901 1,47
900 1,46
899 1,45
Surtension s
898 1,44
dV/dt s
Surtension
897 1,43
dV/dt
896 1,42
895 1,41
894 1,40
893 1,39
892 1,38
2,750 2,800 2,850 2,900 2,950 3,000 3,050 3,100 3,150
Vf
202
Annexe 3 : Influence des caractéristiques statiques
Point 4 :
2930 3,09
3,08
2925 3,07
3,06
Surtension s
3,05
2920
dV/dt s
3,04 Surtension
3,03 dV/dt
2915
3,02
3,01
2910 3,00
2,99
2905 2,98
2,750 2,800 2,850 2,900 2,950 3,000 3,050 3,100 3,150
Vf
Point 5 :
1020 1,39
1,39
1018
1,38
1016 1,38
Surtension s
1,37
dV/dt s
1014 1,37 Surtension
1,36 dV/dt
1012
1,36
1010 1,35
1,35
1008
1,34
1006 1,34
2,750 2,800 2,850 2,900 2,950 3,000 3,050 3,100 3,150
Vf
Point 6 :
3090 3,30
3085 3,28
3080
3,26
Surtension s
3075
dV/dt s
3,24
Surtension
3070
dV/dt
3,22
3065
3,20
3060
3055 3,18
3050 3,16
2,750 2,800 2,850 2,900 2,950 3,000 3,050 3,100 3,150
Vf
203
Annexe 3 : Influence des caractéristiques statiques
Point 7 :
772 1,38
770 1,37
768 1,36
1,35
766
Surtension s
1,34
764
dV/dt s
1,33 Surtension
762
1,32 dV/dt
760
1,31
758
1,30
756 1,29
754 1,28
752 1,27
2,750 2,800 2,850 2,900 2,950 3,000 3,050 3,100 3,150
Vf
Point 8 :
2781 2,96
2780 2,94
2779 2,92
Surtension s
dV/dt s
Surtension
2778 2,90
dV/dt
2777 2,88
2776 2,86
2775 2,84
2,750 2,800 2,850 2,900 2,950 3,000 3,050 3,100 3,150
Vf
Point 9 :
890 1,38
1,37
888
1,36
1,35
886
Surtension s
1,34
dV/dt s
Surtension
884 1,33
dV/dt
1,32
882
1,31
1,30
880
1,29
878 1,28
2,750 2,800 2,850 2,900 2,950 3,000 3,050 3,100 3,150
Vf
204
Annexe 3 : Influence des caractéristiques statiques
Point 10 :
2970 3,04
3,03
2965 3,02
3,01
2960
Surtension s
3,00
dV/dt s
2,99 Surtension
2955
2,98 dV/dt
2,97
2950
2,96
2945 2,95
2,94
2940 2,93
2,750 2,800 2,850 2,900 2,950 3,000 3,050 3,100 3,150
Vf
Point 11:
1030 1,34
1,32
1025
1,30
Surtension s
1020
dV/dt s
1,28
Surtension
dV/dt
1,26
1015
1,24
1010
1,22
1005 1,20
2,750 2,800 2,850 2,900 2,950 3,000 3,050 3,100 3,150
Vf
Point 12 :
3110 3,15
3,14
3105
3,13
3100
Surtension s
3,12
dV/dt s
Surtension
3095 3,11
dV/dt
3,10
3090
3,09
3085
3,08
3080 3,07
2,750 2,800 2,850 2,900 2,950 3,000 3,050 3,100 3,150
Vf
205
Annexe 3 : Influence des caractéristiques statiques
Point 13 :
723 1,24
722
1,22
721
1,20
720
Surtension s
1,18
719
dV/dt s
Surtension
718 1,16
dV/dt
717
1,14
716
1,12
715
1,10
714
713 1,08
2,750 2,800 2,850 2,900 2,950 3,000 3,050
Vf
Point 14 :
2830 2,76
2825 2,75
2820 2,75
Surtension s
dV/dt s
Surtension
2815 2,74
dV/dt
2810 2,74
2805 2,73
2800 2,73
2,750 2,800 2,850 2,900 2,950 3,000 3,050
Vf
Point 15 :
836 1,24
834
1,22
832
1,20
830
Surtension s
dV/dt s
828 1,18
Surtension
826 dV/dt
1,16
824
1,14
822
1,12
820
818 1,10
2,750 2,800 2,850 2,900 2,950 3,000 3,050
Vf
206
Annexe 3 : Influence des caractéristiques statiques
Point 16 :
3035 2,84
3030 2,83
3025 2,83
2,82
Surtension s
3020
dV/dt s
2,82 Surtension
3015
2,81 dV/dt
3010
2,81
3005 2,80
3000 2,80
2995 2,79
2,750 2,800 2,850 2,900 2,950 3,000 3,050
Vf
Point 17 :
960 1,22
1,22
955
1,21
1,21
950
Surtension s
1,20
dV/dt s
Surtension
945 1,20
dV/dt
1,19
940
1,19
1,18
935
1,18
930 1,17
2,750 2,800 2,850 2,900 2,950 3,000 3,050
Vf
Point 18 :
3165 2,88
2,87
3160
2,86
3155
2,85
Surtension s
dV/dt s
3130 2,79
2,750 2,800 2,850 2,900 2,950 3,000 3,050
Vf
207
Annexe 3 : Influence des caractéristiques statiques
772 1,38
770 1,37
768 1,36
1,35
766
Surtension s
1,34
764
dV/dt s
1,33 Surtension
762
1,32 dV/dt
760
1,31
758
1,30
756 1,29
754 1,28
752 1,27
0,000 0,010 0,020 0,030 0,040 0,050 0,060 0,070 0,080 0,090
Ices
Point 8 :
2781 2,96
2780 2,94
2779 2,92
Surtension s
dV/dt s Surtension
2778 2,90
dV/dt
2777 2,88
2776 2,86
2775 2,84
0,000 0,010 0,020 0,030 0,040 0,050 0,060 0,070 0,080 0,090
Ices
Point 9 :
890 1,38
1,37
888
1,36
1,35
886
Surtension s
1,34
dV/dt s
Surtension
884 1,33
dV/dt
1,32
882
1,31
1,30
880
1,29
878 1,28
0,000 0,010 0,020 0,030 0,040 0,050 0,060 0,070 0,080 0,090
Ices
208
Annexe 3 : Influence des caractéristiques statiques
Point 10 :
2970 3,04
3,03
2965 3,02
3,01
2960
Surtension s
3,00
dV/dt s
2,99 Surtension
2955
2,98 dV/dt
2,97
2950
2,96
2945 2,95
2,94
2940 2,93
0,000 0,010 0,020 0,030 0,040 0,050 0,060 0,070 0,080 0,090
Ices
Point 11 :
1030 1,34
1,32
1025
1,30
Surtension s
1020
dV/dt s
1,28
Surtension
dV/dt
1,26
1015
1,24
1010
1,22
1005 1,20
0,000 0,010 0,020 0,030 0,040 0,050 0,060 0,070 0,080 0,090
Ices
Point 12 :
3110 3,15
3,14
3105
3,13
3100
Surtension s
3,12
dV/dt s
Surtension
3095 3,11
dV/dt
3,10
3090
3,09
3085
3,08
3080 3,07
0,000 0,010 0,020 0,030 0,040 0,050 0,060 0,070 0,080 0,090
Ices
209
Annexe 3 : Influence des caractéristiques statiques
Point 13 :
723 1,24
722
1,22
721
1,20
720
Surtension s
1,18
719
dV/dt s
Surtension
718 1,16
dV/dt
717
1,14
716
1,12
715
1,10
714
713 1,08
0 5 10 15 20 25 30 35 40
Ices
Point 14 :
2830 2,76
2825 2,75
2820 2,75
Surtension s
dV/dt s
Surtension
2815 2,74
dV/dt
2810 2,74
2805 2,73
2800 2,73
0 5 10 15 20 25 30 35 40
Ices
Point 15 :
836 1,24
834
1,22
832
1,20
830
Surtension s
dV/dt s
828 1,18
Surtension
826 dV/dt
1,16
824
1,14
822
1,12
820
818 1,10
0 5 10 15 20 25 30 35 40
Ices
210
Annexe 3 : Influence des caractéristiques statiques
Point 16 :
3035 2,84
3030 2,83
3025 2,83
2,82
Surtension s
3020
dV/dt s
2,82 Surtension
3015
2,81 dV/dt
3010
2,81
3005 2,80
3000 2,80
2995 2,79
0 5 10 15 20 25 30 35 40
Ices
Point 17 :
960 1,22
1,22
955
1,21
1,21
950
Surtension s
1,20
dV/dt s
Surtension
945 1,20
dV/dt
1,19
940
1,19
1,18
935
1,18
930 1,17
0 5 10 15 20 25 30 35 40
Ices
Point 18 :
3165 2,88
2,87
3160
2,86
3155
2,85
Surtension s
dV/dt s
3130 2,79
0 5 10 15 20 25 30 35 40
Ices
211
Annexe 3 : Influence des caractéristiques statiques
212
Annexe 4 : Plan 1, analyse de variance sur dV/dt
Annexe 4 :
Plan 1 ; Analyse de variance sur dV/dt
213
Annexe 4 : Plan 1, analyse de variance sur dV/dt
214
Annexe 4 : Plan 1, analyse de variance sur dV/dt
Les résultats de vitesse de commutation mesurés ont fait l’objet d’une analyse de variance.
Cette analyse permet d’identifier les facteurs et interactions ayant une influence
statistiquement significative sur les variations de la vitesse de commutation.
Après suppression des éléments jugés non influents, la significativité des éléments restant
est vérifiée.
Les trois facteurs étudiés et les interactions entre la tension et le courant et entre la tension
et la température ont une influence statistiquement significative sur la vitesse de commutation
des modules.
215
Annexe 4 : Plan 1, analyse de variance sur dV/dt
216
Annexe 5 : Plan 2 ; analyse statistique des résultats
Annexe 5 :
Plan 2 ; Analyse statistique des résultats
217
Annexe 5 : Plan 2 ; analyse statistique des résultats
218
Annexe 5 : Plan 2 ; analyse statistique des résultats
2
Fractile théorique semi-normal
Lcom
1,5 ton
Rgoff
1
Lcom/ton
Rgoff/ton
0,5
0
0 5 10 15 20 25 30 35 40
Valeur absolue des effets moyens
2
Fractile théorique semi-normal
Lcom
1,5 ton
Rgoff
1 Rgoff/ton
Lcom/ton
Lcom/Rgoff
0,5
0
0 5 10 15 20 25
Valeur absolue des effets moyens
2
Fractile théorique semi-normal
Lcom
1,5
Rgoff/ton ton
1 Rgoff
Lcom/ton
0,5
0
0 2 4 6 8 10 12 14 16
Valeur absolue des effets moyens
219
Annexe 5 : Plan 2 ; analyse statistique des résultats
Vitesse de commutation :
Au point a (500 V ; 600 A) :
2,5
s
Fractile théorique semi-normal
2
Rgoff
1,5
ton
0,5
0
Rgoff/ton
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7
Valeur absolue des effets moyens
2
Rgoff
1,5
ton
0,5
0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
Valeur absolue des effets moyens
2
Rgoff
1,5
ton
0,5
0
0 0,2 0,4 0,6 0,8 1 1,2
Valeur absolue des effets moyens
220
Annexe 5 : Plan 2 ; analyse statistique des résultats
80
60
Coefficients s
40
20
ff
f
ge
on
n
n
om
of
e
go
/to
of
to
Lg
/L
To
Rg
f/t
-20
Rg
/R
e/
om
Lc
om
of
Lg
e/
om
Rg
Lc
Lg
Lc
Lc
-40
-60
Variables du modèle
100
50
Coefficients s
0
ff
f
ge
on
n
n
of
om
f
e
go
n
/to
of
to
Lg
/L
to
f/t
Rg
Rg
/R
e/
om
Lc
om
of
Lg
e/
om
-50
Rg
Lc
Lg
Lc
Lc
-100
-150
Variables du modèle
150
100
Coefficients s
50
0
ff
f
ge
on
n
n
of
om
f
e
go
n
/to
of
to
Lg
/L
to
Rg
f/t
Rg
/R
e/
om
Lc
om
-50
of
Lg
e/
om
Rg
Lc
Lg
Lc
Lc
-100
-150
Variables du modèle
221
Annexe 5 : Plan 2 ; analyse statistique des résultats
Vitesse de commutation :
Au point a (500 V ; 600 A) :
0,15
0,1
0,05
0
s
ff
f
ge
on
n
n
Coefficients
om
of
e
-0,05
go
of
/to
to
Lg
/L
to
f/t
Rg
Rg
/R
e/
Lc
om
om
of
Lg
e/
om
Rg
Lc
Lg
Lc
-0,1
Lc
-0,15
-0,2
-0,25
-0,3
-0,35
Variables du modèle
0,4
s
0,2
Coefficients
0
ff
f
ge
on
n
n
f
om
of
e
go
of
/to
to
Lg
/L
to
f/t
Rg
Rg
/R
e/
om
Lc
om
of
Lg
e/
-0,2
om
Rg
Lc
Lg
Lc
Lc
-0,4
-0,6
Variables du modèle
0,2
0,1
s
0
Coefficients
ff
f
ge
on
n
n
om
of
e
go
of
/to
to
-0,1
Lg
/L
to
f/t
Rg
Rg
/R
e/
Lc
om
om
of
Lg
e/
om
Rg
Lc
Lg
Lc
Lc
-0,2
-0,3
-0,4
-0,5
-0,6
Variables du modèle
222
Annexe 5 : Plan 2 ; analyse statistique des résultats
Surtension :
223
Annexe 5 : Plan 2 ; analyse statistique des résultats
224
Annexe 5 : Plan 2 ; analyse statistique des résultats
225
Annexe 5 : Plan 2 ; analyse statistique des résultats
Vitesse de commutation :
226
Annexe 5 : Plan 2 ; analyse statistique des résultats
227
Annexe 5 : Plan 2 ; analyse statistique des résultats
228
Annexe 6 : Plan 2 ; analyse graphique des résultats
Annexe 6 :
Plan 2 ; Analyse graphique des résultats
229
Annexe 6 : Plan 2 ; analyse graphique des résultats
230
Annexe 6 : Plan 2 ; analyse graphique des résultats
1000
s
950
Réponses mesurées
900
850
800
750
700
700 750 800 850 900 950 1000 1050
Réponses calculées par le modèle
2000
s
Réponses mesurées
1900
1800
1700
1600
1500
1500 1600 1700 1800 1900 2000 2100
Réponses calculées par le modèle
3000
s
2900
Réponses mesurées
2800
2700
2600
2500
2400
2400 2500 2600 2700 2800 2900 3000 3100
Réponses calculées par le modèle
231
Annexe 6 : Plan 2 ; analyse graphique des résultats
Vitesse de commutation
Point a (500 V ; 600 A) :
2,2
2
s
Réponses mesurées
1,8
1,6
1,4
1,2
1
1 1,2 1,4 1,6 1,8 2 2,2
Réponses calculées par le modèle
3,4
s
3,2
Réponses mesurées
2,8
2,6
2,4
2,2
2
2 2,2 2,4 2,6 2,8 3 3,2 3,4 3,6
Réponses calculées par le modèle
3,8
s
Réponses mesurées
3,6
3,4
3,2
2,8
2,6
2,4
2,4 2,6 2,8 3 3,2 3,4 3,6 3,8 4 4,2
Réponses calculées par le modèle
232
Annexe 7 : Etude de l’interaction entre Lge et T°C
Annexe 7 :
Etude de l’interaction entre l’inductance
Lge et la température T°C
233
Annexe 7 : Etude de l’interaction entre Lge et T°C
234
Annexe 7 : Etude de l’interaction entre Lge et T°C
Pour vérifier l’absence d’interaction entre l’inductance Lge, liée à la longueur du câble
reliant l’allumeur à la commande de l’IGBT, et la température de fonctionnement T°C, nous
avons réalisé un plan complet de 4 expériences.
Lge T°C
A Câble court (cc) 25°C
B Câble long (cl) 125°C
Les résultats obtenus pour les 4 essais sont résumés dans le tableau suivant :
Comme pour les autres essais, 5 répétitions ont été réalisés. Une analyse de variance
permet d’identifier les facteurs ayant une influence statistiquement significative sur les
réponses observées.
235
Annexe 7 : Etude de l’interaction entre Lge et T°C
Nous constatons donc que l’interaction entre l’inductance Lge et la température T°C n’est
pas statistiquement significative sur l’un ni l’autre des réponses mesurées.
236
237
238
Résumé
La conception des onduleurs de traction ferroviaire développés par Alstom Transport se base sur l’aire
de sécurité de ces modules. La surtension et la vitesse de commutation des modules IGBT de forte
puissance tels que ceux utilisé en traction ferroviaire peuvent être considérés comme des performances
critiques dans la définition de cette aire de sécurité. La modélisation de ces performances, effectuée dans ce
travail de recherche, repose sur l’utilisation des méthodes de plan d’expériences. Ces méthodes, définies
comme un agencement raisonné d’essais et considérées comme l’un des outils statistiques le plus puissant
développé au 20ème siècle, ont permis d’obtenir des modèles de façon empirique en n’effectuant qu’un
nombre minimal d’expérimentations. Ces modèles, de forme quadratique, prennent en compte l’ensemble
des facteurs préalablement jugés influents sur les performances observées et améliorent la connaissance du
comportement dynamique des modules IGBT dans chacune de leurs applications.
Mots clés :
Plan d’expériences, Criblage, Surface de réponse, Critère d’optimalité, IGBT, Surtension, Vitesse de
commutation.
Summary
Design of the IGBT power converter developed by Alstom Transport is based on the safety area of these
modules. Overvoltage and commutation speed of high power IGBT modules as these used in railway
traction can be considered as critical performances in the safety area definition for these modules. In this
PhD work, modelling of these performances is made using design of experiments methods. These methods
can be define as reasoned organisation of array and considered as one of the most powerful statistical tool
developed during the 20th century. Design of experiments allows to obtain empirical models using a
minimal number of experiments. These quadratic models take into account all the influent factors on the
observed performances previously identify and increase the knowledge of the dynamical behaviour of
IGBTs modules in each one of its applications.
Key-words :
Design of experiments, Screening, Response surface method, Optimality criteria, IGBT, Overvoltage,
Commutation speed.