10836325a2cd67bae1b548cabe514093
10836325a2cd67bae1b548cabe514093
10836325a2cd67bae1b548cabe514093
Confidentialité : X
Non Oui (Durée : 1 an 2 ans)
Signature du candidat
Bibliothèque :
Université Paris-Dauphine – MIDO – Bureau B536, Place du Maréchal de Lattre de Tassigny, 75016 PARIS
Acronymes
Les récentes réglementations, notamment la directive Solvabilité II et les normes IFRS 17,
revendiquent une évaluation des passifs d’assurance en valeur de marché. Afin d’y parvenir, les
acteurs du marché utilisent les processus de calculs issus de la théorie financière. Il s’agit de l’univers
neutre au risque, dans le cadre d’absence d’opportunité d’arbitrage sur le marché, qui s’est développé
avec l’essor des produits dérivés.
Ce processus de valorisation est discuté. Le papier Armel et Planchet (2020c) démontre
qu’il existe sur le marché de l’épargne en euros des opportunités d’arbitrage, ce qui remet en cause,
l’existence et l’utilisation de la probabilité neutre au risque. D’autre part les scénarios économiques
sous la probabilité neutre au risque induisent un biais dans le processus de valorisation des passifs
des contrats d’épargne en euros.
Dans ce contexte, le papier Armel et Planchet (2020b) propose un générateur de scénarios
économiques développé sous la probabilité historique, à l’aide d’un déflateur stochastique pour
actualiser les flux. Dans le document, le générateur de scénarios économiques est calibré à partir
des prix de marché actuels selon une approche implicite. L’enjeu des travaux du mémoire est de
trouver une méthode d’estimation des paramètres du générateur avec des méthodes statistiques,
reposant sur un historique de données passées. La méthode proposée est une méthode d’estimation
par estimateur du maximum de vraisemblance.
Mots-clés : Epargne en euros, Risque neutre, Calibrage, Déflateurs, Estimation par maximum
de vraisemblance, CIR ++.
Abstract
Recent regulations, in particular the Solvency II directive and IFRS 17, call for the valuation
of insurance liabilities at market value. In order to achieve this, the market participants use
calculation processes that are derived from financial theory. This is the risk-neutral universe, in
the context of the absence of arbitrage opportunities on the market, that has developed with the
rise of derivatives.
This valuation process is much debated. The paper Armel and Planchet (2020c) demonstrates
that there are arbitrage opportunities on the euro savings market, which puts into question the
existence and use of the risk-neutral likelihood. On the other hand, Karoui et al. (2017) maintains
that these valuation methods should only be reserved for derivative products, and that they are not
adapted to insurance products. Otherwise, economic scenarios under the risk-neutral probability
injected in the ALM (Asset and Liability Management) engines induce a bias in the valuation of
liabilities.
In this context, the paper Armel and Planchet (2020b) proposes an economic scenario generator
developed under historical likelihood, using a stochastic deflator to discount the cash flows. In the
paper, the economic scenario generator is calibrated from current market prices using an implicit
approach. The challenge in this thesis is to find a method for estimating the parameters of the
generator with statistical methods, based on a history of past data. The proposed method is a
maximum likelihood estimator.
Keywords : Euro savings, Risk neutral, Calibration, Deflators, Maximum likelihood estimator,
CIR ++.
6
Note de Synthèse
La directive Solvabilité II et les normes IFRS 17 revendiquent une valorisation du bilan en valeur
de marché pour refléter sa dynamique et sa réalité instantanée. Le cadre du processus d’évaluation
actuellement utilisé est celui de l’évaluation des prix des produits dérivés. Il s’agit du concept de risque
neutralité. L’univers neutre au risque, est un univers conceptuel et non observé, qui ne change pas les
états du monde mais qui change leur probabilité d’occurrence. Dans le monde neutre au risque ,
les investisseurs ne sont pas sensibles aux fluctuations des actifs, et ne demandent pas de prime de
risque en contrepartie.
Trois éléments peuvent rendre discutable l’utilisation de la probabilité neutre au risque pour la
valorisation des passifs des contrats d’épargne euros :
• les contrats d’épargne en euros ne sont pas réplicables (cf. Armel et Planchet (2020b)),
• des opportunités d’arbitrage persistent sur le marché des contrats d’épargne en euros (cf. Armel
et Planchet (2020b)),
• les scénarios économiques sous la probabilité neutre au risque injectés dans les moteurs ALM
(Asset and Liability Management) induisent un biais dans la valorisation des passifs (cf. Armel
et Planchet (2020b)).
Le mémoire se focalise sur la problématique engendrée par le troisième point. La valorisation ac-
tuelle des passifs des contrats d’épargne en euros se manifeste par le calcul du Best Estimate. Il résulte
des flux futurs de trésorie actualisés au taux sans risque. Ces flux sont calculés par un modèle ALM qui
prend en entrée des scénarios économiques produits par un générateur de scénarios économiques. En
utilisant la probabilité neutre au risque dans les générateurs de scénarios économiques, des scénarios
extrêmes avec une forte probabilité d’occurrence sont injectés dans le modèle ALM, autrement dit
il s’agit des scénarios défavorables qui sont peu probables sous P, mais dont l’occurrence est beau-
coup plus forte sous Q. Cela soulève une incohérence quant à l’interprétation et à l’utilisation de ces
scénarios, qui ne coı̈ncident pas avec la réalité.
L’article Armel et Planchet (2020c) met en avant que dans les moteurs ALM, des fonctions de
réactions sont implémentées. Ce sont des fonctions qui modélisent la réaction de l’assuré face à un
scénario économique. C’est notamment le cas pour le rachat dynamique, modélisé dans le moteur ALM
par un taux de rachat qui dépend du taux servi par l’assureur, et du taux attendu par l’assuré. Le
papier de recherche Armel et Planchet (2020c) démontre deux éléments aux travers de leur étude.
Premièrement, comme des scénarios neutres au risque atypiques sont injectés dans le moteur ALM, les
fonctions de réaction sont difficiles à interpréter parce qu’elles réagissent à des scénarios non observés,
et peu probables. Deuxièmement pour une même évaluation du Best Estimate, les auteurs de Armel
7
8
et Planchet (2020c) ont montré qu’en injectant les sorties d’un GSE sous probabilité historique dans
le moteur ALM, le Best Estimate résultant est inférieur au Best Estimate obtenu en ayant introduit
les scénarios du GSE sous la probabilité neutre au risque dans le moteur ALM. L’article conclut que
les scénarios historiques diminuent le nombre de scénarios atypiques, et entraı̂nent dans le moteur
ALM une réaction moins extrême des assurés, et par conséquent un taux de rachat moins élevé, ce
qui diminue le passif de l’assureur.
Les travaux des papiers de recherche Cheng et Planchet (2018a), Armel et Planchet (2020c),
et Armel et Planchet (2020b) réunis établissent :
• une méthode pour diffuser un GSE en probabilité historique (cf. Cheng et Planchet (2018a)) :
• une méthode pour calibrer un GSE sous la probabilité P (cf.Armel et Planchet (2020b)) :
• les effets sur le Best Estimate en introduisant des scénarios sous P dans le moteur ALM et non
pas des scénarios sous Q (cf. Armel et Planchet (2020c)).
Pour bien distinguer : un calibrage implicite est une détermination des paramètres d’un modèle
à partir des prix des produits dérivés actuels du marché, en utilisant les formules fermées qui leurs
sont associés (formule de pricing ), tandis qu’un calibrage historique est une estimation des pa-
ramètres du modèle à partir d’un n-échantillon, d’une chronologie ou encore d’un historique de données
observées (par exemple à l’aide d’une méthode des moments, d’un estimateur du maximum de vrai-
semblance, ou d’un modéle linéaire).
L’objectif donné au mémoire intervient dans l’étape ci-dessus mise en gras : il s’agit de trouver
un processus de calibrage historique robuste du GSE de Armel et Planchet (2020b), à partir d’un
historique de données, et non pas à partir d’une méthode implicite impliquant l’utilisation des prix
actuels des produits dérivés.
Calibrer le GSE de l’article Armel et Planchet (2020b) est équivalent à calibrer un processus
CIR++, qui modélise la dynamique du taux court instantané dans le GSE, car l’ensemble des variables
du GSE dépendent de ses paramètres.
9
Deux méthodes ont été proposées pour estimer les paramètres du CIR++ selon une méthode
historique. Tout d’abord une méthode d’estimation des paramètres du CIR ++ par l’estimateur du
maximum de vraisemblance sur la loi du taux court instantané du CIR ++.
La loi du taux court instantané dépend des paramètres du CIR ++. Le taux court instantané est
une variable continue, qui est par essence non observable. Un n-échantillon du taux court instantané a
été reconstitué à partir d’un historique de courbes de taux zéro-coupon et du modèle de Nelson Siegel.
La loi du taux court instantané est une Khi-deux non centrée. A partir de la densité du Khi-deux non
centrée et du n-échantillon, la vraisemblance a été maximisée. Celle-ci n’est pas continue, et présente
beaucoup d’irrégularités, ce qui n’a pas rendu aisé son optimisation. La vraisemblance est définie en
très peu de points, ce qui montre que le n-échantillon utilisé ne suit pas la loi du Khi-deux non centré,
et que cette méthode est inadéquate.
Ensuite, une méthode d’estimation des paramètres du CIR ++ par l’estimateur du maximum de
vraisemblance sur la loi du taux zéro-coupon du CIR ++ a été mise en place.
Il s’agit du même principe que la méthode précédente. La loi utilisée est la loi du taux zéro-coupon, qui
dépend des paramètres du processus CIR ++. Le n-échantillon est un historique de taux zéro-coupon
de maturité dix ans (équivalente à la durée moyenne des contrats d’épargne en euros en France, d’après
le rapport de la FFA). Des améliorations sont notées par rapport à l’approche précédente, mais les
conclusions restent relativement les mêmes.
10
Synthesis note
The Solvency II directive and IFRS 17 call for a valuation of the balance sheet at market value to
reflect its dynamics and its instantaneous reality. The framework of the valuation process currently
used is the valuation of derivative products. It is the concept of risk neutrality. The risk-neutral
universe is a conceptual and unobserved universe, that does not change the states of the world but
changes their probability of occurrence. In the risk-neutral world, investors are not sensitive to asset
fluctuations, and do not ask for a risk premium in return.
The probability Q is the probability relative to the risk-neutral universe. The probability P is the
probability relative to the historical universe, i.e. the universe actually observed.
Three elements may imply the use of the risk-neutral probability for the valuation of liabilities of
euro savings contracts questionable:
• euro savings contracts are not replicable (see Armel and Planchet (2020b)),
• arbitrage opportunities persist in the market for euro savings contracts (see Armel and Planchet
(2020b)),
• economic scenarios under the risk-neutral probability injected in the ALM (Asset and Liabil-
ity Management) engines induce a bias in the valuation of liabilities (see Armel and Planchet
(2020b)).
This paper focuses on the problem caused by the third point. The current valuation of the lia-
bilities of savings contracts in euros is expressed by the calculation of the Best Estimate. It results
from future cash flows discounted at the risk-free rate. These flows are calculated by an ALM model
that takes as input economic scenarios generated by an economic scenario generator. By using the
risk-neutral probability in the economic scenario generators, extreme scenarios with a high probability
of occurrence are injected into the ALM model, i.e. unfavorable scenarios that are unlikely to occur
under P, but whose occurrence is much higher under Q. This raises an inconsistency in the interpre-
tation and use of these scenarios, which do not fit with the reality.
The Armel and Planchet (2020c) article points out that in ALM engines, reaction functions are
implemented. These functions model the insured’s reaction to an economic scenario. This is notably
the case for dynamic surrender, modeled in the ALM engine by a surrender rate that depends on the
rate paid by the insurer and the rate expected by the insured. The authors of Armel and Planchet
(2020c) research paper demonstrate two elements through their study. First, as atypical risk-neutral
scenarios are injected into the ALM engine, the reaction functions are difficult to interpret because
they react to unobserved and unlikely scenarios. Secondly, for the same Best Estimate evaluation, the
authors of Armel and Planchet (2020c) have shown that by introducing the outputs of a GSE under
historical probability into the ALM engine, the resulting Best Estimate is lower than the Best Esti-
mate obtained by having introduced the GSE scenarios under risk-neutral probability into the ALM
11
12
engine. The paper concludes that the historical scenarios decrease the number of atypical scenarios,
and lead to a less extreme reaction of the policyholders in the ALM engine, and consequently a lower
surrender rate, which decreases the insurer’s liabilities.
To build the economic scenario generator under historical probability, the stochastic deflator ap-
proach was used. Deflators are stochastic discount factors. They are defined by the D-process which
verifies the equality 2.
Z T
EQ [S(T ) × exp (− r(s)ds)|F(t)] = EP [S(T ) × D(T )|F(t)]. (2)
t
The D process makes the theory under historical probability P equivalent to the theory under
risk-neutral probability Q : the valuation in the context of a market in the absence of arbitrage op-
portunities is chosen. Thus, the use of the deflator makes it possible to discount cash flows in a real
universe.
The combined works of Cheng and Planchet (2018a), Armel and Planchet (2020c), and Armel and
Planchet (2020b) research papers establishe:
• a method for disseminating a GSE in historical probability (see Cheng and Planchet (2018a)):
• a method to calibrate a GSE under probability P (cf. Armel and Planchet (2020b)):
• the effects on the Best Estimate by introducing scenarios under P in the ALM engine and not
scenarios under Q (see Armel and Planchet (2020c)).
The objective of this thesis comes into play in the bolded step above: the authors of the Armel
and Planchet (2020b) paper wondered if it was possible to find a robust historical calibration process
for their GSE, and not from an implicit method involving the use of current derivative prices.
Calibrating the GSE of Armel and Planchet (2020b) article is equivalent to calibrating a CIR++
process that models the dynamics of the instantaneous short rate in the GSE, since that all of the
GSE variables depend on its parameters.
Two methods have been proposed in order to estimate the CIR++ parameters using a historical
method. First, a method for estimating the parameters of the CIR ++ by the maximum likelihood
estimator on the law of the instantaneous short rate of the CIR ++.
13
The law of the instantaneous short rate depends on the parameters of the CIR ++. The instan-
taneous short rate is a continuous variable, which is in essence unobservable. An n-sample of the
instantaneous short rate was reconstructed from a history of zero-coupon yield curves and the Nelson
Siegel model. The distribution of the instantaneous short rate is an uncentered Chi-square. From the
uncentered Chi-square density and the n-sample, the likelihood has been maximized. The likelihood is
not continuous, and presents many irregularities, which complicates its optimization. The likelihood
is defined in very few points, which shows that the n-sample used does not follow the uncentered
Chi-square distribution, and hence, that this method is inadequate.
Then, a method of estimating the parameters of the CIR ++ by the maximum likelihood estimator
on the law of the zero coupon rate of the CIR ++ was implemented.
The principle is the same as the previous method. The law used is the law of the zero coupon rate,
which depends on the parameters of the CIR ++ process. The n-sample is a history of zero-coupon
rates with a maturity of ten years (like the average duration of euro savings contracts in France,
according to the FFA report). Some improvements are noted compared to the previous approach, but
the conclusions remain relatively the same.
Remerciements
merci à Frédéric PLANCHET pour ce sujet innovateur, ses références techniques s’y rapportant,
et son expertise,
merci à Kamal ARMEL et Sugiban RATNASOTHY pour leur expertise, écoute et conseils, ils m’ont
guidé dans la mise en oeuvre des travaux du mémoire,
merci également à mon collègue Oleksandr SOROCHYNSKYI pour son aide précieuse et indispensable
dans l’implémentation des modèles de vraisemblances,
et surtout, merci à Danielle KHOUGEA, ma tutrice entreprise, pour son soutien, son suivi, et ses
relectures régulières.
Et enfin, merci à mon tuteur académique et directeur de Master Christophe DUTANG pour ses
réponses réactives et sa très grande disponibilité.
15
16
Table des matières
Acronymes 3
Résumé 4
Abstract 5
Note de Synthèse 7
Synthesis note 11
Remerciements 15
Introduction 19
1 Contexte et problématique 21
1.1 Spécificités du contrat d’épargne en euros . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2 Remise en question du processus de valorisation . . . . . . . . . . . . . . . . . . . . . . 23
1.3 Une nouvelle approche : le déflateur stochastique . . . . . . . . . . . . . . . . . . . . . 35
3 Mise en pratique 63
3.1 Construction de l’historique du taux court avec Nelson et Siegel . . . . . . . . . . . . . 64
3.2 Mise en pratique de la méthode 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
17
18 TABLE DES MATIÈRES
Conclusion 93
Bibliographie 95
A Données 97
A.1 Courbes de taux zéro-coupon de l’institut des actuaires . . . . . . . . . . . . . . . . . 97
La directive Solvabilité II et les normes IFRS 17 revendiquent une valorisation du bilan en valeur de
marché pour refléter sa réalité instantanée. Le cadre du processus d’évaluation actuellement utilisé est
celui de l’évaluation des prix des produits dérivés. Il s’agit du concept de risque neutralité. L’univers
neutre au risque, est un univers conceptuel et non observé, qui ne change pas les états du monde mais
qui change leur probabilité d’occurrence.
Aujourd’hui, le processus de valorisation des passifs des contrats d’épargne en euros repose sur
ce concept : par exemple, les variables des générateurs de scénarios économiques sont calibrées et
projetées sous la probabilité neutre au risque. Cette dernière existe si le marché considéré est un
marché en l’absence d’opportunité d’arbitrage : un investisseur ne peut pas espérer un gain certain
s’il n’a pas investi auparavant. De plus, elle est unique si les actifs du marché admettent une stratégie
de réplication : ce qui signifie que les flux d’un produit dérivé peuvent être reproduits par ceux d’un
panier d’actifs construit.
L’article Armel et Planchet (2020c) remet en question l’utilisation de l’univers neutre au risque
pour l’évaluation des passifs d’assurance vie. Il énonce plusieurs exemples qui montrent à la fois que des
opportunités d’arbitrage persistent sur le marché des contrats d’épargne en euros, et que les produits
d’épargne en euros ne sont pas des produits réplicables par des flux d’actifs financiers. D’autre part
l’article met avant que les scénarios économiques sous la probabilité neutre au risque induisent un biais
dans le processus de valorisation des passifs des contrats d’épargne en euros. Dans ce contexte, les
auteurs de l’article Armel et Planchet (2020b) ont entrepris la création d’un générateur de scénarios
économiques en univers réel, qui correspond à l’univers observé, faisant intervenir la construction d’un
déflateur stochastique pour actualiser les flux.
Calibrer le générateur de scénarios économiques de Armel et Planchet (2020b) est équivalent
à calibrer un modèle de taux CIR ++. Pour le calibrer, deux approches sont possibles. L’approche
implicite , qui consiste à évaluer les paramètres du modèle à partir des prix des produits dérivés
actuels et de leurs formules fermées associées. Et l’approche dite historique , qui correspond à
l’estimation des paramètres à partir d’une série d’observations passées, avec des méthodes statistiques.
L’article procède a un calibrage implicite des paramètres. Ainsi la problématique est la suivante : est-
il possible de construire une méthode robuste d’estimation des paramètres du CIR ++ selon une
approche historique ?
Pour y répondre, les travaux se décomposent en trois grandes parties. La première, qui s’asso-
cie au chapitre 1, re-situe le contexte et détaille l’origine de la problématique. Le chapitre 2, dédié
à la deuxième partie, s’attèle à la théorie. Il présente la construction du générateur de scénarios
économiques en univers réel, qui comprend celle du déflateur, afin d’identifier les paramètres à esti-
mer. Puis, deux idées de méthodes d’estimation des paramètres à partir du maximum de vraisemblance
sont proposées. Enfin, la dernière partie, assimilée au chapitre 3, réstitue les applications numériques
et les résultats obtenus, qui permettront d’aboutir à une conclusion.
19
20 TABLE DES MATIÈRES
Chapitre 1
Contexte et problématique
Le présent mémoire s’intéresse au calcul de la valeur économique des passifs des contrats d’épargne
en euros. Le contrat d’épargne en euros est à l’origine de la présente étude, un bref rappel sur ses
caratéristiques fondamentales est effectué. Cette première section s’y prête. Les informations sont
principalement tirées de Agbaholou (2018) et Armel et Planchet (2020c).
1.1.1 Généralités
Le contrat d’épargne est un contrat d’assurance vie. Il permet au souscripteur d’accumuler des droits
différés auprès de l’assureur, en échange de primes. Ces droits se traduisent par le versement d’un
capital, ou d’une rente.
Deux évènements peuvent déclencher la prestation. L’assurance en cas de vie , se manifeste
par le versement d’une rente ou d’un capital si l’assuré est toujours en vie à la date de fin du contrat.
L’assurance en cas de décès , se manifeste par le versement d’une rente ou d’un capital à un ou
plusieurs bénéficiaires lorsque le décès de l’assuré survient avant la date de fin du contrat. Les contrats
d’épargne sont alors des contrats en cas de vie . Ils diffèrent selon leur support d’investissement.
En France, les contrats d’épargne les plus populaires sont les contrats en euros et les contrats en unité
de compte.
• Le contrat en euros : aussi appelé fonds en euros, c’est un contrat dans lequel l’assureur
supporte entièrement le risque financier. Il garantit à l’assuré un rendement annuel minimal de
son épargne et lui offre la possibilité de racheter son contrat à tout moment. La seule situation
dans laquelle l’assuré fait une perte, est celle où l’assureur fait faillite. C’est un contrat adapté
pour une personne qui souhaite investir sans prendre trop de risques.
• Le contrat en unité de compte : c’est un contrat qui n’offre pas de garanties sur le capital
investi à l’assuré. Mais il permet à l’assuré de diversifier son investissement sur les marchés
financier et immobilier. L’assureur garantit le nombre d’unité de compte, mais pas le nombre
d’euros : le risque financier est supporté par l’assuré.
Les contrats d’épargne sont appréciés auprès des français parce qu’ils présentent des avantages
fiscaux intéressants. Ils permettent une défiscalisation des revenus du capital investi, mais aussi d’être
21
22 CHAPITRE 1. CONTEXTE ET PROBLÉMATIQUE
moins imposé sur la transmission d’un patrimoine financier en matière de succession. Par exemple, au
bout de huit années passées dans le contrat, il est possible d’effectuer des retraits d’un montant allant
jusqu’à quatre mille six cents euros de plus-values sans payer d’impôts sur cette somme.
Les contrats d’épargne sont composés de différentes options et garanties. La suite du paragraphe est
focalisée sur les contrats classiques d’épargne en euros. Les options peuvent être classées en trois
catégories.
• Les options financières : l’assureur promet un rendement minimal de son épargne à l’assuré,
c’est l’intérêt technique. Le taux technique est fixé à la date de souscription, et doit être versé
à l’assuré sur toute la durée du contrat, quelque soit le niveau des rendements financiers de
l’assureur. Le Code des Assurances fixe le taux technique maximale que l’assureur peut garantir
à l’assuré à 75% des taux moyens des emprunts de l’état français.
En plus du taux technique, l’assureur peut prendre des engagements contractuels supplémentaires
en proposant un TMG, il s’agit de proposer un taux plus élevé que le taux technique. En général
le TMG est nul.
L’assureur peut verser un complément de rémunération, assimilé à la participation aux bénéfices.
L’épargne des assurés est réinvestie et capitalisée, et génère ainsi des bénéfices techniques et fi-
nanciers à l’assureur. Ces bénéfices étant réalisés grâce aux apports des assurés, la réglementation
impose à ce qu’ils soient redistribués en grande partie aux assurés. C’est la PB. Cependant, l’as-
sureur n’est pas obligé de la distribuer immédiatement, il peut doter la PPB, et la redistribuer
au maximum sous huit ans, selon le mécanisme FIFO. Cela permet à l’assureur de pouvoir verser
un rendement convenable à ses assurés en cas de faibles rendements de ses actifs financiers, et
de prévenir les rachats. La PPB est une provision qui appartient aux assurés, mais ce n’est pas
une provision par tête. Contrairement à la PM, l’assureur choisit à qui il la verse.
• Les options comportementales : ces options sont activées ou non au cours du contrat selon
la volonté de l’assuré. Celui-ci a la possibilité de racheter partiellement ou totalement son contrat
(ie récupérer son épargne), à tout moment jusqu’à l’échéance du contrat. Deux types de rachats
existent : les rachats structurels, et les rachats dynamiques. Les rachats structurels correspondent
aux besoins de fonds et de liquidité des assurés, en général liés à l’âge ou à l’ancienneté dans le
contrat. Il est possible de les prédire grâce à l’historique des rachats. En revanche, les rachats
dynamiques, assimilés aux comportements dynamiques des assurés, sont beaucoup plus difficiles
à modéliser. (Ce point est détaillé un peu plus bas dans le document, à la section 1.1.3).
L’assuré peut également opérer des versements libres ou programmés pour alimenter son épargne.
En général un montant minimal est fixé par l’assureur, notamment pour le premier versement.
• Les options biométriques : au terme du contrat, l’épargne est réstituée à l’assuré. En amont
de la signature du contrat, l’assureur peut proposer à l’assuré de lui redistribuer son épargne
sous forme de rentes ou d’un capital. Ces options sont affectées aux risques de mortalité et de
longévité.
Du fait des options et des garanties auxquelles l’assureur s’engage, celui-ci est exposé à divers risques
dont : le risque de taux, les risques du marché financier, les risques biométriques, et les risques liés
1.2. REMISE EN QUESTION DU PROCESSUS DE VALORISATION 23
aux comportements de l’assuré. Ces derniers sont difficilement prévisibles, notamment en raison du
risque de rachats dynamiques. Les rachats dynamiques se caractérisent par la réaction des assurés aux
contextes économique et financier.
Plusieurs scénarios sont envisageables. Par exemple, si une baisse notable des taux est observée sur
le marché financier, l’assureur doit toujours verser le taux technique (et le TMG) à l’assuré. Celui-ci
aura le sentiment que le taux proposé par l’assureur est bien meilleur que celui du marché, et ne sera
pas tenter de racheter son contrat.
Mais si une hausse des taux est observée sur le marché financier, l’assuré va juger qu’il pourrait
potentiellement investir ailleurs pour obtenir une rémunération plus intéressante que celle de son
contrat : il va être tenté de racheter son épargne. De plus, lorsque les taux augmentent, la valeur des
obligations diminuent. Or l’actif de l’assureur est principalement constitué d’obligations, et l’assureur
doit répondre à son engagement quand l’assuré veut racheter son contrat. L’assureur est contraint de
vendre ses titres en moins-values, et d’essuyer des pertes.
Dans le contexte actuel des taux bas, les assureurs appréhendent et craignent une remontée des
taux, qui pourrait engendrer une vague de rachats. Une possiblité peut être de redistribuer suffisam-
ment de PPB aux assurés, pour leur donner la sensation que les taux ne sont pas plus intéressants
ailleurs.
La modélisation de la réaction de l’assuré aux contextes économiques est très complexe. Il faut
prendre en considération que les assurés ont une vision du marché qui n’est peut-être pas la bonne.
L’assureur ne sait pas à quel point ils sont informés, ni à quel point ils sont rationnels. Cela complexifie
davantage l’anticipation de leur réaction. D’après Armel et Planchet (2020c) : à ce jour aucune
publication ne permet de caractériser parfaitement le phénomène de rachat dynamique, motivé par
une volonté d’arbitrage financier pour optimiser l’espérance de gain . Ce qui soulève une véritable
problématique de gestion actif-passif. Le mémoire Suru (2011) rend compte de la technicité du sujet.
Cette section a pour premier objectif de replacer l’univers neutre au risque dans son contexte. En-
suite, le processus d’évaluation actuel des passifs des contrats d’épargne en euros est présenté. Enfin,
l’utilisation de cette méthode est discutée.
Les paragraphes suivants expliquent de manière intuitive, puis formelle, l’évaluation des prix des
produits dérivés, afin de replacer l’univers neutre au risque dans son contexte.
Intuition
Le développement du concept de risque neutralité est lié à l’essor du marché des produits dérivés, à
partir des années 1970.
Un produit dérivé est un contrat dont la valeur dépend de la valeur future d’un sous-jacent : le prix
d’une action, par exemple. Ils peuvent aussi être dénommés actifs contingents , ou options .
Dans les deux cas, il s’agit d’un contrat financier entre un acheteur et un vendeur, dont les flux
24 CHAPITRE 1. CONTEXTE ET PROBLÉMATIQUE
• La complétude du marché : un marché financier est dit complet si tout produit dérivé admet
une stratégie de réplication.
Si la mesure de probabilité Q existe, et que le marché est complet, alors la mesure de probabilité
Q est unique. L’AOA est la condition d’existence d’une mesure de probabilité neutre au risque, et la
complétude du marché est la condition d’unicité de la mesure neutre au risque. Si ces deux conditions
sont vérifiées, alors le prix à la date t du produit dérivé est donné par l’espérance conditionnelle
sous Q du cash flow terminal du produit dérivé, actualisé au taux sans risque, sachant l’information
disponible.
Formalisation
Les définitions et les notations sont extraites du livre de Ben-Tahar et al. (2016).
Un horizon de temps T > 0 et un marché financier formé de d + 1 actifs S 0 , ..., S d sont considérés.
Ainsi que les dates discrètes tk , telles que k ∈ 0, ..., N et t0 = 0 < t1 < ... < tN = T .
Les éléments suivants sont définis :
T := {t0 , ..., tN } ;
S 0 l’actif sans risque dont le processus de prix est donné par S 0 = St0 , t ∈ T ;
S1 Sd
n o
S̃ := S̃t = (1, St0 , ..., St0 ), t ∈ T le processus de prix actualisé d + 1 dimensionnel, où S 0 est pris
t t
comme unité de compte/numéraire ;
(Ω, F, P, F) l’espace probabilisé pour modéliser l’incertitude des prix des actifs, où Ftk = σ(Sti , ti ≤ tk )
∀tk ∈ T, et F = {Ftk , 0 ≤ tk ≤ T }.
• Un actif financier dont la valeur terminale au temps T est une variable aléatoire G, FT -mesurable,
et intégrable, est appelé actif contingent de maturité T.
• Un produit dérivé G est une variable aléatoire FT -mesurable et s’écrit sous la forme G = φ(S),
avec φ une application borélienne. Par exemple la valeur terminale d’un call d’échéance T et de
strike K sur l’actif S 1 est G = max(ST1 − K; 0) = φ(ST1 ).
Supposons qu’il existe une probabilité Q équivalente à P, qui rend le processus S̃ martingale sur
(Ω, F, Q). Alors il y a AOA sur le marché financier. Considérons aussi un actif contingent G de maturité
T admettant une stratégie de réplication. Alors le prix de G à la date t, t ∈ T, noté pG
t est donné par
l’équation 1.1.
pG
t = EQ [δt G|Ft ]. (1.1)
RT
Avec δt = exp (− t rs ds) le facteur d’actualisation à l’échéance t au taux sans risque r. En
simulant N fois la valeur du prix du produit dérivé G à la date T , le prix peut-être approché par
Monte Carlo, cf. équation 1.2.
N
1 X
pG
t = EQ [δt G|Ft ] ≈ δt Gi . (1.2)
N
i=1
Les paragraphes ci-dessous décrivent le processus de valorisation actuel des contrats d’épargne en
euros, et expliquent pourquoi les acteurs du marché ont opté pour des méthodes issues de la théorie
financière.
Réglementation
Les réglementations IFRS et Solvabilité II ont pour objectif de permettre aux acteurs du marché de
l’assurance d’améliorer l’évaluation du risque inhérent à leur activité. Ainsi que de mieux prendre
en compte l’optionnalité des produits, pour conduire progressivement à une régulation du marché de
l’assurance plus précise. De cet objectif, s’est développée la volonté de rapprocher la régulation du
marché de l’assurance à celle du marché financier.
26 CHAPITRE 1. CONTEXTE ET PROBLÉMATIQUE
Les normes comptables IFRS 4 phase 1 et phase 2 (cf. Thérond (2010), et Bureau (2017)), sont
les premières à avoir introduites la notion de juste valeur des passifs d’assurance. Ce concept peut
s’interpréter comme la valeur de marché des contrats d’assurance. Il s’est formalisé dans le souci de
refléter la réalité instantanée du bilan, pour que ce dernier soit plus en phase avec les intérêts des
investisseurs et des actionnaires. Pour les assureurs, l’introduction du concept de valeur de marché
dans le bilan n’est pas anodine. Elle implique une nouvelle approche de valorisation, qui comporte
une modélisation stochastique, de la même manière que pour les actifs financiers (voir Karoui et
al. (2017)). Une telle transformation dans le processus d’évaluation des actifs et des passifs pour les
compagnies d’assurance à l’échelle internationationale n’est pas immédiate. Pour amorcer le tournant,
IFRS 4 phase 1 prévoit une évaluation en juste valeur pour les actifs du bilan, et une comptabili-
sation toujours en normes locales pour les passifs. Cette comptabilisation induit une asymétrie des
valorisations, et crée des mismatches comptables entre l’actif et le passif, qui demande de passer des
provisions supplémentaires pour équilibrer le bilan. L’interpétation et la compréhension de celui-ci
sont devenues d’autant plus complexes. Une harmonisation est nécéssaire : la norme IFRS 17, dont
l’entrée en vigueur est prévue en 2022, impose aux assureurs d’évaluer également leur passif en valeur
de marché, pour refléter les conditions de marché courantes. IFRS 17 vise à homogénéiser les règles
comptables, pour étendre un unique référentiel à l’échelle internationale, dans l’intention d’obtenir
une meilleure comparabilité entre les résultats fournis par les assureurs.
Parallèlement, les perspectives de Solvabilité II ont emergé. La première directive de la commission
européenne, Solvabilité I, a introduit la notion de marge de solvabilité, qui correspond au capital
minimum dont doit disposer une compagnie d’assurance pour exercer son activité. Ce capital est calculé
comme un pourcentage des provisions mathématiques en assurance vie. Aujourd’hui, ce processus de
calcul n’est plus considéré comme un indicateur de solvabilité optimal, dans la mesure où il ne prend
pas en compte le risque spécifique de l’assureur, et ne reflète pas suffisamment ses caractéristiques. De
même, l’ancienne directive évalue les provisions selon le principe de prudence. La directive Solvabilité
II apporte une modification importante dans le sens où les provisions ne sont plus estimées de manière
prudente, mais selon la meilleure estimation possible, Best Estimate. Dans la même idée qu’IFRS 17,
la régulation européenne s’est focalisée sur une approche qui prend davantage en compte l’optionnalité
et la valeur temps des produits, en construisant un bilan s’appuyant sur les hypothèses de marché à la
date d’évaluation (taux, prix, volatilité), lié au désir d’homogénéiser le processus de valorisation des
engagements à travers l’Europe.
Les grandes compagnies d’assurance doivent également valoriser leur entreprise régulièrement au
sens de la MCEV, dont les principes ont été publiés par le CFO forum en 2008. La MCEV a pour
objectif de déterminer une valorisation de l’entreprise à partir de la projection de son portefeuille.
Elle se différencie des bilans traditionnels en ajoutant à la richesse passée de la compagnie sa richesse
future. La richesse future est calculée à partir de la valeur actuelle des marges futures. Au même titre
que pour Solvabilité II et IFRS 17, les actifs et les passifs sont évalués en valeur de marché dans le
calcul de la MCEV.
Finalement, les réglementations convergent vers une approche économique, dite market consistent,
dont le principe est de faire des évaluations en respectant une certaine cohérence avec les observations
réalisées sur les marchés financiers.
Pourquoi les acteurs du marché de l’assurance se sont-ils dirigés vers une approche issue
de la théorie financière ?
Une des raisons pour laquelle l’évaluation des passifs s’est rapprochée de celle des produits dérivés est
qu’une analogie a été faite au début des années 1990 entre les flux des contrats d’épargne en euros et les
1.2. REMISE EN QUESTION DU PROCESSUS DE VALORISATION 27
flux des produits dérivés. Le papier de recherche de Briys et Varenne (2017) propose un modèle qui
permet d’assimiler les options des contrats d’épargne à des produits dérivés : par exemple l’option de
rachat serait assimilable à une option de vente américaine. En ce sens, les flux des contrats d’épargne
en euros pourraient être associés à ceux d’un call européen. Or les flux d’un call sont reproduits par
des combinaisons d’achats et de ventes d’actifs financiers. Par conséquent il serait possible de coupler
un contrat d’épargne en euros à un portefeuille réplicant.
Un autre argument est que les comptes sociaux prennent en compte les moins values latentes, mais
pas les plus values latentes. Or la réglementation, comme vu plus haut, penche vers des approches du
bilan en valeur de marché pour refléter sa réalité instantanée.
Seulement, évaluer un bilan en valeur de marché selon l’approche de Solvabilité II et IFRS 17
demande à la fois de savoir calculer les flux de trésorerie futurs, de déterminer un taux d’actualisation,
et de définir une mesure de probabilité.
D’après Karoui et al. (2017), le problème avec la valorisation en probabilité historique est que les
paramètres sont difficiles à évaluer précisément, comme la prime de risque, et donc poserait, à l’échelle
européenne, et internationale, un problème d’harmonisation dans la paramétrisation des modèles. Mais
comme cela a été précisé, un des objectifs de la réglementation est justement d’harmoniser les processus
de valorisation pour une comparabilité plus lisible.
Toujours d’après Karoui et al. (2017), considérer les données de marché pour paramétrer les
modèles s’est avéré être une solution à ce problème, dans la mesure où elles sont observées, impartiales
et facilement accessibles pour les compagnies d’assurance à n’importe quelle échelle du globe. De plus,
les données de marché sont diffusées sous la probabilité neutre au risque, cette approche a donc été
adoptée pour projeter les modèles stochastiques.
Pourtant une complication réside dans cette méthodologie : tous les facteurs de risque en assurance
vie ne sont pas de nature financière : le marché ne fournit pas de données pour ces risques. Cette
approche ne peut fonctionner pour les risques de natures financières.
Comment les acteurs du marché de l’assurance donnent-ils des valeurs de marché à leur
passif ?
Le concept d’évaluation en valeur de marché pour l’actif du bilan semble intuitif, en revanche, le
concept d’évaluation des passifs en valeur de marché est plus abstrait. Que signifie donner une valeur
de marché à un contrat d’assurance ?
Plus concrètement, la cohérence avec les marchés financiers selon le concept de market consistency
s’exprime comme suit d’après Donio et Debaere (2021) : les flux futurs des passifs engendrés doivent
être valorisés de la même façon qu’ils le seraient dans le cadre d’un instrument financier portant les
mêmes risques, et côté sur un marché financier. D’autre part, ces fluxs doivent être actualisés à un
taux sans risque incluant la prime de risque qui serait exigée sur les marchés financiers pour supporter
le risque sous-jacent à ce flux. Et enfin, les options et garanties financières incluses dans les contrats
d’assurance doivent être évaluées selon les méthodes financières de pricing de dérivés à partir des
paramètres observés sur le marché.
Sous IFRS 17, Solvabilité II, et la MCEV, les provisions de l’assureur sont estimées selon la
meilleure estimation possible, appelée : Best Estimate. Ce dernier correspond à la moyenne des flux
de trésorerie futurs actualisés au taux sans risque, à l’image de l’équation 1.2. Une modélisation
stochastique des risques et une prise en compte des intéractions actifs-passifs, dues aux mécanismes
28 CHAPITRE 1. CONTEXTE ET PROBLÉMATIQUE
Etape 1 : Chaque scénario étant soumis à un effet aléatoire, il faut choisir une mesure de probabilité.
Celle retenue en pratique est la probabilité neutre au risque pour les variables relatives aux risques
financiers, qui correspond aux critères de market consistency, tels qu’ils ont été évoqués dans le
paragraphe précédent.
Etape 2 : Il faut ensuite déterminer les variables financières qui interviendront dans le GSE :
• Taux d’intérêt ;
• Actions ;
• Immobilier ;
• Inflation ;
• Risque de crédit ;
• ...
Etape 3 : Un modèle est choisi pour la dynamique de chaque variable. Ces modèles doivent être
calibrés. Pour cela des produits dérivés sont selectionnés, dont les prix/volatilités
implicites sont récupérés sur les marchés financiers à la date d’évaluation du bilan
afin que les modèles correspondent aux conditions de marché à cet instant.
Etape 4 : Une fois les modèles calibrés, la dynamique de ces variables est générée sous probabilité
neutre au risque Q. N scénarios économiques d’horizon T sont obtenus grâce au GSE.
Etape 5 : Pour chaque scénario k ∈ 1, ..., N , les comptes de résultats et les bilans sont projetés
en normes comptables sur un horizon d’1 an, puis 2 ans, ..., puis T années, selon le scénario
économique k. Cela permet de déterminer les fluxs de trésorerie Fi,k pour chaque scénario
économique k et chaque instant i ∈ 1, ..., T .
Cette tâche est réalisée à l’aide d’un moteur ALM, qui prend en entrée, (repris du mémoire
Tichit (2019)) :
• les hypothèses sur la mortalité, le rachat, les frais, les chargements, la stratégie d’allocations
et la politique de distribution discrétionnaire de PB de l’assureur,
• les scénarios économiques générés par le GSE,
• les données relatives à l’actif du portefeuille : valeur de marché, valeur comptables,
• les données relatives aux passifs du portefeuille : les provisions mathématiques, l’âge, le
sexe, l’ancienneté du contrat.
1.2. REMISE EN QUESTION DU PROCESSUS DE VALORISATION 29
Le moteur ALM permet ainsi de faire intéragir l’actif et le passif, et donne en sortie, les flux
futurs des passifs pour chaque couple (temps, scenario) = (i, k). Une fois ces flux obtenus, le
Best Estimate peut-être calculé.
Théoriquement, la valeur du Best Estimate pour le scénario k est donnée par l’équation 1.3.
XT
BE(t) = EP⊗Q [ δi Fi,k |Ft ]
i=t
(1.3)
T
X
= EQ [δi |Ft ] × EP [Fi,k |Ft ].
i=t
Fi,k désigne les flux futurs de trésorerie, constitués à partir des prestations et des frais ;
δi désigne le facteur d’actualisation (qui s’exprime en fonction du taux sans risque) du flux de
passif Fi,k à l’échéanche i ;
Ft modélise l’information disponible à l’instant t ;
Q est la probabilité neutre au risque ;
P est la probabilité historique.
Comme le Best Estimate fait intervenir deux sources d’aléas, l’aléa des risques financiers qui
sont réplicables, et l’aléa des risques d’assurance qui sont non réplicables, ils sont respectivement
modélisés par deux probabilités différentes, Q et P. Par exemple, la mortalité des assurés n’est pas
un risque réplicable (ce point sera développé dans la suite), il est donc évalué sous la probabilité
historique P. C’est pour cette raison que le moteur ALM est alimenté de tables de mortalité,
elle-même constituée de probabilité de décès. Il n’est pas question d’univers neutre au risque
dans la modélisation des décès lors de la construction d’une table de mortalité. Le modèle ALM
fait dès lors interférer les deux univers de probabilité ensemble.
Le passage à la deuxième égalité dans l’équation 1.3 n’est possible que si les flux sont indépendants
des risques financiers, comme en assurance non vie. En assurance vie, cette hypothèse n’est pas
vérifiée puisque l’actif dépend du passif. Ces intéractions sont surtout dues aux mécanismes de
participations aux bénéfices et de rachats. En effet, la revalorisation des contrats d’épargne en
euros dépend de la participation aux bénéfices (au passif), qui est directement liée à la perfor-
mance financière des actifs (à l’actif). Elles rendent plus délicat le calcul du Best Estimate en
assurance vie, c’est pour cette raison que le moteur ALM est indispensable, pour modéliser ces
intéractions en prenant en compte à la fois le comportement des assurés (cf section 1.1.3), les
options et garanties (cf section 1.1.2), et la stratégie de l’assureur, qui se manifestent par un
ensemble d’hypothèses.
Pour voir comment ces intéractions sont modélisées dans un modèle ALM, le lecteur pourra
notamment se référer à Armel et Planchet (2020c) et Tichit (2019).
Finalement, le Best Estimate résulte d’une approximation par Monte Carlo. La valeur du passif
pour le scénario économique k est donnée par l’équation 1.4 :
T
X
BE(t) = δi Fi,k . (1.4)
i=t
30 CHAPITRE 1. CONTEXTE ET PROBLÉMATIQUE
Etape 6 : Et enfin les passifs des contrats d’épargne en euros pour l’ensemble des scénarios sont
estimés par l’équation 1.5.
N T
1 XX
BE(t) = δi Fi,k . (1.5)
N
k=1 i=t
La formule du BE 1.5 pour les passifs des contrats d’épargne en euros est alors calquée sur la
méthode d’évaluation du prix d’un actif contingent comme vu en sous section 1.2.1. En effet, il s’agit
de l’approximation d’une espérance conditionnelle de flux actualisés, faisant intervenir la mesure de
probabilité neutre au risque Q.
La méthode d’évaluation des prix des produits dérivés repose sur le principe de réplication en AOA
sur le marché financier (cf. paragraphe 1.2.1). Les récentes réglementations s’appuyent largement sur
cette méthodologie pour estimer la valeur des passifs des contrats d’épargne euros. Or le principe de
réplication en AOA nécessite deux conditions pour être valable : le marché en question doit être en
AOA, et le produit dérivé à évaluer sur ce marché doit être réplicable. Cependant, ces conditions ne
sont pas nécessairement vérifiées sur le marché des contrats d’épargne en euros, ce qui soulève une
interrogation quant à l’utilisation de ce processus de valorisation sur un tel marché.
Le papier Armel et Planchet (2020c) développe un argumentaire démontrant que les opportunités
d’arbitrage sont présentes sur le marché de l’épargne en euros. Plusieurs exemples sont donnés. Ces
paragraphes les présentent synthétiquement.
Le premier exemple est lié à la richesse initiale de l’assureur. Ce dernier, grâce à l’investissement
des assurés, cumule des richesses, qui se situent notamment dans la PPB, dans la réserve de capitali-
sation, et dans les plus ou moins-values latentes des actifs. Ces richesses appartiennent en partie aux
assurés, et leur seront redistribuées, à la discrétion de l’assureur. Par conséquent, si un investisseur
souhaite investir dans un contrat aujourd’hui, il peut bénéficier des richesses existantes sans y avoir
contribué. Il profiterait des performances dûes aux assurés déjà en portefeuille, sans avoir investi :
c’est une opportunité d’arbitrage.
Le deuxième exemple est relatif à la politique de distribution de la PB, qui joue sur la valeur
du contrat. Dans Armel et Planchet (2020c), il est supposé l’existence de deux assureurs aux
caractéristiques identiques A et B, ayant les mêmes actifs et passifs, évoluant dans un même envi-
ronnement économique et ayant la même richesse initiale . L’assureur B choisit de réduire sa marge
et de distribuer plus de PB par rapport à l’assureur A. Alors le passif de B devient plus élevé que
celui de A, et les contrats de B sont plus rémunérateurs que les contrats de A pour l’assuré. Alors une
opportunité d’arbitrage peut être construite :
Une des raisons pour laquelle ces opportunités d’arbitrage persistent sur le marché du contrat
d’épargne en euros est l’inefficience informationnelle de ce marché. L’efficience informationnelle est
nécessaire à l’absence d’opportunité d’arbitrage, et donc par équivalence, à l’existence d’une probabilité
neutre au risque.
Un marché est dit efficient si toute l’information disponible est contenue dans les prix à chaque
instant, et que cette information peut être connue par tous les agents du marché. Autrement dit, il n’est
pas possible qu’un agent du marché dispose d’informations prédictibles sur des prix futurs, inconnus
des autres agents : dans ce cas il serait facile pour lui de parier sur les prix futurs, et d’exploiter une
opportunité d’arbitrage.
Sur les marchés financiers, les stratégies de couverture, les pratiques professionnelles, et les positions
prises par les agents reposent sur une hypothèse d’efficience informationnelle, qui est une hypothèse
fondamentale de la théorie financière. Si la transparence de l’information est omise, le marché connaı̂t
des dysfonctionnements, comme le délit d’initié : un investisseur commet un délit d’initié s’il utilise des
informations confidentielles, dont ne disposent pas les autres investisseurs, à des fins d’enrichissements,
et susceptibles de changer le cours de la bourse. Cette asymétrie d’information (et les autres abus de
marché de manière générale) est soumise à de fortes sanctions pénales.
Pour le marché de l’épargne en euros, l’inefficience informationnelle peut s’expliquer par les inévitables
asymétries d’informations entre l’assuré et l’assureur. L’information n’est pas bien répartie au sein des
acteurs du marché du contrat d’épargne en euros.
Comme le montre le papier de recherche Armel et Planchet (2020c), il y a d’un côté une
asymétrie d’informations entre l’assuré envers l’assureur. L’assuré a naturellement toujours plus d’in-
formations sur lui-même que l’assureur n’en dispose. Lui seul connait exactement ses intentions et son
raisonnement quant à la gestion de son épargne, qui dépend de son revenu, de son patrimoine, ou de sa
situation financière actuelle. Il est complexe pour l’assureur d’anticiper les agissements et les objectifs
d’investissement de ses assurés. De l’autre côté, il existe de manière similaire une asymétrie d’informa-
tions de l’assureur envers l’assuré. L’assureur connait parfaitement sa stratégie et son actif, ainsi que
sa politique de revalorisation. L’assuré n’est pas au courant des contrats qui vont être revalorisés, de
la manière dont l’assureur va choisir de redistribuer la participation aux bénéfices, ou de l’évolution
des actifs sous-jacent à son contrat. L’assuré peut difficilement évaluer les flux futurs et la rentabilité
de son contrat. En plus des asymétries d’informations qui subsistent entre assureur et assuré, il en
existe de la même manière entre l’assureur et le réassureur, et entre les assureurs concurrents.
Comme des opportunités d’arbitrage subsistent sur le marché de l’épargne en euros, cela signifie,
par équivalence, qu’il n’existe pas de mesure de probabilité neutre au risque sur ce marché rendant
les prix martingales (cf. sous section 1.2.1). Ceci est contradictoire avec le processus de valorisation
actuel des passifs vu précédemment (cf. paragraphe 1.2.2), où la mesure neutre au risque est utilisée
pour simuler la dynamique des variables du marché financier, et pour le calcul de l’espérance.
Les référentiels actuels font appel à une approche market consistent, qui repose sur le calcul du prix
d’un produit dérivé grâce à une couverture. Pour cela, le produit en question doit être réplicable,
ce qui suppose que les flux qu’ils engendrent sont parfaitement reproductibles à l’aide d’une combi-
naison d’instruments financiers, autrement dit par un portefeuille de couverture. La valeur actuelle
32 CHAPITRE 1. CONTEXTE ET PROBLÉMATIQUE
du portefeuille réplicant fournit alors de manière immédiate un prix observable. De plus ces instru-
ments financiers doivent être monnayables sur un marché qui est supposé actif, liquide et transparent.
Un marché est dit actif, liquide et transparent si (cette définition est reprise du mémoire Ohnouna
(2008)) :
• les agents du marché peuvent exécuter un nombre élevé de transactions en un temps réduit sans
que cela n’impacte les prix ;
• les informations sur les échanges en cours, et sur les prix sont disponibles au public ;
D’après Karoui et al. (2017) et Selma (2016), de nos jours, pour chaque dérivé, les traders
réajustent continuellement leur portefeuille réplicant, ce qui inclut les modèles, les prix et leur position
sur le marché. Cette tâche doit être réalisée régulièrement, au jour le jour, de manière à rendre leur
stratégie efficace et surtout leur évaluation neutre au risque juste et légitime. Finalement il s’agit
d’exploiter des relations entre un actif et d’autres investissements afin de diminuer la variabilité de la
position aux aléas du marché.
Maintenant, quand est-il de la réplicabilité et de l’utilisation de la probabilité neutre au risque
pour les produits d’épargne en euros ?
L’argumentation proposée ci-dessous s’appuie sur Karoui et al. (2017) et Armel et Planchet
(2020c).
Premièrement, le choix de modélisation en mesure neutre au risque et son objectif, semblent déliés.
En effet, l’objectif de l’évaluation par réplication en AOA nécessite des ajustements fréquents, sur le
court terme, dans le but de rendre le portefeuille insensible aux fluctuations du marché. Or l’approche
market consistent s’appuie sur la même méthode, mais pour valoriser, une fois dans l’année, des passifs
en valeur de marché (le BE ).
Deuxièmement, les structures du marché de l’épargne en euros et du marché financier sont sen-
siblement différentes. Comme vu dans le paragraphe 1.2.3, le marché de l’épargne en euros n’est pas
transparent, et les prix n’y sont pas observés. De plus, les produits d’épargne sont illiquides. Tout
d’abord le transfert de portefeuille d’un assureur à l’autre est rarissime, et le transfert d’un contrat
français à un assureur étranger est impossible. Et si un assuré décide de racheter son contrat, la tran-
saction est loin d’être instantanée, cela peut être réglé dans un délai de deux mois. Contrairement
aux marchés financiers, dotés d’une plateforme qui fluidifie et régule les échanges. Ils sont soumis à
un règlement, qui permet une égalité de traitement entre les investisseurs. La diffusion des données
des sociétés cotées, du carnet d’ordre et des cours en temps réel permet aux investisseurs de détenir
les mêmes informations au même moment. L’autorité des marchés financiers s’assure d’éviter les abus
susceptibles de modifier le cours, et de la bonne tenue des transactions. Le marché des produits dérivés
est donc un marché organisé, et la méthode de réplication en AOA est un processus de valorisation qui
a été développé spécifiquement pour les produits de ce marché. Il n’existe pas un tel marché organisé
pour les produits d’assurance en euros, ce qui rend l’utilisation de ce processus de valorisation inadapté
pour ces contrats. D’après Karoui et al. (2017), l’utilisation pratique de l’évaluation neutre au risque
est adaptée et ne devrait être restreinte qu’au marché des dérivés.
Troisièmement, il n’y a pas de relations évidentes entre la mortalité et les actifs financiers, ni entre
le comportement des assurés et les actifs financiers, ni entre le risque de frais et les actifs financiers...
à exploiter pour couvrir ces risques. La couverture des rachats dynamiques est complexe à mettre en
1.2. REMISE EN QUESTION DU PROCESSUS DE VALORISATION 33
place puisque ces derniers ne sont ni anticipables, ni modélisables par l’assureur, comme expliqué dans
la section 1.1.3. De même, la participation aux bénéfices est versée à la discrétion de chaque assureur,
et de manière subjective, impliquant à chaque fois des opérations comptables, ce qui rend très difficile
la mise en place d’une couverture financière réplicant les flux de participations aux bénéfices. Il semble
difficile de répliquer les fluxs techniques avec des instruments financiers.
Finalement, il paraı̂t compliqué de construire un portefeuille de couverture pour les passifs d’épargne
en euros en raison des risques non financiers, et de l’absence d’un marché organisé des produits d’assu-
rance. En ce sens, les produits d’épargne en euros ne sont pas réplicables. Cela signifie que le marché
n’est pas complet, et que si toutefois une mesure de probabilité neutre au risque existe, alors elle n’est
pas unique.
Une autre problématique réside dans l’utilisation de la mesure de probabilité neutre au risque pour
les calculs des passifs d’épargne en euros, ce point est détaillé dans le prochain paragraphe.
Dans ce paragraphe, les notations adoptées dans le paragraphe 1.2.1 sont conservées.
La mesure de probabilité neutre au risque Q est équivalente à la probabilité historique P. Formel-
lement, cela signifie qu’elles ont le même ensemble de négligeable (ensemble de mesure nulle).
Le moyen technique de passer de l’une à l’autre est donné par le théorème de Girsanov (cf. Ben-
Tahar et al. (2016)). Considèrons un mouvement brownien W P sous P, sur (Ω, F, P, F), dont la
filtration naturelle est F. Si λ = {λ(t), 0 ≤ t ≤ T } est un processus adapté à F, vérifiant la condition
de Novikov (cf. Agbaholou (2018)), alors il existe une mesure Q sur (Ω, F, F), équivalente à P, définie
par la densité de Radon Nikodym (cf. équation 1.7), telle que :
Z T Z T
dQ 1
L(T ) = = exp (− P
λ(s)dW (s) − λ(s)2 dW P (s)),
dP 0 2 0 (1.7)
P
L(t) = −L(t)λ(t)dW (t).
Ce processus de vraisemblance permet d’écrire l’équation 1.8, pour tout processus X intégrable. Cette
égalité est fondamentale pour la suite du mémoire.
Le passage entre les deux mesures de probabilité s’opère au moyen d’un processus λ, représentant la
prime de risque. Considérons la dynamique d’un actif donné par l’équation 1.9.
Il suffit d’injecter l’expression 1.6 dans la dynamique historique de l’actif pour avoir sa dynamique sous
Q (cf. équation 1.10). Certains modèles, à un changement de paramètres près, ont des dynamiques
identiques sous P et Q.
Un point intuitif est proposé sur les deux univers sous P et sous Q respectivemement appelé réel
/ historique et neutre au risque pour clarifier les idées. Les informations suivantes sont essen-
tiellement issues de Donio et Debaere (2021).
• L’univers réel est le plus intuitif des deux puisqu’il correspond à ce qui est effectivement ob-
servé. Le calibrage d’un modèle en univers réel s’appuie en général sur un historique de données,
pour en reproduire les comportements passés. En revanche, la détermination du taux d’actuali-
sation dans cet univers est plus complexe. Sous probabilité historique, des observations réelles
d’indices financiers sont projetées : les rendements des actifs intègrent une prime de risque, qui
est variable dans le temps et dont l’interprétation n’est pas évidente. L’approche en probabi-
lité historique nécéssite de prendre en compte dans la modélisation cette prime de risque, alors
qu’elle est directement intégrée au mouvement brownien dans l’approche neutre au risque.
• L’univers neutre au risque a l’avantage d’être plus simple à mettre en oeuvre : c’est un
univers conceptuel dans lequel l’aversion au risque de l’investisseur n’est pas intégrée dans la
paramétrisation. Sous probabilité neutre au risque, le rendement est le taux sans risque, cela
rend l’investisseur insensible à la fluctuation des actifs, même dans des scénarios extrêmes, ce
qui n’est pas réaliste. Si l’univers neutre au risque simplifie largement les évaluations prospectives
demandées par la réglementation, les rendements projetés ne correspondent pas à l’univers ob-
servé. De fait, l’univers neutre au risque ne change pas les états du monde, mais il change les pro-
babilités d’occurrence. Illustrons-le avec l’exemple de Donio et Debaere (2021). Considérons
deux actifs financiers, l’un sans risque, l’autre risqué, comme présenté dans la figure 1.1. Chacun
des deux actifs peut prendre une valeur à la hausse ou à la baisse en T = 1, avec une probabilité
de 50% dans les deux cas.
L’univers neutre au risque repose sur le fait que les individus sont neutres à la notion du risque,
le rendement est de 3% pour les deux actifs. Le passage en univers neutre au risque se traduit par
l’équation 1.11, la solution est pQ = 36%. Il consiste à augmenter la probabilité de survenance des
évènements défavorables pour l’investisseur de manière à réfléter son aversion pour le risque , Armel
et Planchet (2020c).
1.3. UNE NOUVELLE APPROCHE : LE DÉFLATEUR STOCHASTIQUE 35
Les valeurs des actifs n’ont pas changé, en revanche, la probabilité des différents scénarios est modifiée.
Et effectivement, une hausse de la probabilité du scénario le plus défavorable est observée (cf. la figure
1.2).
Figure 1.2: Dynamique en univers neutre au risque : actif sans risque/actif risqué
En utilisant la probabilité neutre au risque dans les générateurs de scénarios économiques, des
scénarios extrêmes avec une forte probabilité d’occurrence sont injectés dans le modèle ALM, c’est à
dire des scénarios défavorables qui sont peu probables sous P, mais dont l’occurrence est beaucoup plus
forte sous Q. Cela soulève une incohérence quant à l’interprétation et à l’utilisation de ces scénarios,
qui ne collent pas à la réalité.
L’article Armel et Planchet (2020c) met en avant que dans les moteurs ALM, des fonctions de
réactions sont implémentées. Ce sont des fonctions qui modélisent la réaction de l’assuré à un scénario
économique. C’est notamment le cas pour le rachat dynamique, modélisé dans le moteur ALM par un
taux de rachat qui dépend du taux servi par l’assureur, et du taux attendu par l’assuré. Le papier de
recherche Armel et Planchet (2020c) démontre deux éléments aux travers de leur étude.
• Premièrement, comme des scénarios neutres au risque atypiques sont injectés dans le moteur
ALM, les fonctions de réaction sont difficiles à interpréter parce qu’elles réagissent à des scénarios
non observés, et peu probables.
• Deuxièmement, pour une même évaluation du Best Estimate, les auteurs de Armel et Planchet
(2020c) ont montré qu’en injectant les sorties d’un GSE sous probabilité historique dans le mo-
teur ALM, le Best Estimate résultant est inférieur au Best Estimate obtenu en ayant introduit
les scénarios du GSE sous la probabilité neutre au risque dans le moteur ALM.
L’article montre que les scénarios historiques diminuent le nombre de scénarios atypiques, et en-
traı̂ne une réaction moins extrême des assurés, et donc un taux de rachat moins élevés, ce qui diminue
le passif de l’assureur.
Trois éléments peuvent rendre discutable l’utilisation de la probabilité neutre au risque pour l’évaluation
des passifs des contrats d’épargne euros :
• les contrats d’épargne en euros ne sont pas réplicables (cf. Armel et Planchet (2020b)),
36 CHAPITRE 1. CONTEXTE ET PROBLÉMATIQUE
• des opportunités d’arbitrage persistent sur le marché des contrats d’épargne en euros (cf. Armel
et Planchet (2020b)),
• les scénarios économiques sous la probabilité neutre au risque injectés dans les moteurs ALM
induisent un biais dans la valorisation des passifs (cf. Armel et Planchet (2020b)).
La suite est focalisée sur le troisième point : trouver un moyen d’enlever le biais dans l’évaluation des
passifs dû aux scénarios économiques neutres au risque.
Le support Adam et al. (2014) présente plusieurs pistes. Une première solution peut être de modifier
les scénarios extrêmes. En effet certains praticiens rectifient les trajectoires problématiques en les ni-
velant. Malencontreusement cette manipulation revient à modifier la mesure de probabilité neutre au
risque si la trajectoire retraitée intervient dans la valorisation de tous les flux. C’est problématique
car dans un marché supposé complet, la mesure neutre au risque est unique. Cette idée fait face à
une incohérence théorique. Il en découle une autre possibilité : classer les flux de trésoreries en deux
catégories. Deux types de flux peuvent être distingués : les flux de trésorerie sur lesquels l’assureur
peut intervenir (par exemple la PB), et ceux sur lesquels il ne peut pas (par exemple les cash flows des
instruments financiers). Seuls les flux de la première catégorie sont touchés par des règles de gestion
ALM. S’il est décidé de niveler seulement ces derniers, alors ces retraitements peuvent être considérés
comme un effet de la politique ALM. Cela permet de palier au problème d’unicité de la mesure neutre
au risque. Cette option a finalement été laissée de côté à cause de la complexité de sa mise en oeuvre,
notamment dans la bonne identification des flux, qui est sujet à un risque opérationnel élevé.
D’autre part, l’article Selma (2016) recommande d’adopter des modèles de GSE plus réalistes,
voir d’abandonner complètement l’approche en univers neutre au risque, et de se détacher des modèles
conceptuels. L’article suggère également aux actuaires, pour le calibrage du GSE, d’utiliser des données
plus stables, comme par exemple en faisant une moyenne sur deux mois, au lieu d’utiliser des données
de marché au 31/12 de chaque année : en calibrant leur modèle sur des données de marché prises
au 31/12, ils reposent toute leur valorisation de solvabilité sur la base du dernier trade de marché ! .
Les déflateurs sont des facteurs d’actualisation stochastiques. Le déflateur définit par le processus
D = {D(t), 0 ≤ t ≤ T }, vérifie l’égalité 1.12.
Z T
EQ [S(T ) × exp (− r(s)ds)|F(t)] = EP [S(T ) × D(T )|F(t)]. (1.12)
t
RT
Dans la suite, la notation δt = exp (− t r(s)ds) est adoptée.
Pour passer d’un côté de l’égalité à l’autre dans l’équation 1.12, un changement de probabilité est
effectué (qui s’opère grâce au théorème de Girsanov), en prenant X(T ) = S(T ) × δ(T ) dans l’égalité
1.8, vu au paragraphe 1.2.3, qui permet de passer d’une espérance sous Q à une espérance sous P.
1.3. UNE NOUVELLE APPROCHE : LE DÉFLATEUR STOCHASTIQUE 37
Constater l’équation 1.12, permet de convenir que les approches neutre au risque et historique
sont complètement équivalentes avec la mise en place du déflateur. Du fait de cette équivalence, le
cadre d’évaluation reste le même : il s’agit toujours de celui de l’évaluation en l’absence d’opportunité
d’arbitrage.
Comme expliqué précédemment, l’une des difficultés de la projection des scénarios en univers
historique est de trouver une méthode pour actualiser les flux. Avec l’utilisation d’un déflateur, pri-
cer en univers historique revient à ajuster le facteur d’actualisation δ. Il convient alors de multiplier
le flux au temps t, par le déflateur (cf. équation 1.12) au temps t, pour l’actualiser. De cette façon, le
prix d’un actif peut être calculé en restant en univers historique.
Certes, les deux approches sont équivalentes mathématiquement. Mais conceptuellement, l’utili-
sation du déflateur change la donne. Le fait d’utiliser le déflateur permet de rester en univers réel,
autrement dit l’univers observé, et de se détacher du cadre conceptuel de l’univers neutre au risque.
Finalement l’approche en univers historique est un procédé qui conduit à voir le facteur d’actualisa-
tion comme la densité d’une mesure de probabilité par rapport à P. La différence entre les deux
approches réside dans la paramétrisation, et dans l’implémentation car il faut construire
le processus D tel qu’il vérifie l’équation 1.12 pour tous les actifs S considérés dans le
générateur de scénarios économiques.
Le papier de recherche Cheng et Planchet (2018a) met en place un GSE en probabilité historique,
en construisant un déflateur, afin de remédier à la problématique du biais introduit dans les modèles
de revalorisation. Cette première étape franchie, le papier Armel et Planchet (2020b) reprend ce
travail dans la perspective de le rendre cohérent avec la réglementation, et de faciliter sa mise en place
opérationnelle.
Le papier Cheng et Planchet (2018a) adopte une approche par les déflateurs dans un univers
historique pour calculer les Best Estimate des contrats d’épargne en euros. La difficulté de générer des
scénarios en probabilité historique est liée à la prise en compte de la prime de risque, et à la manière
d’actualiser les flux. Cheng et Planchet (2018a) montre que le déflateur stochastique permet de
répondre à cette problématique.
Le papier de recherche présente la construction d’un GSE en univers historique. Il s’articule de la
manière suivante :
2. construction du déflateur ;
1. Variables financières : Le GSE est constitué du déflateur et de cinq facteurs de risque : taux
d’intérêt, prix de marché du risque, prix des actions, risque de défaut, et le rendement implicite. La
diffusion du taux d’intérêt, du prix des actions, du risque de défaut et du rendement implicite repose
sur leurs dynamiques stochastiques respectives (modèles choisis), toutes dépendant d’un mouvement
brownien, corrélés entre eux. Pour les diffuser, le vecteur des browniens corrélés est exprimé comme
le produit d’une matrice des corrélations et d’un vecteur de brownien indépendant.
Les deux derniers points permettent de garder le cadre d’évaluation dans un marché sans opportunité
d’arbitrage, même en univers réel.
3. Simulation : Une fois que la dynamique de chaque processus est déterminée, des valeurs sont
choisies pour les paramètres afin de simuler les processus. Ensuite, chaque processus est discrétisé pour
être simulé, selon trois méthodes de discrétisation approximatives différentes : la méthode d’Euler, la
méthode de Milstein, et la seconde méthode de Milstein simplifiée.
L’application des méthodes de discrétisation approximatives est lourde et fastidieuse, et la mise
en place opérationnelle est complexe. Le lecteur peut s’y référer (cf. Cheng et Planchet (2018a)
et Cheng et Planchet (2018b)) pour s’en rendre compte. Le papier Armel et Planchet (2020b)
le mentionne, et ajoute également que les méthodes de discrétisation approximatives ne sont pas
appropriées au cadre de l’assurance vie. Elles produisent des erreurs de convergences non négligeables
dues à l’horizon de projection de long terme, et demandent un nombre de trajectoires simulées bien plus
conséquents. L’article Armel et Planchet (2020b) met en avant que le processus du taux d’intérêt
choisi dans l’article Cheng et Planchet (2018a) est le CIR simple, qui ne permet pas d’avoir des
taux d’intérêts négatifs, ni de reproduire la courbe de taux sans risque publiée par l’EIOPA. Ce qui
rend cette première approche avec déflateur inadaptée au référentiel Solvabilité II. Enfin, le papier
Cheng et Planchet (2018a) ne propose pas de méthode pour calibrer les paramètres des modèles en
probabilité historique. Pour la simulation, les paramètres sont choisis arbitrairement pour tester
le modèle.
La méthode proposée par le papier de recherche Cheng et Planchet (2018a) est une première
démarche qui permet de générer des scénarios économiques en probabilité historique avec la mise
en place d’un déflateur pour actualiser les flux. Cette approche reste trop lourde pour être mise en
pratique de manière opérationnelle, et est limitée par des problèmes numériques. De plus elle n’est pas
1.3. UNE NOUVELLE APPROCHE : LE DÉFLATEUR STOCHASTIQUE 39
en accord avec Solvabilité II : la courbe de taux sans risque réglementaire ne peut pas être reproduite
avec le modèle de taux CIR choisi.
Dans la continuité des travaux de Cheng et Planchet (2018a), les auteurs de Armel et Planchet
(2020b) présentent un nouveau papier de recherche sur la construction du GSE en probabilité histo-
rique dans une perspective évolutive d’amélioration.
Afin que le modèle soit conforme avec Solvabilité II, le processus de taux choisi est le CIR++.
Contrairement au processus CIR, il prend en compte les taux négatifs, et reproduit la courbe de taux
sans risque publiée par l’EIOPA. Pour palier aux problèmes numériques, les processus sont simulés
par discrétisation exacte.
Le papier décrit également une méthode permettant de calibrer les modèles en univers réel. Les
auteurs se sont tenus à un calibrage implicite des modèles, reposant sur les prix des produits dérivés
à date d’évaluation, afin d’être market consistent.
Les travaux des papiers de recherche Cheng et Planchet (2018a), Armel et Planchet (2020c),
et Armel et Planchet (2020b) réunis montrent donc :
• une méthode pour diffuser un GSE en probabilité historique (cf. Cheng et Planchet (2018a)) :
- en utilisant un déflateur pour actualiser les flux en probabilité historique,
- et en modélisant une prime de risque,
• une méthode pour calibrer un GSE sous la probabilité P (cf.Armel et Planchet (2020b)) :
- en utilisant un historique de données pour calibrer la prime de risque,
- en utilisant les prix des produits dérivés et les formules fermées associées pour
calibrer les paramètres de tous les autres processus du GSE,
• les effets sur le Best Estimate en introduisant des scénarios sous P dans le moteur ALM et non
pas des scénarios sous Q (cf. Armel et Planchet (2020c)).
L’objectif donné au mémoire intervient dans l’étape ci-dessus mise en gras : les auteurs de l’article
Armel et Planchet (2020b) se sont demandés s’il était possible de trouver un processus de calibrage
robuste à partir d’un ensemble de données historiques pour estimer les paramètres des processus
diffusés dans le GSE, et non pas à partir d’une méthode implicite impliquant l’utilisation des prix des
produits dérivés.
Les travaux théoriques et numériques se dérouleront ainsi :
• Etape n°1 : Les paramètres à calibrer doivent être identifiés. Cette première étape se manisfeste
par la construction du GSE et du déflateur. Une fois le GSE construit, les paramètres qu’il faudra
estimer seront connus.
• Etape n°2 : L’étape 2 représente une partie importante du travail. Il s’agit de chercher et de
trouver des méthodes pour estimer les paramètres du GSE à partir d’un historique de données.
Il faudra donc également trouver les données adéquates.
• Etape n°3 : Une fois la théorie des modèles écrite, la dernière étape est de les mettre en oeuvre
numériquement. Un schéma récapitulatif de l’organisation du mémoire est proposé dans la figure
1.3.
40 CHAPITRE 1. CONTEXTE ET PROBLÉMATIQUE
Ce chapitre est principalement théorique. Il présente les outils et les modèles qui seront utilisés pour
obtenir les résultats. Dans un premier temps, celui ci explique la contruction théorique du déflateur, et
expose la forme du GSE retenu. Cette première étape est fondamentale : elle donne les éléments pour
identifier les paramètres à calibrer (cf. schéma 2.1). C’est donc un passage obligatoire pour passer à
l’étape suivante, qui consiste à trouver des méthodes pour calibrer ces paramètres.
41
42 CHAPITRE 2. PROCESSUS THÉORIQUES DE CALIBRAGE DES PARAMÈTRES
Comme présenté dans le paragraphe 1.3.2, le déflateur est un processus stochastique. Sa dynamique
est déterminée à partir des actifs qui interviennent dans le générateur de scénarios économiques. Sa
construction est détaillée dans les prochains paragraphes.
Le déflateur est construit de manière générale : pour le moment les processus qui modèlisent les
variables du GSE ne sont pas spécifiques.
Définition du cadre
Le générateur de scénarios économiques dont la construction est présentée ci-dessous est celui du
papier Armel et Planchet (2020b). Les calculs et les démonstrations reprennent des éléments de
Armel et Planchet (2020b), Cheng et Planchet (2018b) et Dastarac et Sauveplane (2010).
Tout d’abord, la dynamique sous P des actifs nécéssaires à la construction du déflateur sont
présentés.
Taux d’intérêt : le taux court r = {r(t), 0 ≤ t ≤ T } suit la dynamique générale donnée par
l’équation 2.1.
P
dr(t) = α(t, r(t))dt + β(t, r(t))dWrate (t). (2.1)
Immobilier et action : l’actif risqué S = {S(t), 0 ≤ t ≤ T } suit la dynamique générale donnée par
l’équation 2.2.
P
dS(t) = µrisk (t)S(t)dt + σrisk (t)S(t)dWrisk (t). (2.2)
zéro-coupon : l’obligation zéro-coupon sans risque d’échéance T a pour dynamique générale l’équation
2.4.
P
dP (t, T ) = P (t, T )µ̃(t)dt + P (t, T )σ̃(t)dWrate (t). (2.4)
L’équation 2.4 peut également s’écrire comme l’équation 2.5. Il s’agit d’une application de la formule
d’Itô. Une démonstration est proposée page 40 de Dastarac et Sauveplane (2010), ou page 4 de
Cheng et Planchet (2018b).
2.1. CONSTRUCTION DU DÉFLATEUR 43
P
dP (t, T ) = P (t, T )[r(t) + σ̃(t)λ(t)]dt + P (t, T )σ̃(t)dWrate (t). (2.5)
p
P
dWrisk P
= ρWrate + 1 − ρ2 Wrate
P
⊥. (2.6)
Q P
dWrate (t) = dWrate (t) + λ(t)dt,
P
(2.7)
L(t) = −L(t)λ(t)dWrate (t).
Ainsi l’équation 2.7 permet de passer de la dynamique historique de l’actif à la dynamique neutre au
risque.
A présent, la forme du déflateur D peut être calculée. La dynamique générale de D est supposée
être l’équation 2.8. Il faut alors déterminer Ω, Φ, et Ψ, selon deux conditions (cf. Cheng et Planchet
(2018a)) :
P P
dD(t) = Ω(t)dt + Φ(t)dWrate (t) + Ψ(t)dWrate ⊥. (2.8)
Vérification de la condition 1
• Le premier est la formule d’intégration par parties du processus d’Itô. Considérons un processus
d’Ito X, alors {D(t)X(t), 0 ≤ t ≤ T } est un processus d’Itô et sa dynamique est donnée par
l’équation 2.9.
1. Commencer par le calcul d’Ω (commencer par Φ ou Ψ aurait également été possible).
5. Les expressions de Φ et Ψ sont déterminées en réitérant les étapes 1), 2) et 3), en calculant
respectivement les dynamiques de DP et DS. A l’issue des calculs, les résultats 2.13 sont obtenus.
Le processus λ apparaı̂t dans l’expression de Φ et Ψ : cela est simplement dû au fait que c’est
P , il faut
l’expression 2.5 du zéro-coupon qui est utilisé pour le calcul de DP . De même pour Wrisk
utiliser l’expression 2.6, pour pouvoir tomber sur l’expression 2.13 des fonctions.
Ω(t)
= −r(t),
D(t)
Φ(t)
= −λ(t), (2.13)
D(t)
Ψ(t) [r(t) + λ(t)σrisk (t)ρ − µrisk (t)]
= p .
D(t) σrisk (t) 1 − ρ2
Vérification de la condition 2
Il faut maintenant s’assurer que δB, δS, et δP sont des martingales sous Q. La méthodologie est
exactement la même que pour la vérification de la première condition, seulement les dynamiques
des actifs sont observées sous Q. Pour chaque processus, il convient de calculer sa dynamique à
l’aide de la formule d’intégration par parties d’Itô, puis d’annuler le terme en dt.
2.1. CONSTRUCTION DU DÉFLATEUR 45
Pour l’épargne, δB :
La dynamique de δB est nulle, donc le drift est nul. D’après le théorème de représentation des mar-
tingales, δB est une martingale sous Q.
Pour le zéro-coupon, δP :
Le drift est nul. D’après le théorème de représentation des martingales, δP est une martingale sous
Q.
Le drift vaut δ(t)S(t)[µrisk (t) − λ(t)σrisk (t)ρ − r(t)]. D’après le théorème de représentation des mar-
tingales, δS est une martingale sous Q si µrisk (t) = λ(t)σrisk (t)ρ + r(t).
Finalement, la condition pour vérifier le caractère de martingalité sous Q aux termes de ces trois
calculs, est µrisk (t) = λ(t)σrisk (t)ρ + r(t). En l’injectant dans la première expression du déflateur (cf.
équation 2.14), le déflateur prend la dynamique log-normale donnée en équation 2.18.
dD(t) P
= −r(t)dt − λ(t)dWrate (t). (2.18)
D(t)
Maintenant que la construction du déflateur est aboutie, la dynamique stochastique des variables et
leurs solutions pour la simulation exacte peuvent être totalement présentées.
46 CHAPITRE 2. PROCESSUS THÉORIQUES DE CALIBRAGE DES PARAMÈTRES
Dans cette section une condition de régularité supplémentaire est détaillée. Elle est liée à la diffusion
de l’actif risqué S. Après avoir déterminé les conditions de régularité 1 et 2, la dynamique de S est
rappelée par dans l’équation 2.19.
p
P
dS(t) = [r(t) + λ(t)σrisk (t)ρ]dt + S(t)σrisk (t)ρdWrate (t) + S(t)σrisk (t) 1 − ρ2 dWrate
P
⊥ (t). (2.19)
Z t
1 1
D(t)S(t) = D(0)S(0) × exp ( λ(s)σrisk (s)ρ − σrisk (s)2 − λ(s)2 ds)
0 2 2
Z t
P (2.20)
× exp ( σrisk (s)ρ − λ(s) dWrate (s))
0
Z t p
× exp ( σrisk (s) 1 − ρ2 dWrate
P
⊥ (s)).
0
Si les processus σrisk et λ sont des processus constants, alors DS est bien une martingale sous P.
En revanche, dans le cas où ces deux processus sont stochastiques, une condition suffisante pour
que DS soit martingale est de supposer la condition donnée par l’équation 2.21.
1 2 1
λ(s)σrisk (s)ρ − σrisk (s) − λ(s)2 = 0. (2.21)
2 2
Cette hypothèse est retenue dans le papier Cheng et Planchet (2018a), ainsi que dans le papier
Armel et Planchet (2020b). Celle-ci a un impact non négligeable car elle implique que la corrélation
P
entre les browniens Wrate P
et Wrisk vaut 1 en valeur absolue.
p
En effet si la condition 2.21 est choisie, alors σrisk (s) = λ(s)ρ ± λ(s) 1 − ρ2 . Comme ρ est forcément
inférieure ou égal à 1, cette équation n’admet de solution réelle que si |ρ| = 1.
P (s) = ρW P (s).
Il en découle que σrisk (s) = λ(s)ρ et que Wrisk rate
Ce paragraphe récapitule la dynamique des variables du GSE construit par Armel et Planchet
(2020b), après avoir construit le déflateur.
P (s) =
La vérification supplémentaire relative à la diffusion de l’actif risqué, donne les résultats σrisk (s)Wrisk
P 2
λ(s)Wrate (s) et µrisk (s) = r(t) + λ(s) . Ils permettent de réécrire la dynamique de l’actif risqué (cf.
équation 2.2) en fonction du processus de prime de risque et du taux court (cf. tableau 2.1).
2.1. CONSTRUCTION DU DÉFLATEUR 47
• le modèle de taux ;
• le déflateur ;
• le prix de l’actif risqué permettant de prendre en compte les investissements de types actions ou
en immobilier.
P (t)
dr(t) = α(t, r(t))dt + β(t, r(t))dWrate
Le tableau 2.1 décrit le modèle général du GSE en probabilité historique, en partant d’un modèle
de taux non spécifique. Dans la suite, le modèle retenu, reposant sur la construction du modèle générale
et sur un modèle de taux CIR++ est présenté.
Limites
L’article Cheng et Planchet (2018a) parvient à proposer un GSE en probabilité historique avec
un déflateur. Celui-ci présente certes des imperfections, mais donne la démarche pour construire le
processus d’actualisation : le déflateur. Le GSE en question est composé de cinq facteurs de risque,
mais l’article ne propose pas encore de processus pour le calibrer.
Pour amorcer ce travail, l’article Armel et Planchet (2020b) réduit le nombre de variables
du GSE dans un premier temps (cf. tableau 2.1, il n’y en finalement plus que 3), pour faciliter la
détermination d’un processus de calibrage. Il manque notamment, une variable pour le risque de
défaut, ce qui n’est pas négligeable, puisqu’il n’y a pas moyen de distinguer et de prendre en compte
les différentes notations des actifs au sein du portefeuille.
De plus, des hypothèses pour l’instant contraignantes (cf. section 2.1.2), sont retenues, comme
le fait que le brownien du taux d’intérêt et celui de l’actif risqué soit parfaitement corrélé. Dans les
paragraphes ci-dessous, le GSE finalement retenu est décrit, et permet d’identifier les paramètres à
calibrer. Le calibrage du GSE va se révéler dépendre uniquement des paramètres du modèle de taux :
la dynamique des trois variables du GSE (dont le taux d’intérêt, cf. tableau 2.1) est restreinte aux
paramètres du modèle de taux, ce qui peut également être considéré comme une limite du GSE.
Il convient de garder à l’esprit qu’il s’agit d’une approche pas à pas , en vue d’améliorer la
modélisation et les résultats.
Jusqu’à présent le GSE présenté repose sur un modèle de taux non spécifique. Dans la suite, le GSE sera
construit à partir d’un modèle de taux CIR++. Les paragraphes suivants présentent les caractéristiques
48 CHAPITRE 2. PROCESSUS THÉORIQUES DE CALIBRAGE DES PARAMÈTRES
du processus CIR++ sous la probabilité neutre au risque Q et la probabilité historique P, ainsi que
la nouvelle forme du GSE.
Les informations de ce paragraphe reposent intégralement sur l’Annexe Armel et Planchet (2020a).
Le modèle CIR (Cox - Ingersoll - Ross) présente des propriétés analytiques très intéréssantes, ce
qui lui confère, au même titre que le modèle de Vasicek, un grand succès auprès des acteurs du marché.
Le modèle de Vasicek (dx(t) = k(θ − x(t))dt + σdW (t)) a l’avantage de s’écrire sous la forme d’une
équation linéaire, dont la distribution est gaussienne.
Les modèles CIR et de Vasicek permettent de calculer analytiquement (avec des formules fermées),
les prix des obligations et de certaines options. Le modèle CIR, contrairement au modèle de Vasicek,
produit des taux courts instantanés toujours positifs. Ceci est du à l’introduction d’un terme en racine
carrée dans sa dynamique, donnée par l’équation 2.22.
p Q
dx(t) = k(θ − x(t))dt + σ x(t)dWrate (t). (2.22)
Avec x(0) = x0 , k, θ et σ des constantes strictement positives. Pour que les taux restent positifs, les
paramètres doivent respecter la condition de Feller : 2kθ > σ 2 .
Même si ces deux processus proposent des caractéristiques analytiques très pratiques, la structure
des taux produite par ces deux modèles ne représente pas nécessairement celle qui est observée sur
le marché. Pour faire coincider la structure par terme des taux du marché avec celle produite par le
modèle, deux solutions sont possibles (cf. Armel et Planchet (2020a)) :
Pour décrire le processus CIR++ en probabilité historique, il est nécessaire de passer de l’univers neutre
au risque sous Q à l’univers réel sous P, comme il a été décrit précédemment dans le paragraphe 1.2.3.
Il convient de définir le processus de prime de risque λ et d’effectuer un changement de probabilité.
Attention dans la suite à ne pas confondre le processus de prime de risque {λ(t), 0 ≤ t ≤ T }, désigné
auparavant et encore ensuite par le processus λ , avec le paramètre de facteur du risque noté et
désigné simplement λ, qui intervient dans le processus de prime de risque du processus CIR++.
2.1. CONSTRUCTION DU DÉFLATEUR 49
2kθ(exp{th}−1) 2
4h exp{th}
f CIR (0, t; α) 2h+(k+h)(exp{th}−1) + x0 [2h+(k+h)(exp{th}−1)] 2
α (k, θ, σ)
p 2
h (k + 2σ 2 )
√ Dans le papier Armel et Planchet (2020b) le processus de prime de risque est défini par λ(t) =
λ x(t) Q
σ où λ est un nombre réel. Pour réaliser le changement de probabilité, l’expression de dWrate =
P
dWrate +λ(t)dt est injectée dans l’équation 2.22, ce qui permet d’obtenir la dynamique 2.23 du CIR++
sous P.
kθ p P
dx(t) = (k − λ)( − x(t))dt + σ x(t)dWrate (t),
k−λ (2.23)
x(0) = x0 .
kθ
Par identification, k̃ = k − λ, θ̃ = k−λ et σ̃ = σ, il est facile de constater que le processus r suit
également un processus CIR++ sous la probabilité historique P.
kθ
De plus 2k̃ θ̃ = 2(k − λ)( k−λ ) = 2kθ. Ainsi, la contrainte de Feller est vérifiée sous la mesure Q
si et seulement si elle l’est sous la mesure P. Par conséquent, le processus CIR++ possède les mêmes
propriétés analytiques sous P que sous Q.
Finalement, calibrer le CIR++ sous P (cf. l’expression 2.23) revient à calibrer les paramètres k, θ, et
σ du processus CIR++ sous Q. Le paramètre du facteur de risque λ peut être calibré indépendamment.
Une fois ces quatre paramètres estimés, les paramètres k̃, θ̃, σ̃ du CIR ++ sous P en sont automati-
quement déduits.
GSE retenu
Le GSE en probabilité historique retenu est le GSE présenté dans le tableau 2.1, mais en substituant le
modèle de taux non spécifique par un modèle CIR++. L’intérêt d’avoir présenté le modèle de manière
générale, est qu’il suffit à présent de remplacer les paramètres dans les expressions des dynamiques du
tableau 2.1 avec ceux du modèle de taux CIR++, et d’y injecter l’expression de la prime de risque du
processus CIR++.
Les équations différentielles du déflateur stochastique et de l’actif risqué du GSE admettent une
solution, ce qui permet de déterminer l’expression du déflateur et de l’actif risqué, et de les simuler de
manière exacte. Leurs expressions sont respectivement données par les équations 2.24 et 2.25. Leurs
démonstrations étant détaillées dans l’annexe de Armel et Planchet (2020b), et non strictement
nécéssaire à la suite des travaux, elle n’est donc pas reprise dans ce document.
R 2
λkθ 2 T
D(T ) = D(t) exp σ (T − t) exp − t ϕ(s)ds exp − σλ (x(T ) − x(t)) exp(−(1
R (2.24)
λ2 λk T
− 2σ 2 + σ2 t x(s)ds .
50 CHAPITRE 2. PROCESSUS THÉORIQUES DE CALIBRAGE DES PARAMÈTRES
2 R 2
T
S(T ) = S(t) exp − σλ kθ(T − t) · exp t ϕ(s)ds · exp σλ (x(T ) − x(t)) · exp((1
R (2.25)
λ2 λk 2 T
− 2σ 2 + σ t x(s)ds .
Les expressions du modèle de taux (cf. équation 2.23), du déflateur (cf. équation 2.24) et de l’actif
risqué (cf. équation 2.25) sont toutes exprimées en fonction des paramètres k, θ, σ, et λ du processus
CIR++. Ainsi, calibrer le GSE de Armel et Planchet (2020b), revient à calibrer le modèle de taux
CIR++.
A titre de rappel, l’univers réel, aussi dit univers historique, est l’univers observé, autrement dit
l’univers sous P. L’univers neutre au risque, quant à lui, est issu d’un changement de probabilité. C’est
l’univers conceptuel sous la probabilité Q. D’un univers à l’autre, et donc d’une probabilité à l’autre,
les processus changent de dynamiques. Un processus stochastiques X admet une dynamique sous P et
une dynamique sous Q (cf. paragraphe 1.2.3).
A présent, une autre nuance est ajoutée. Il existe deux approches pour calibrer un processus. Une
approche implicite, et une approche historique. Ce qui engendre quatre façons de calibrer un processus
selon sa dynamique :
Pour calibrer un modèle stochastique, deux possibilités existent. La première revient à évaluer impli-
citement les paramètres sur les prix de marché observés à la date de calcul. La seconde consiste à faire
une estimation par le biais de méthodes statistiques, à partir d’une série chronologique de données,
désignée aussi par le terme données historiques .
Méthode implicite
La méthode implicite est la méthode utilisée pour que l’évaluation du BE soit cohérente avec les
prix du marché. Cette partie détaille l’Etape 3 du processus de valorisation actuel présentée en sous
section 1.2.2.
Selon la réglementation, les scénarios économiques pour calculer le BE doivent être cohérents
avec le marché financier. La qualité d’un GSE est mesurée par sa capacité à reproduire les prix des
produits financiers à une date t. Ce qui implique que les modèles doivent être calibrer sur les données
de marché observées. Dans ce contexte, l’approche de calibrage standard des paramètres des modèles
du GSE revient à celle utilisée pour calibrer les produits dérivés. L’environnement est par conséquent
l’environnement sous probabilité neutre au risque. Il s’agit d’une approche qui nécessite de :
• construire le vecteur de prix théoriques du produit dérivé P rixtheoriques (π) dépendant du vecteur
des paramètres π à estimer ;
Etape 1, choix des modèles et de la distance : Le choix du modèle de taux, ici le CIR++, est
effectué. Le CIR++ possède de bonnes propriétés analytiques puisqu’il permet de valoriser le
prix des caps et des swaptions sur obligation zéro-coupon grâce à une formule fermée (cf. Armel
et Planchet (2020a)). Ainsi les produits dérivés choisis sont les caps et les swaptions.
Etape 2, extraction des prix observables : Il faut ensuite choisir/fixer un prix d’exercice pour
les produits dérivés en question. Les prix des produits dérivés ne sont pas toujours directement
observables sur le marché. En revanche leur volatilité implicite l’est. Il peut être nécessaire de
reconstituer la formule de Black-Scholes à partir de la volatilité implicite pour obtenir les prix
des caps et des swaptions. Dans ce cas, le prix reconstitué fait office de prix observé .
Etape 3, valorisation : Les formules fermées correspondent au prix théorique, qui dépendent des
paramètres à calibrer. Les formules fermées pour la valorisation CIR ++ des caps et des swaptions
sont présentées dans Armel et Planchet (2020d).
Etape 4, estimation des paramètres : La distance minimisée est d(P rixtheoriques (π), P rixobserves ),
si les prix sont directement observables sur le marché.
Sinon la distance minimisée est d(P rixtheoriques (π), P rixreconstitues ), si seules les volatilités im-
plicites sont observables.
Dans la problématique du mémoire, le vecteur π s’identifie au vecteur (k, θ, σ). Comme le modèle de
taux est un processus CIR++ sous P et sous Q, pour le calibrer sous P, l’article Armel et Planchet
(2020b) utilise les propriétés analytiques du processus CIR++ en univers neutre au risque, et opte
pour un processus de calibrage implicite.
52 CHAPITRE 2. PROCESSUS THÉORIQUES DE CALIBRAGE DES PARAMÈTRES
Le choix effectué dans l’article Armel et Planchet (2020b) est de calibrer dans un premier temps
(k, θ, σ) avec une méthode implicite, et le facteur de risque λ, paramètre du processus de prime de
risque, dans un deuxième temps.
Notons que la méthode implicite ne nécessite pas d’observations de la valeur cible (ici le taux court
instantané) pour la calibrer. Seulement des prix des produits dérivés à la date du calibrage. Ce n’est
pas le cas pour l’approche historique.
Méthode historique
Avec l’approche historique, le calibrage ne repose pas sur la valeur des produits dérivés à une date
t, mais sur une chronologie de données. Contrairement à la méthode implicite, la méthode historique
nécessite d’un échantillon d’observations de la valeur cible (ici le taux court instantané) à calibrer. Les
méthodes historiques pour le calibrage sont des méthodes développées en univers réel (par exemple :
estimateur du maximum de vraisemblance, développements limités, méthode des moments, modèle
linéaire), alors que la méthode implicite est une méthode issue de la théorie financière, dédiée à
l’évaluation des produits dérivés (cf. Chapitre 1).
Les paramètres implicites dépendent du prix des instruments financiers, tandis que les paramètres
calibrés sur un historique de données dépendent justement du choix de ces données (indices, volume,
source, fréquence, période. . . ).
Par exemple, le mémoire Beuil (2010) propose un calibrage du modèle de Vasicek sous Q sur un
historique de données. La méthode utilisée est une méthode statistique : le taux court instantané peut
s’écrire sous la forme r(t + 1) = β1 r(t) + β0 + . A partir de cette expression, Beuil (2010) applique
une régression linéaire aux taux d’inflation à l’aide de données de régression.
Armel et Planchet (2020b) propose d’estimer le facteur de risque à partir de l’excès de rendement
historique moyen que génère l’actif risqué par rapport au taux sans risque.
Pour y parvenir, le calcul de l’espérance de l’excès de rendement à long terme est effectué (cf.
expression 2.26). Sur le long terme, quand t >> 0, cette valeur ne dépend plus de t, et seulement
du facteur de risque λ et des paramètres du processus CIR ++. L’expression dépend des paramètres
(k, θ, σ, λ) car elle est calculée à partir de l’actif risqué S (en effet il s’agit de son excès de rendement),
dont l’expression dépend exactement de ces paramètres (cf. équation 2.25). La démonstration étant
entièrement détaillée dans l’annexe de Armel et Planchet (2020b), et non fondamentale pour la suite
des travaux, elle n’est pas reprise dans ce document.
2
!
kθ kθ λ2
E p (e∞ ) = 2 (k − h) + 1+ . (2.26)
σ k−λ 2σ
2.2. PRÉSENTATION DE DEUX APPROCHES POSSIBLES POUR LE CALIBRAGE DU GSE53
Armel et Planchet (2020b) fait le choix de calibrer dans un premier temps les paramètres
(k, θ, σ) via une approche implicite : ces paramètres sont donc déjà connus. En approximant l’espérance
mathématique de l’excès de rendement à long terme E p (e∞ ) par une valeur numérique calculée à
partir d’un historique de rendement, déterminer le facteur du risque λ revient à résoudre une équation
polynomiale du second ordre. La solution λ̂ peut être complexe (dans le sens où elle n’appartient pas à
R), dans cette configuration, Armel et Planchet (2020b) propose de retenir la solution réelle 2.27.
kθ 2 λ2
kθ
λ̂ = argmin (k − h) + 1 + 2 − E p (e∞ ) . (2.27)
λ σ k−λ 2σ
Pour récapituler, le papier de recherche Armel et Planchet (2020b) comprend le calibrage du GSE
historique en utilisant :
• une approche implicite pour le calibrage des paramètres k, θ, σ du modèle de taux CIR ++
sous la probabilité Q,
- Une fois k, θ et σ obtenus, ils peuvent être utilisés dans l’équation 2.27 pour estimer le facteur
de risque λ.
- Une fois λ estimé grâce à l’équation 2.27, la totalité des paramètres du processus CIR ++
sous P sont connus : k, θ, σ, λ. Le processus CIR ++ sous P est ainsi calibré. Une approche
implicite a été utilisée pour k, θ et σ, et une approche historique a été utilisée pour λ.
• une approche historique pour le calibrage des paramètres k, θ, σ du modèle de taux CIR ++
sous Q,
- Une fois k, θ et σ obtenus, ils peuvent être utilisés dans l’équation 2.27 pour estimer le facteur
de risque λ.
• une approche historique pour le calibrage du facteur de risque λ, identique à celle de Armel
et Planchet (2020b).
- Une fois λ estimé grâce à l’équation 2.27, la totalité des paramètres du processus CIR ++
sous P sont connus : k, θ, σ, λ. Le processus CIR ++ sous P est ainsi calibré. Une approche
historique a été utilisée pour k, θ et σ, et une approche historique a été utilisée pour λ.
Une méthode historique est déjà proposée par Armel et Planchet (2020b) pour l’ajustement du
facteur de risque. Celle-ci sera retenue dans le présent document. Les travaux sont alors focalisés sur
la recherche d’un processus de calibrage historique pour calibrer les paramètres k, θ, et σ du processus
CIR ++.
Comme aucun processus conventionnel n’existe pour calibrer le modèle de taux CIR++ selon
une approche historique dans le contexte d’évaluation des BE des contrats d’épargne en euros, la
54 CHAPITRE 2. PROCESSUS THÉORIQUES DE CALIBRAGE DES PARAMÈTRES
suite du travail consiste en de la recherche. En effet, les qualités très appréciables du CIR++ est qu’il
présente des formules fermées des prix des produits dérivés P rixtheoriques , qui facilite grandement le
calibrage. Ces modèles sont faits et sont utilisés pour reproduire la situation du marché à un instant
t. Plusieurs références sur le calibrage du CIR ++ en univers neutre au risque existent, cependant, la
documentation sur le calibrage du processus CIR ++ en univers réel sur un historique de plusieurs
années est rare voir inexistante : ce n’est pas ce pourquoi le modèle a été construit, ni l’univers dans
lequel il est utilisé par les praticiens. De plus, il ne présente pas de bonnes propriétés sous P et Q : sa
loi de probabilité est peu pratique , cf. Henon et Turinici (2020).
L’enjeu est d’abord de trouver des idées de méthodes pour calibrer le CIR++ sous P, avec une
approche historique. Ensuite les méthodes sont implémentées, afin de les explorer et de les étudier,
pour savoir si oui ou non elles sont exploitables, ou du moins dans quelle mesure.
Une autre difficulté qu’il est possible de souligner, est que la chronique du taux court instantané
n’est pas une valeur donnée par le marché. Il ne sera donc pas possible de calibrer directement le
modèle de taux CIR++ sur un jeu de données de taux courts instantanés observés sur le marché.
2.2.3 Données
Ci-dessous sont présentées les données nécessaires à chaque étape des travaux du mémoire.
Pour calibrer le facteur de risque, un historique de rendements des actions et des investissements en
immobilier de 2001 à 2018 a été retenu par Armel et Planchet (2020b), afin de refléter la situation
économique à la date où le calibrage a été effectué, soit 2018.
Ainsi, Armel et Planchet (2020b) a retenu un historique de rendement {ei }, i ∈ 1, ..., d. Cet
historique permet d’approximerP l’espérance mathématique de l’excès de rendement à long terme par
l’excès de rendement moyen : d1 di=1 eM P
i ≈ E (e∞ ). De cette façon, l’équation 2.27 peut-être résolue.
L’excès de rendement moyen calculé par Armel et Planchet (2020b) est de 2, 7%. Cette valeur
est conservée telle quelle et ne sera pas ré-estimée par la suite.
Comme mentionné en section 2.2.2, la chronique du taux court instantané n’est pas une valeur ob-
servée. En effet, le taux court sans risque r(t), est une variable modélisée et théorique, nécessaire à la
projection. Mais par exemple, les taux zéro-coupon, eux sont observés. Du moins presque observés.
Précisément ces derniers sont reconstitués à partir de valeurs observées sur les marchés financiers. Les
courbes de taux zéro-coupon font parties des courbes de taux dites implicites , car construites
indirectement à partir des cotations de marché d’instruments comme les obligations et le swaps.
Contrairement au courbes de taux dites de marché , qui sont directement reprises à partir des
cotations de marché, comme la courbe de taux swap (cf. Thérond (2013)).
Aux vues des processus de calibrage proposés en 2.3, les courbes des taux zéro-coupon publiées
par la commission Indices et références de marché de l’institut des actuaires ont été choisies à
titre de données pour le calibrage du processus CIR++. A ce jour, seules les courbes des années
2019 et 2020 sont disponibles sur la page web en question : https://www.institutdesactuaires.com/
2.3. IDÉES DE PROCESSUS DE CALIBRAGE DU GSE SELON L’APPROCHE HISTORIQUE55
• L’échantillon qui permet le calcul est constitué de bons du Trésor, d’emprunts d’états et
d’OAT, d’un montant en circulation supérieur à 8 milliards d’euros.
• Les cours retenus dans le calcul sont des cours de clôture officiels du dernier jour de bourse du
trimestre. Il y a ainsi cohérence avec l’évaluation des actifs du bilan.
Maintenant que les paramètres à estimer sont identifiés, et que les données sont présentées, des idées
de méthodes de calibrage peuvent être étudiées (cf. figure 2.2). Pour calibrer le processus CIR ++, il
faut trouver de l’information à son propros. C’est-à-dire trouver des expressions liées à ce modèle et
qui dépendent de ses paramètres, et mettre ces expressions face aux données adéquates.
Le processus CIR ++ suit une loi de probabilité connue. A partir d’une loi de probabilité, la
densité de probabilité de la variable aléatoire peut s’écrire, la vraisemblance aussi, et pourquoi pas les
moments. La vraisemblance intervient dans la méthode de l’estimateur du maximum de vraisemblance.
56 CHAPITRE 2. PROCESSUS THÉORIQUES DE CALIBRAGE DES PARAMÈTRES
En déterminant une façon d’extraire le taux court instantané afin de construire un n-échantillon, cette
méthode est éventuellement une piste de processus de calibrage pour le GSE.
Il existe également de l’information dans les formules fermées liées au processus CIR ++, notam-
ment celle du prix d’un zéro-coupon. Les prix des zéro-coupon et les taux zéro-coupon sont des données
accessibles. A partir de la loi du taux zéro-coupon, une estimation par maximum de vraisemblance
sur les taux zéro-coupon peut aussi être envisagée.
Cette section formule une façon d’extraire le taux court instantané, et deux possibilités pour estimer
les paramètres du processus CIR ++.
Le modèle de Nelson Siegel est un modèle paramétrique. Une fois ajustée, celui-ci donne la possibilité
de retrouver le taux court instantané. Le modèle et la manière de récupérer le taux sont expliqués
ci-dessous, en s’appuyant sur Planchet (2020-2021) et Thérond (2013).
Dans le paragraphe 2.2.2, la difficulté suivante a été relevée : le taux court instantané n’est pas une
variable observée. En effet, il s’agit d’un taux en temps continu, il est par essence inobservable :
2.3. IDÉES DE PROCESSUS DE CALIBRAGE DU GSE SELON L’APPROCHE HISTORIQUE57
théoriquement, c’est le taux à chaque instant. Or c’est la variable cible dont les paramètres doivent
être ajustés. Dans ce contexte, deux possibilités sont envisageables :
• trouver un moyen d’extraire ou d’approximer les taux courts instantanés via un modèle, pour
construire un n-échantillon d’observations du taux court instantané à injecter dans la
vraisemblance ;
• comme le taux court instantané est inobservable, il est approché par un n-échantillon de valeurs
observables, proche du taux court instantané en définition. Par exemple, un n-échantillon de
taux forward ou un n-échantillon de taux zéro-coupon sont directement injectés dans la
vraisemblance du taux court instantané.
Le modèle de Nelson Siegel est une des différentes techniques qui permet de construire une courbe des
taux à partir des données de marché. Thérond (2013) définit une courbe de taux comme suit : La
structure par terme des taux d’intérêt (ou courbe des taux) est la fonction qui, à une date donnée,
associe pour chaque maturité le niveau de taux d’intérêt associé. Ci-dessous, la date t est fixée, et
chaque niveau de maturité est noté τ .
Nelson et Siegel, ont imaginé une fonctionnelle à trois facteurs de formes β0 , β1 , β2 , et un facteur
d’échelle τ1 , permettant de modéliser différentes courbes de taux zéro-coupon. Nelson et Siegel sup-
posent qu’à la date d’observation t, le taux forward à terme instantané s’écrit comme dans l’équation
2.28.
τ τ τ
ft (τ ) = β0 + β1 exp − + β2 exp − . (2.28)
τ1 τ1 τ1
Et comme le taux zéro-coupon s’exprime en fontion du taux forward à terme instantané, le modèle
de Nelson Siegel revient à décrire les taux zéro-coupon selon l’expression 2.29.
58 CHAPITRE 2. PROCESSUS THÉORIQUES DE CALIBRAGE DES PARAMÈTRES
Z τ
Rt (τ ) = ft (s)ds,
0
(2.29)
1 − exp − ττ1 1 − exp − ττ1
τ
Rt (τ ) = β0 + β1 τ + β2 τ − exp − .
τ1 τ1 τ1
Le vecteur paramètre est noté β = (β0 , β1 , β2 , τ1 ). Les paramètres sont estimés en minimisant
l’écart quadratique entre les taux zéro-coupon donnés par le modèle ci dessus et les taux observés sur
le marché à la date t.
L’étude des limites de ft (τ ) permet de mieux interpréter les paramètres (cf. Ndiaye et al. (2014)). En
effet :
Enfin :
Une autre formulation de l’équation 2.29 peut être adoptée en notant : ϕ(x) = 1−exp(−x)x et ψ(x) =
ϕ(x) − exp(−x). Sous la forme de l’équation 2.30, r0 (t), l(t) et c(t) représentent respectivement le taux
court instantané, le taux long, et la convexité à la date t, t fixé.
τ τ τ
Rt (τ ) = r0 (t)ϕ + l(t) 1 − ϕ + c(t)ψ . (2.30)
τ1 τ1 τ1
Cette formulation fait directement apparaı̂tre le taux court. Et par identification (cf. système 2.31),
l’interprétation des paramètres est bien retrouvée.
l(t) = β0 ,
r0 (t) − l(t) = β1 , (2.31)
c(t) = β2 .
Finalement, pour la courbe de taux zéro-coupon observée à la date t, Nelson Siegel permet d’estimer
β̂ pour une courbe de taux observée à la date t, et d’en déduire le taux court instantané à la date t.
2.3. IDÉES DE PROCESSUS DE CALIBRAGE DU GSE SELON L’APPROCHE HISTORIQUE59
Les paragraphes suivants avancent deux schémas de calibrage, qui reposent sur l’estimateur du maxi-
mum de vraisemblance (EMV). La première méthode est l’EMV sur la loi du taux court instantané
CIR ++, à partir d’un n-échantillon du taux court instantané extrait grâce au modèle de Nelson
Siegel. La deuxième méthode est l’EMV sur la loi du taux zéro-coupon du CIR ++, à partir d’un
n-échantillon de taux zéro-coupon de même maturité.
Le processus CIR, (cf. paragraphe 2.1.3), noté x, dispose d’une densité conditionnelle x(t)/x(s). Il s’agit
de la densité de probabilité d’une loi du Khi-deux non centrée à v degrés de liberté, et de paramètre
de décentralisation γ. La densité conditionnelle du CIR x(t)/x(s) est décrite dans l’équation 2.32 et
le tableau 2.3. Ces propriétés ont été trouvées dans l’Annexe Armel et Planchet (2020a).
4k
c σ 2 (1−exp(−k(t−s)))
4kθ
v σ2
La densité de probabilité d’une Khi-deux décentrée (cf. équation 2.33) fait intervenir une somme
infinie de densités de loi Gamma pondérées par des probabilités de la loi de Poisson. La loi Gamma
en question est aussi une loi du Khi-deux, mais centrée avec v + 2i degrés de liberté. La densité d’une
Khi-deux décentrée n’est pas sous une forme fermée. Il est à noter, que la somme infinie est un élément
qui peut en effet, numériquement, largement complexifier l’expression et l’utilisation de la densité de
x(t)/x(s).
γ
∞ − γ i
X e 2 2
pχ2 (v,γ) (z) = pγ(i+v/2,1/2) (z). (2.33)
i!
i=0
v
1 i+ 2
v z
pΓ(i+ v , 1 ) (z) = 2
× z i−1+ 2 × e− 2 = pχ2 (v+2i) (z). (2.34)
i + v2
2 2 Γ
A partir de la loi du processus CIR x(t)/x(s), en prenant s = 0 et x(0) fixé, la loi du processus
CIR ++, r(t) = x(t) + ϕ(t) peut être déterminée. Comme ϕ(t) est déterministe, la loi de r(t)/x(0)
60 CHAPITRE 2. PROCESSUS THÉORIQUES DE CALIBRAGE DES PARAMÈTRES
est déduite en faisant un changement de variable. Soit g une fonction mesurable, le changement de
variable est détaillé dans l’équation 2.35.
Z +∞
E[g(x + ϕ) | x(0)] = g(x + ϕ) × c × pχ2 (v,γ) (c × x) dx
0
Z +∞ (2.35)
= g(y) × c × pχ2 (v,γ) (c × (y − ϕ)) dy.
ϕ
Après changement de variable, et avec les mêmes notations que pour la densité du processus CIR
(cf. équation 2.32), la densité du processus CIR++ est donnée par l’équation 2.36 et le tableau 2.4.
4k
c σ 2 (1−exp(−kt))
4kθ
v σ2
γ c × x(0) × exp(−kt)
Grâce à la densité de r(t)/x(0), et à l’historique du taux court r(t), la méthode d’estimation des
paramètres par maximum de vraisemblance est envisageable. En notant l’historique du taux court
instantané (r1 , ..., rn ), et en considérant qu’ils sont indépendants et identiquement distribués la vrai-
semblance s’écrit comme en équation 2.37.
n
Y
L(k, θ, σ) = c × pχ2 (v,γ) (c(ri − ϕ(t))) 1ri ≥ϕ(t) . (2.37)
i=1
Le CIR ++ admet une formule fermée du prix zéro-coupon sous P (la démonstration se trouve dans
l’annexe de Armel et Planchet (2020b)). Celle-ci dépend des paramètres du processus. Elle peut être
utilisée pour les estimer. Cette méthode a l’avantage de ne pas poser la problématique de l’extraction
du taux court instantané, puisque le calibrage se fait directement sur les taux zéro-coupons, qui sont
accessibles (cf. paragraphe 2.3.1).
2.3. IDÉES DE PROCESSUS DE CALIBRAGE DU GSE SELON L’APPROCHE HISTORIQUE61
Le prix zéro-coupon évalué à la date t et d’échéance T du processus CIR ++ sous P s’écrit P T H (t, T ) =
Ā(t, T )e−B(t,T )x(t) et ne dépend ni de λ ni ϕ. x décrit le processus CIR. Les modèles de taux qui
présentent une écriture de la forme précédente de l’obligation zéro-coupon sont dits affines . L’an-
nexe technique Armel et Planchet (2020a) fournit une définition et une présentation détaillée des
modèles de taux par structure par termes affines.
P M (0, T ) est le prix observé en 0 de l’obligation zéro-coupon de maturité T . Les notations sont
précisées dans le tableau 2.5.
" n o # 2kθ2
(k+h)(T −t) σ
2 hexp 2
A(t, T ) 2h+(k+h)(exp{(T −t)h}−1)
2(exp{(T −t)h}−1)
B(t, T ) 2h+(k+h)(exp{(T −t)h}−1)
p 2
h (k + 2σ 2 )
La relation entre le prix d’une obligation zéro-coupon P (t, T ) et le taux d’une obligation zéro-coupon
R(t, T ), à l’instant t pour l’échéance T est établie comme : P (t, T ) = exp(−(T − t)R(t, T )), qui s’écrit
aussi P (τ ) = exp(−τ R(τ )), avec τ = T − t la maturité. Ainsi, il est facile d’en déduire l’expression du
taux zéro-coupon (cf. équation 2.38), avec les notations ci-dessus.
P M (0, t)
1 1 A(0, T ) exp {−B(0, T )x0 }
R(t, T ) − ln = ln
T −t P M (0, T ) T −t A(t, T )A(0, t) exp {−B(0, t)x0 } (2.39)
1
+ B(t, T )x(t).
T −t
62 CHAPITRE 2. PROCESSUS THÉORIQUES DE CALIBRAGE DES PARAMÈTRES
1
a= T −t B(t, T ),
1 A(0,T ) exp{−B(0,T )x0 }
et b = T −t ln A(t,T )A(0,t) exp{−B(0,t)x0 } ,
T R(0, T ) − tR(0, t)
R(t, T ) − = a × x(t) + b. (2.40)
T −t
La loi de x(t)/x(0) est connue, il s’agit d’une Khi-deux non centrée (cf. paragraphe 2.3.2). Ainsi
la loi de la variable aléatoire définie en 2.40, notée à l’avenir R/x(0), peut-être déterminée.
Considérons une fonction g mesurable, le changement de variable pour trouver la loi de R/x(0) est
détaillé en 2.41.
Z +∞
E[g(ax + b) | x(0)] = g(ax + b) × c × pχ2 (v,γ) (c × x) dx
0
Z +∞ (2.41)
c y−b
= g(y) × × pχ2 (v,γ) c × dy.
b a a
c y−b
fR|x(0) = × pχ2 (v,γ) c × 1y≥b . (2.42)
a a
n
Y c Ri − b
L(k, θ, σ) = × pχ2 (v,γ) c × 1Ri ≥b . (2.43)
a a
i=1
Chapitre 3
Mise en pratique
63
64 CHAPITRE 3. MISE EN PRATIQUE
Cette section met en oeuvre le modèle de Nelson et Siegel qui a été exposé théoriquement à la section
2.3.1 du Chapitre 2. L’objectif étant de reconstituer un historique du taux court instantané nécessaire
à la mise en place des méthodes statistiques pour l’estimation des paramètres du GSE.
Les données choisies pour le calibrage du CIR ++ (cf. 2.2.3) ne peuvent pas être utilisées telles quelles.
Avant de les exploiter, elles doivent être réorganisées sous une forme adaptée.
Fichiers initiaux
Les fichiers initiaux sont présentés dans le paragraphe 2.2.3. 95 fichiers sont à disposition pour le
calibrage du processus CIR++. Pour faciliter l’implémentation, ces 95 fichiers vont être assemblés en
un seul. Schématiquement, un fichier de courbes de taux zéro-coupon se présente selon la figure 3.2.
Quand la date d’évaluation de la courbe est connue (première colonne), il n’est pas nécessaire de
ré-indiquer des dates sur la première ligne, les maturités suffisent. Par exemple (1, 2, ..., 1200) au
lieu de (28/02/2011, 31/03/2011, ..., 31/01/2111) (cf. figure 3.3), si la maturité est exprimée en mois.
C’est la notation qui sera adoptée dans la suite car elle est plus adaptée pour l’implémentation de la
méthode de Nelson et Siegel.
3.1. CONSTRUCTION DE L’HISTORIQUE DU TAUX COURT AVEC NELSON ET SIEGEL 65
Une fois que l’ensemble des 95 courbes de taux a été transposé, les courbes sont concaténées de manière
à les regrouper en un seul et même fichier formant une matrice. Ce qui facilite la manipulation et
l’importation dans le logiciel R Core Team (2021). Cette matrice est représentée schématiquement
sur la figure 3.4.
Figure 3.4: Fichier final : concaténation de l’ensemble des 95 courbes de taux zéro-coupon.
De cette façon, la matrice est parfaitement adaptée à la mise en place du modèle de Nelson et
Siegel : pour une courbe à la date t, Nelson Siegel permet d’extraire le taux court instantané à l’instant
t. Ainsi, une courbe de 95 valeurs du taux court en fonction du temps peut être construite (cf. figure
3.5).
Données sauvegardées
Notons que la totalité des maturités de la courbe n’est pas nécessaire pour estimer le taux court avec
l’approche de Nelson-Siegel. Il peut paraı̂tre même assez illogique d’utiliser des taux zéro-coupons
projetés sur des maturités aussi grande que 100 ans, alors que le modèle de taux modélisé est utilisé
pour la projection de contrats d’épargne en euros.
Au bout de 30 années, il est fortement probable que l’ensemble des assurés soient sortis du porte-
66 CHAPITRE 3. MISE EN PRATIQUE
feuille actuel : soit parce qu’ils sont décédés, soit parce qu’ils ont changé d’assureur, de contrats, mais
surtout parce qu’ils auront déjà racheté leur épargne. D’après la FFA, la durée moyenne d’un contrat
d’épargne en France est d’un peu plus de 11 ans. Conserver les maturités des courbes de 1 mois à
360 mois = 30 ans semble être un juste compromis entre la cohérence de la projection, et un nombre
suffisant de données (cf. figure 3.6).
Une fois que les données sont prêtes, le modèle de Nelson Siegel peut-être implémenté.
Arguments/Inputs
Le package YieldCurve (cf. Guirreri (2013)) de R Core Team (2021) est un package qui calcule
les coefficients (β0 , β1 , β2 , τ1 ) de Nelson Siegel pour chaque courbe de taux en entrée, grâce à la fonction
Nelson.Siegel.
La fonction N elson.Siegel a deux arguments.
• Elle prend en entrée une matrice de taux, comme celle présentée dans la figure 3.6. Pour être
comprise par la fonction, la matrice a besoin d’être convertie au format xts (cf. Ryan et
Ulrich (2020) de R Core Team (2021)) : la première colonne doit être une chronologie de
dates.
• Le package nécessite que les maturités soient exprimées en mois. Le deuxième argument est le
vecteur des maturités, qui est ici : (1, 2, 3, ..., 360).
Valeurs
La fonction N elson.Siegel renvoie pour chaque ligne de la matrice 3.6 les coefficients (β0 , β1 , β2 , τ1 ).
Finalement N elson.Siegel retourne la matrice 3.7 complétée (cf. Annexe C.1 pour les valeurs des
coefficients estimés).
3.1. CONSTRUCTION DE L’HISTORIQUE DU TAUX COURT AVEC NELSON ET SIEGEL 67
Estimation
τ τ τ
ft (τ ) = β0 + β1 exp − + β2 exp − ,
τ1 τ1 τ1
(3.1)
1 − exp − ττ1 1 − exp − ττ1
τ
Rt (τ ) = β0 + β1 τ + β2 τ − exp − .
τ1 τ1 τ1
3.1.3 Résultats
Pour s’assurer de la fidélité de la reproduction de la courbe des taux zéro-coupons par le modèle de
Nelson Siegel, les courbes de taux observées et les courbes de taux estimées sont confrontées. Cela
permet de valider les résultats.
L’historique de données retenu est composé de 95 courbes de taux. Il y a alors, 95 courbes de taux
zéro-coupon observées et par conséquent, 95 courbes de taux zéro-coupon estimées. Les 95 graphiques
des courbes estimées versus des courbes observées ne vont pas être présentées. Les résultats ont été
68 CHAPITRE 3. MISE EN PRATIQUE
vérifiées et s’avèrent très satisfaisants. Un échantillon de quatre figures (cf. figures 3.8a, 3.8b, 3.9a,
et 3.9b) est présenté pour les illustrer. Les figures 3.8a, 3.8b, 3.9a, et 3.9b montrent que les taux
zéro-coupons du modèle reproduisent très bien les observations.
3.5
4.0
3.0
3.5
2.5
3.0
Taux zéro coupon
2.0
2.5
1.5
2.0
1.0
1.5
0.5
1.0
0 50 100 150 200 250 300 350 0 50 100 150 200 250 300 350
(a) Courbe de taux zéro-coupon estimée VS Courbe (b) Courbe de taux zéro-coupon estimée VS Courbe
de taux zéro-coupon observée au 31/01/2011. de taux zéro-coupon observée au 31/01/2013.
Figure 3.8: Taux observés VS Taux estimés avec le modèle de Nelson Siegel.
1.5
2.0
1.5
1.0
Taux zéro coupon
1.0
0.5
0.5
0.0
0.0
−0.5
0 50 100 150 200 250 300 350 0 50 100 150 200 250 300 350
(a) Courbe de taux zéro-coupon estimée VS Courbe (b) Courbe de taux zéro-coupon estimée VS Courbe
de taux zéro-coupon observée au 31/01/2015. de taux zéro-coupon observée au 31/01/2017.
Figure 3.9: Taux observés VS Taux estimés avec le modèle de Nelson Siegel.
3.1. CONSTRUCTION DE L’HISTORIQUE DU TAUX COURT AVEC NELSON ET SIEGEL 69
D’après la section 2.3.1, le modèle de Nelson Siegel donne la possiblilité de retrouver le taux court
instantané.
Lorsque la maturité tend vers 0, la limite du taux forward f (τ ) exprimée selon Nelson Siegel (cf.
équations 3.1) vaut β0 +β1 . Mathématiquement : limt→0 f (0, t) = β0 +β1 . Par définition, r(t) = f (t, t).
Ce qui implique que limt→0 f (0, t) = r(0). Donc f (0, 0) = β0 + β1 et r(0) = β0 + β1 . Où r(0) est le
taux court instantané à l’instant initial de la courbe.
Par exemple : à nouveau, considérons les coefficients (β0 , β1 , β2 , τ1 ) de la ligne Courbe de taux
zéro-coupon au 31/01/2011 de la figure 3.7. L’instant initial est le 31/01/2011.
Nelson Siegel reconstitue donc un historique du taux court du 31/01/2011 au 30/11/2018 à pas
mensuel, soit un historique de 95 taux. Les résultats finaux peuvent s’illustrer comme la matrice de
la figure 3.10 complétée. Ils sont disponibles dans l’Annexe C.2. L’historique du taux court sera noté
(r1 , r2 , ..., r95 ), comme récapitulé dans la figure 3.11.
Figure 3.10: Matrice des coefficients retournés par la fonction Nelson.Siegel et du taux court instan-
tané extrait.
Analyse
En général, le modèle de Nelson Siegel est utilisé pour interpoler une courbe de taux dont certaines
valeurs sont manquantes. Par exemple lorsque la courbe de taux zéro-coupon ne présente pas des taux
70 CHAPITRE 3. MISE EN PRATIQUE
à toutes les maturités. Dans cette situation, le modèle de Nelson Siegel permet de compléter la
courbe (cf. Monferrini (2018)). Le modèle de Nelson Siegel est un modèle qui permet de bien
reproduire les courbes de marché ascendantes, descendantes, et plates, comme c’est le cas dans les
figures (cf. 3.8a, 3.8b, 3.9a, et 3.9b). Mais il ne permet pas de reproduire des courbes de marché plus
complexes qui présentent des bosses et des creux (cf. Ndiaye et al. (2014)). Dans ce cas, il
existe une extension, le modèle de Svensson, qui repose sur les mêmes principes que Nelson Siegel,
mais avec l’ajout de deux paramètres supplémentaires à estimer.
Ici, le modèle de Nelson Siegel n’a pas été utilisé à des fins d’interpolation : ce n’est pas la
problématique, puisque les courbes de taux zéro-coupon à disposition sont bien complètes. Le modèle
de Nelson Siegel a été mis en place parce qu’il offre la possibilité de déterminer le taux court instan-
tané. C’est donc une technique pour déterminer un historique du taux court instantané. Comme les
courbes de taux zéro-coupon observées sont complètes (pas de valeurs manquantes) et ascendantes,
il était attendu que les courbes construites avec les paramètres estimés répliquent bien les courbes
observées. Plus les courbes utilisées ont des valeurs manquantes, plus il y a de points à interpoler et
plus le modèle est mis à l’épreuve. Ici, des courbes zéro-coupons exhaustives sont à disposition, d’où
la performance du modèle.
Dans cette partie, la première idée de processus de calibrage pour le CIR ++ en univers historique
est mise en place. Elle fait référence à la partie théorique du paragraphe 2.3.2 du Chapitre 2.
Aucune référence n’a été trouvée quant au calibrage du CIR ++ selon une approche historique, ce
qui ne facilite pas sa mise en oeuvre. La méthode expliquée ci-dessous est un premier essai bâti sans
connaı̂tre en amont les failles qui se révèleront pendant et après l’implémentation. Il s’agit donc d’une
exploration, d’un premier test .
3.2.1 Modélisation
Certains points quant à la modélisation de la vraisemblance nécessitent d’être clarifier avant de pouvoir
l’implémenter. Ils sont détaillés ci-dessous.
Prise en compte de ϕ
Pour mettre en place la méthode du maximum de vraisemblance sur le CIR ++, il est nécessaire de
disposer d’un n-échantillon du taux court instantané indépendant et identiquement distribué, et d’une
loi de probabilité sur celui-ci à partir de laquelle la vraisemblance est écrite.
Le n-échantillon a été construit dans la partie 3.1 grâce au modèle de Nelson Siegel. L’historique
est schématisé dans la figure 3.11. Il est supposé indépendant et idendiquement distribué, sinon, il
n’est pas possible d’appliquer la méthode. Pour la densité, elle a été definie dans la partie 2.3.2. Pour
rappel la vraisemblance s’écrit comme ci-dessous (cf. équation 3.2).
95
Y
L(k, θ, σ) = c × pχ2 (v,γ) (c(ri − ϕ(t))) 1ri ≥ϕ(t) . (3.2)
i=1
3.2. MISE EN PRATIQUE DE LA MÉTHODE 1 71
Notons que la vraisemblance fait apparaı̂tre la date t dans la fonction déterministe ϕ. Pour r(t), ce
n’est pas un problème, puisque le temps est implicite dans l’estimation ri du taux court instantané :
c’est une chronologie du taux court sur 95 mois de t = 31/01/2011 à t = 30/11/2018 (cf. figure
3.11). (L’expression de ϕ est également rappelée en équation 3.3, ainsi que toutes les notations dans
le tableau 3.1.)
Paramètre/Fonction Expression
4k
c σ 2 (1−exp(−kt))
v 4kθ/σ 2
γ c × x(0) × exp(−kt)
α (k, θ, σ)
p 2
h (k + 2σ)2
2kθ(exp{th}−1) 2
4h exp{th}
f CIR (0, t; α) 2h+(k+h)(exp{th}−1) + x0 [2h+(k+h)(exp{th}−1)]2
La question qui se pose est : comment prendre en compte t pour ϕ ? Une possibilité serait de faire
varier ϕ en fonction de t, au même titre que r(t), en modélisant le temps par l’échéancier discret
mensuel t = 1, ..., 95. C’est à dire faire varier ϕ en l’évaluant en t. Ce qui implique devoir évaluer
également le taux forward instantanée f M (0, t) qui apparaı̂t dans ϕ. Dans cette configuration, une
écriture plus rigoureuse de la vraisemblance est visible en 3.4.
95
Y
L(k, θ, σ) = c × pχ2 (v,γ) (c(ri − ϕ(i))) 1ri ≥ϕ(i) . (3.4)
i=1
Une autre alternative aurait pu être d’écrire ϕ comme un élément proportionnelle à la vraisem-
blance afin de le sortir du problème d’optimisation. Seulement ϕ dépend des paramètres à estimer :
quelque soit la façon dont la vraisemblance est écrite, ce n’est pas un élément proportionnelle à la
vraisemblance. Ce n’est pas la solution.
Il serait également imaginable d’éliminer complètement ϕ pour supprimer le problème, mais sup-
primer ϕ revient à calibrer un processus CIR, et non plus un processus CIR ++. Ce n’est donc pas
une solution non plus.
La première configuration est ainsi conservée (cf. figure 3.12).
72 CHAPITRE 3. MISE EN PRATIQUE
Une autre problématique à laquelle la méthode du maximum de vraisemblance fait face, est l’estimation
du taux forward instantané f M (0, t). Comme ϕ est évaluée en t, le taux forward instantané l’est
forcément aussi (cf. équation 3.3). La bonne nouvelle, c’est que Nelson Siegel a fourni un historique
de 95 courbes de taux forward instantané. Maintenant, lesquelles utiliser pour les injecter dans la
vraisemblance ?
Considérons toujours l’ensemble des dates discrètes caractérisant la profondeur de l’historique
t = 1, ..., 95. t = 1 modélise la première date de l’historique, soit le 31/01/2011. Alors les paramètres
de Nelson Siegel estimés à cette date permettent d’approcher le taux forward instantané (cf. l’équation
3.1) sur l’ensemble des maturités t ∈ 1, ..., 95, toujours exprimées en mois.
Paramètres à fixer
Maintenant qu’une potentielle technique a été trouvée pour comptabiliser ϕ dans la vraisemblance,
il ne reste plus qu’un élément à définir avant de pouvoir se lancer dans l’implémentation. Rappelons
qu’il s’agit de la densité de r(t)/x(0) (cf. paragraphe 2.3.2). La valeur x(0) doit être fixée en amont de
la maximisation de la vraisemblance. Comme malgré les recherches, aucune référence sur la probable
valeur que ce méta-paramètre pourrait prendre selon une approche historique n’a été trouvée, au même
titre que dans Armel et Planchet (2020b), la valeur de x(0) est fixé à 1% en guise de référence
pour l’instant.
3.2.2 Implémentation
Une fois le processus de calibrage bien détaillé, l’implémentation peut-être mise en oeuvre.
Ecriture de la vraisemblance
Définition de l’objet fonction : La vraisemblance est une fonction qui prend en entrée les pa-
ramètres k, θ, σ, les données du taux court instantané notées court, les données du taux forward
instantané notées fwd, la possibilité de calculer la vraisemblance ou la log-vraisemblance, la
possibilité de multiplier le résultat final par 1 ou −1.
3.2. MISE EN PRATIQUE DE LA MÉTHODE 1 73
L’objectif est de trouver les paramètres k, θ, σ tels qu’ils maximisent la vraisemblance. Numériquement,
pour avoir des valeurs moins explosives, il est coutume de calculer la log-vraisemblance. Comme le
logarithme est concave et croissant, le problème d’optimisation est le même : il s’agit toujours de
trouver k, θ, et σ, tels qu’ils maximisent la vraisemblance. C’est pour cette raison que cette option est
proposée à l’utilisateur en entrée de la fonction.
Pour ramener un problème de maximisation à un problème de minimisation, il suffit de multiplier la
fonction objective par −1. Souvent, les méthodes d’optimisation sont présentées et implémentées pour
minimiser les fonctions. Par conséquent les problèmes de maximisation sont ramenés à des problèmes
de minimisation. C’est pour cette raison que la multiplication par −1 est aussi une option à choisir en
entrée de la fonction.
L’indicatrice 1z≥ϕ(t) est présente dans la densité de r(t)/x(0) (cf. 3.2) : le taux court doit toujours
être supérieur à la fonction déterministe ϕ.
Si l’indicatrice n’est pas vérifiée, la vraisemblance vaut 0, et la log-vraisemblance vaut −∞. Si
l’option multiplier le résultat par −1 est choisie, alors la vraisemblance vaut toujours 0, et la
log-vraisemblance vaut +∞.
Dans la suite, la log-vraisemblance négative sera minimisée.
En résumer il est équivanlent de :
• maximiser la vraisemblance ;
• maximiser la log-vraisemblance ;
R3 → R (k, θ, σ) 7→ L(k, θ, σ)
R→R k 7→ L(k, θ, σ)
R→R θ 7→ L(k, θ, σ)
R→R σ 7→ L(k, θ, σ)
Algorithme d’optimisation
La fonction optim (cf. Team et contributors worldwide (2021)) de R Core Team (2021) est choisie
pour optimiser la vraisemblance. Par défaut, optim minimise les fonctions. La méthode utilisée est
la méthode de Broyden-Fletcher-Goldfarb-Shanno (BFGS). Cette dernière est une méthode de quasi
Newton, qui résout les problèmes de minimisation non linéaire et sans contrainte.
La principale caractéristique de cet algorithme est qu’il ne construit pas explicitement la matrice
hessienne : il en fait une approximation, ce qui est moins coûteux en temps de calcul. L’algorithme
classique de Newton évalue la matrice Hessienne et son inverse. Si celle-ci à un déterminant nul, c’est
à dire qu’elle est strictement singulière, l’algorithme s’arrête et n’aboutit pas. La méthode de BFGS,
dite de quasi Newton, se déroule de la même façon que l’algorithme de Newton, mais répond à cette
problématique en approximant la Hessienne.
Cette méthode a également été choisie car elle laisse à l’utilisateur dans la fonction optim la
possibilité de choisir dans quel intervalle il veut minimiser la fonction. Lorsque l’utilisateur sait où se
trouve le minimum, c’est intéressant pour favoriser la convergence de l’algorithme.
La fonction à minimiser est une fonction de R3 dans R. Il n’est pas aisé de se représenter des fonctions en
plusieurs dimensions pour savoir où se trouve les optima. Un outil pratique pour visualiser les fonctions
multidimensionnelles est la courbe de niveau. Une courbe de niveau c, c réel, est l’ensemble des points
(x, y, z) tels que f (x, y, z) = c. La représentation de l’ensemble des courbes de niveau en 3D sur une
feuille plane ressemble à des colines ou des creux , ce qui permet de détecter les emplacements
des potentiels optima locaux ou globaux (sommet de la montagne pour un maximum, fond du
trou pour un minimum).
Le package ggplot 2 (cf. Wickham et al. (2021)) de R Core Team (2021) permet de
représenter les courbes de niveau. Seulement il n’est pas possible de les visualiser en 3D. Il s’agit
d’une représentation à plat , où la dimension hauteur est représentée par une couleur (par
exemple le sommet est la couleur la plus claire, et plus la pente est raide, plus les courbes de niveau
sont proches). Ce qui rend aussi possible la détection des emplacements des optima, s’ils existent.
Si les courbes de niveau ne permettent pas de conclure sur les optima, il est aussi possible de
représenter la vraisemblance en fonction d’un paramètre, comme une fonction de R dans R (cf. ta-
bleau 3.2), afin de déterminer pour quelles combinaisons de paramètres la vraisemblance est définie et
maximale.
3.2. MISE EN PRATIQUE DE LA MÉTHODE 1 75
3.2.3 Résultats
La section suivante présente les résultats issus de l’application numérique. Les notations sont celles du
pseudo code écrit dans le paragraphe 3.2.2.
Limites numériques
Bornes supérieures pour k et σ : Le logiciel R Core Team (2021) permet de calculer la valeur
de l’exponentielle jusqu’à environ 700p: exp(700). La fonction f CIR (0, t; α) (cf. équation 3.3) fait un
intervenir le terme exp(th) avec h = (k 2 + 2σ 2 ) (cf. équation 3.3).
Or t prend des valeurs entières jusqu’à 95. Si k et σ prennent des valeurs trop élevées, alors R ne
peut plus calculer exp(th) et retourne exp(th) = Inf . Avec des Inf dans la fonction, l’algorithme ne
peut plus effectuer la suite des calculs, et renvoie donc N aN pour la log-vraisemblance négative. Par
conséquent, h doit être inférieur à environ 7.44%.
La figure 3.13 illustre les courbes de niveau en deux dimensions. Le niveau c est donnée dans la
légende. Plus la couleur tend vers le violet, plus la log-vraisemblance négative est minimale. Les cases
non colorées correspondent aux valeurs de k et θ pour lesquelles la vraisemblance ne peut pas être
calculée. Actuellement, les courbes de niveau ne permettent pas de conclure sur la localisation du
minimum, il convient d’abord de déterminer l’intervalle de R3 pour lequel la vraisemblance est bien
définie.
level
(300, 400]
(400, 500]
k
4
(500, 600]
(600, 700]
(700, 800]
1 2 3 4 5
sigma
Figure 3.13: Illustration des limites numériques. La log vraisemblance négative ne peut pas être
calculée par R pour toutes les valeurs des paramètres k et σ.
76 CHAPITRE 3. MISE EN PRATIQUE
Bornes inférieures pour k, σ pet 2θ : La fonction f CIR (0, t; α) (cf. équation 3.3) fait un intervenir
2
le terme exp(th) − 1 avec h = (k + 2σ ) au dénominateur (cf. équation 3.3). Pour t petit, et k et
σ très proches de 0, exp(th) − 1 tend vers 0 : le logiciel R Core Team (2021) ne peut pas calculer
f CIR (0, t; α), et la valeur renvoyée pour la log-vraisemblance négative est N aN . Pour 0.2% < k,
0.2% < σ, 1.1% < θ, le problème ne se pose plus.
Finalement, la fonction 3.2.2 ne renvoie pas de N aN si les bornes inférieures 3.5 sont retenues et
que les conditions sur h sont vérifiées. Quant à θ, il peut aller jusqu’à +∞.
0.20% < k
1.10% < θ
(3.5)
0.20% < σ
h < 7.45%
Ceci revient finalement à une optimisation sous contrainte, mais une contrainte liée à une limite
numérique. Pour contourner le problème, il suffit de réécrire la fonction f CIR (0, t; α), en multipliant
le nominateur et le dénominateur par exp(−th) pour le premier terme et exp(−2th) pour le deuxième
terme de la somme, car dans ce cas, si th est trés grand, R Core Team (2021) renvoie bien exp(−th) =
0 (cf. équation 3.6).
Après calculs des valeurs de la vraisemblance pour plusieurs valeurs des paramètres, celle-ci présente
ses valeurs maximales sur les intervalles 3.7 des paramètres. Les courbes de niveau ont été tracées,
mais ne permettent pas de conclure directement sur les paramètres qui maximisent la vraisemblance.
C’est en évaluant la vraisemblance sur plusieurs grilles de valeurs des paramètres que le pavé 3.7
a été trouvé.
0.1% ≤ k ≤ 100%
0.1% ≤ θ ≤ 100% (3.7)
0.1% ≤ σ ≤ 100%
La vraisemblance est calculée pour 100 valeurs de chacun des paramètres sur le pavé 3.7. Elle est
alors évaluée 1 000 000 de fois (pour toutes les combinaisons possibles des valeurs des paramètres sur
les intervalles, soient 100 × 100 × 100 = 1000000, cf. schéma 3.4). A partir de cette grille, les valeurs
de la vraisemblance sont tracées en fonctions de k, de θ, puis de σ, comme une fonction de R → R,
simultanément sur un même graphique (cf. tableau 3.2). La figure 3.14a est obtenue.
Le tableau 3.3 a été ajouté pour faciliter la lecture de l’axe des ordonnées de la figure 3.14a et
pour se donner une idée de la valeur du minimum de la vraisemblance. (Le graphique n’a pas été tracé
directement en logarithme de la vraisemblance, parce que ça rend des courbes plates , qui donnent
peu de visibilité).
3.2. MISE EN PRATIQUE DE LA MÉTHODE 1 77
k
theta
1.5e−58
sigma
1.0e−58
Vraisemblance
5.0e−59
0.0e+00
0 20 40 60 80 100
40
level
(−700, −650]
(−650, −600]
(−600, −550]
30
(−550, −500]
sigma
(−500, −450]
(−450, −400]
(−400, −350]
(−350, −300]
(−300, −250]
(−250, −200]
20 (−200, −150]
10
25 50 75 100
theta
Figure 3.14: Illustrations relatives à la méthode 1 : EMV sur le taux court instantané.
78 CHAPITRE 3. MISE EN PRATIQUE
Table 3.3: Passage au logarithme népérien pour les valeurs de la vraisemblance sur la figure 3.14a.
k θ σ L(k, θ, σ)
Combinaison de paramètres n°1 000 000 k1000000 θ1000000 σ1000000 L(k1000000 , θ1000000 , σ1000000 )
Sur la figure 3.14a, les valeurs des paramètres pour lesquelles la vraisemblance est nulle peut
signifier deux choses : soit la vraisemblance vaut vraiment 0 pour la valeur de ces paramètres,
soit la vraisemblance est nulle parce qu’elle n’est pas définie pour ces paramètres, ce qui signifie que
x présente des composantes négatives, (cf. sous section 3.2.2). Un contrôle a été effectué, et il s’agit
de la deuxième possibilité. La vraisemblance comporte bien plus de valeurs pour lesquelles elle n’est
pas définie que de valeurs pour lesquelles elle l’est. Ceci peut signifier que le taux court extrait ne suit
pas une loi du khi-deux non centrée, ou bien du moins, que les données qui ont été utilisées ne suivent
pas à une loi du Khi-deux et ne sont pas adaptées à cette loi.
Il est important de pouvoir délimiter un pavé de R3 où la vraisemblance est définie. Ce qui est
délicat, c’est que sur les zones où la vraisemblance est maximale (lisible graphiquement sur la figure
3.14a), elle n’est pas régulière : elle n’est pas nécessairement continue, et présente des successions de
points isolés strictement positifs et de points où elle vaut 0. Trouver les combinaisons des paramètres
tels que la vraisemblance est définie n’est pas évident : le support de la vraisemblance dépend
des paramètres à estimer.
De plus, s’il est demandé à l’algorithme d’optimisation de trouver un minimum sur un intervalle,
une valeur initiale doit lui être donnée. Si la log-vraisemblance négative n’est pas définie en ce point,
alors l’algorithme renvoie d’emblée la valeur initiale comme minimiseur, et ∞ comme minimum. Et si
la log-vraisemblance négative est bien définie en la valeur intiale, mais qu’il y a trop de points pour
lesquels la log-vraisemblance négative n’est pas définie au sein de l’intervalle (en ces points elle vaut
∞), l’algorithme renvoie dans ce cas aussi la valeur initiale comme minimiseur, puisqu’en ce point, la
valeur de la log-vraisemblance négative est toujours plus petite ou égale à ∞.
Le comportement de la vraisemblance est le suivant sur les points où elle est définie : plus k et
σ sont grands, et plus θ est petit, plus la vraisemblance atteint des valeurs maximales. Cependant,
la borne inférieure de k et θ, et la borne supérieure de σ doivent être bien choisies, pour que la
vraisemblance soit à la fois définie et maximale.
Illustrons le propos. Par exemple, la vraisemblance est bien définie sur le pavé 3.8 de R3 . Sur cet
intervalle, le minimum de la log-vraisemblance négative est de 138.13 (cf. tableau 3.5). Le tableau
3.5 et les courbes de niveau 3.14b mettent en valeur que le minimum est attiré par les bords. D’où
l’importance de bien les définir. Si la borne inférieure de k et de θ sont plus petites, et que la borne
3.2. MISE EN PRATIQUE DE LA MÉTHODE 1 79
supérieure de σ est plus grande pour les bornes 3.8, alors la vraisemblance n’est pas définie sur les
points ajoutés au pavé.
67.00% ≤ k ≤ 100.00%
5.30% ≤ θ ≤ 10.00% (3.8)
35.00% ≤ σ ≤ 44.50%
Table 3.5: Résultats de la minimisation de la log-vraisemblance négative sur le pavé 3.8 en fonction
de la valeur initiale.
Par conséquent, il faut constituer le jeu de paramètres optimales, à la main . Il s’agit de 3.9.
Le minimum sur cet intervalle est de 131.16, pour les paramètres (k, θ, σ) = (85.50%, 5.00%, 44.50%)
(cf. tableau 3.6). C’est cohérent avec le tableau 3.3 et la figure 3.14a.
85.50% ≤ k ≤ 100.00%
5.00% ≤ θ ≤ 10.00% (3.9)
35.00% ≤ σ ≤ 44.50%
Table 3.6: Résultats de la minimisation de la log-vraisemblance négative sur le pavé 3.9 en fonction
de la valeur initiale.
La première approche utilisée pour déterminer les paramètres du CIR++ se décompose en plusieurs
étapes.
Tout d’abord, comme il s’agit de la vraisemblance du taux court instantané, qui est par essence,
non observable, la première étape consiste à trouver une façon d’approximer celui-ci. Une fois cette
étape franchie, la prise en compte de la fonction déterministe ϕ n’est pas évidente à mettre en oeuvre,
80 CHAPITRE 3. MISE EN PRATIQUE
puisqu’elle nécessite à son tour, de modéliser le taux forward qui est lui aussi, par essence, non
observable. En ce sens, le modèle de Nelson Siegel est un bon outil puisqu’il fournit en plus des taux
zéro-coupon, une approximation du taux forward instantané, et une approximation du taux court
instantané.
Une fois l’implémentation mise en place, l’objectif est de trouver l’intersection entre les deux
ensembles suivants :
• l’ensemble des paramètres k, θ, et σ tels que la vraisemblance est définie. Ce qui revient, par
équivalence, à l’ensemble des paramètres k, θ, et σ tels que x (cf. paragraphe 3.2.2) est positif.
Cette recherche s’est avérée minutieuse à cause des irrégularités présentées par la fonction, dont
les valeurs maximales se situent au bord de son intervalle de définition. Pour cette approche, avoir
extrait le taux court, et le taux forward pour calculer la fonction déterministe ne semble pas idéal :
le peu de valeurs pour lesquelles la vraisemblance est définie indique que les données ne sont pas du
tout adaptées à une loi du Khi-deux non centrée.
Ainsi, la deuxième méthode mise en place ne nécessite pas :
• de calculer la fonction ϕ ;
k θ σ
3.3.1 Modélisation
La prise en compte des fonctions et des données intervenant dans la vraisemblance sont d’abord
détaillées avant de procéder à l’implémentation et à la présentation des résultats. La description de
la mise en oeuvre est plus courte parce que plusieurs élements sont redondants et communs avec la
première méthode.
3.3. MISE EN PRATIQUE DE LA MÉTHODE 2 ET COMPARAISONS DES RÉSULTATS 81
Choix de l’historique
L’expression des fonctions a et b sont décrites dans le paragraphe 2.3.3. Elles interviennent toutes les
deux dans l’expression du taux zéro-coupon (cf. équation 2.39). Elles se rééecrivent comme l’équation
3.10 pour t allant de 1 à 95.
1
a= B(t, t + 120),
120 (3.10)
1 A(0, t + 120) exp {−B(0, t + 120)x0 }
b= ln .
120 A(t, t + 120)A(0, t) exp {−B(0, t)x0 }
Pour limiter les problèmes numériques déjà rencontrés au paragraphe 3.2.3 avec la fonction f CIR (0, t; α),
2kθ
les fonctions A et B sont multipliées respectivement par les termes exp(−(T −t)h) σ2 et exp((−(T −t)h)
au numérateur et au dénominateur (cf. paragraphe 2.3.3 pour les expressions de A et B).
Métaparamétre et outils
Le métaparamètre x0 est à nouveau fixé à 1% au même titre que dans l’article de Armel et Planchet
(2020b). Les outils tels que les tracés des courbes de niveau et l’algorithme d’optimisation sont les
mêmes que pour la méthode 1 (cf. sous-section 3.2.2 pour l’algorithme d’optimisation, et pour les
graphiques).
Les paragraphes ci-dessous décrivent les applications numériques relatives à la mise en pratique de la
méthode 2.
82 CHAPITRE 3. MISE EN PRATIQUE
Ecriture de la vraisemblance
Définition de l’objet fonction : La vraisemblance est une fonction qui prend en entrée les pa-
ramètres k, θ, σ, l’historique des taux zéro-coupons noté echantillon, la possibilité de calculer la
vraisemblance ou la log-vraisemblance, la possibilité de multiplier le résultat final par 1 ou −1.
Les justifications de l’écriture de la vraisemblance sont les mêmes que pour la méthode 1 (cf.
sous-section 3.2.2.).
Après évaluation de la vraisemblance sur plusieurs grilles de valeurs, la vraisemblance est tracée sur
les intervalles 3.11 pour 100 valeurs de chacun des paramètres, où des valeurs pour lesquelles elle est
définie ont été localisées. D’après le graphique 3.15a, la vraisemblance est définie pour de très petite
valeur de k et σ, alors que θ tend à être plus grand 1.
0.01% ≤ k ≤ 100.00%
0.01% ≤ θ ≤ 100.00% (3.11)
0.01% ≤ σ ≤ 100.00%
3.3. MISE EN PRATIQUE DE LA MÉTHODE 2 ET COMPARAISONS DES RÉSULTATS 83
Cette fois-ci, contrairement à la première méthode, les courbes de niveau détectent clairement un
maximum. La figure 3.15b illustre les valeurs maximales de la vraisemblance en jaune. Grâce à la
figure, les k et σ qui maximisent la vraisemblance sont clairement identifiés, et c’est bien en accord
avec le graphique 3.15a. En revanche elle ne permet pas de conclure sur la valeur de θ. Le fait que k et
σ soit presque fixés, et que la vraisemblance soit bien définie en ces points facilitent considérablement
la suite du travail, finalement, il ne reste plus qu’à trouver pour quelle valeur de θ la vraisemblance
est maximale à k et σ fixés.
Les irrégularités de la vraisemblance sont limitées sur le pavé 3.12 des paramètres.
0.10% ≤ k ≤ 0.20%
250.00% ≤ θ ≤ 600.00% (3.12)
0.60% ≤ σ ≤ 0.80%
Résultats
La log-vraisemblance négative est minimisée sur le pavé 3.12 de R3 . Les minimiseurs et les minima
obtenus en fonction de la valeur initiale sont rassemblés dans le tableau 3.8.
Table 3.8: Résultats de la minimisation de la log-vraisemblance négative sur le pavé 3.12 en fonction
de la valeur initiale.
k θ σ
L’identification des paramètres minimiseurs grâce à la méthode 2 s’est montrée plus encline que
la méthode 1. Dans le cadre de la méthode 2, le maximum de vraisemblance n’est pas attiré par
84 CHAPITRE 3. MISE EN PRATIQUE
6e−143
k
theta
sigma
5e−143
4e−143
Vraisemblance
3e−143
2e−143
1e−143
0e+00
0.009
level
(0e+00, 1.0e−82]
(1e−82, 2.0e−82]
(2e−82, 3.0e−82]
0.008
(3e−82, 4.0e−82]
sigma
(4e−82, 5.0e−82]
(5e−82, 6.0e−82]
(6e−82, 7.0e−82]
0.007
(7e−82, 8.0e−82]
(8e−82, 9.0e−82]
(9e−82, 1.0e−81]
(1e−81, 1.1e−81]
0.006
0.005
Figure 3.15: Illustrations relatives à la méthode 2 : EMV sur les taux zéro-coupon.
3.3. MISE EN PRATIQUE DE LA MÉTHODE 2 ET COMPARAISONS DES RÉSULTATS 85
les paramètres sur lesquels elle n’est pas définie. Le fait que les courbes de niveau aient indiqué la
position du minimum pour k et σ a considérablement facilité la donne puisque cela a permis de fixer
deux paramètres sur trois. Finalement, la minimisation de la log-vraisemblance négative se jouait sur
la valeur du paramètre θ. En revanche, à nouveau il est observé que les données ne collent pas à la loi
du Khi-deux non centrée, car la vraisemblance est nulle pour la plus grande majorité des combinaisons
des paramètres.
Les paramètres déterminés précédemment selon une approche de calibrage historique vont être com-
parés à ceux trouvés dans l’article Armel et Planchet (2020b) selon une approche historique.
Les caps et les swaptions sont des produits de taux cotés sur le marché, appelés produits vanilles,
qui sont utilisés pour calibrer les modèles financiers. Dans l’article Armel et Planchet (2020b), le
modèle CIR++ est calibré à partir de ces deux produits financiers.
Un cap est une combinaison linéaire de caplets, et un caplet est un call sur taux forward. Un
swaption est une option sur un swap, qui laisse à l’investisseur le choix de rentrer ou pas dans le swap.
Si la swaption est payeuse, l’investisseur qui choisit d’entrer dans le swap paie un taux fixe et reçoit
un taux variable. Si la swaption est receveuse, c’est l’inverse (l’investisseur qui choisit d’entrer dans le
swap paie un taux variable et reçoit un taux fixe.).
La définition du modèle de Black décalé pour les taux négatifs est donnée dans la référence. Cette
notion est évoquée car elle est liée au calibrage implicite utilisé dans le papier Armel et Planchet
(2020b) pour le CIR++. Dans le papier, un calibrage est proposé sur le prix des swaptions et un autre
sur le prix des caps. Et pour chacun de ces deux produits, le calibrage est réalisé pour trois facteurs
de décalage de Black différents, appelé displacement factor. Cette notion n’est pas fondamentale pour
le mémoire, mais il est nécessaire de la souligner pour pouvoir lire les paramètres k, θ, σ et λ trouvés
dans l’article. La colonne CIR + +(i) correspond aux paramètres du CIR++ pour un décalage de
Black de i% , i pouvant valoir 0.4%, 1%, et 2%, (cf. tableau 3.10). Si le lecteur souhaite connaı̂tre
en détails le processus de calibrage complet utilisé dans l’article Armel et Planchet (2020b), il
trouvera toutes les réponses en se référant à Armel et Planchet (2020d) et Armel et Planchet
(2020a). Les idées générales du processus de calibrage implicite ont été rappelées dans la sous section
2.2.1, mais les formules fermées relatives au CIR ++ n’ont pas été données.
Quant au facteur du risque issu de la prime de risque, son processus de calibrage historique a été
entièrement expliqué dans la sous-section 2.2.2. Cette approche a été utilisée par Armel et Planchet
(2020b), et dans le mémoire (cf. tableau 3.11) pour le calculer. Rappelons que comme le CIR ++ est ici
paramétré sous P, en univers réel, la prime de risque demandée par l’investisseur doit être modélisée.
Alors qu’en univers neutre au risque, l’investisseur est supposé ne pas être sensible au risque et aux
fluctuations, donc il ne demande pas de prime de risque en contrepartie pour s’en prémunir.
Théoriquement, les paramètres du processus CIR++, qu’ils soient calibrés selon une approche his-
torique (cf. tableau 3.11), ou selon une approche implicite (cf. tableau 3.10), devraient être égaux.
86 CHAPITRE 3. MISE EN PRATIQUE
Cap Swaption
Table 3.10: Récapitulatif des paramètres du CIR ++ sous P selon une approche implicite obtenus
dans le papier Armel et Planchet (2020b), avec la valeur initiale du CIR fixée à x0 = 1%.
k 85.50% 0.15%
θ 5.00% 538.00%
σ 44.50% 0.72%
λ 19.86% -0.71%
Table 3.11: Récapitulatif des paramètres du CIR ++ sous P selon une approche historique obtenus
précedemment selon la méthode 1 et 2, avec la valeur initiale du CIR fixée à x0 = 1%.
3.3. MISE EN PRATIQUE DE LA MÉTHODE 2 ET COMPARAISONS DES RÉSULTATS 87
Mais en pratique cette hypothèse n’est pas vérifiée Bien que le modèle théorique suppose que les pa-
ramètres historiques et les paramètres implicites soient égaux, ils sont différents en pratique. , Armel
et Planchet (2020b). Ainsi, il n’est pas étonnant que pour les mêmes hypothèses, les paramètres issus
des méthodes 1 et 2 soient différents de ceux trouvés dans le papier Armel et Planchet (2020b),
selon un calibrage implicite.
Pour les paramètres calibrés implicitement (cf. tableau 3.10), la même tendance est observée pour
chaque paramétrage : θ est grand, tandis que k et σ sont beaucoup plus petits et du même ordre de
grandeur, et le facteur du risque négatif est toujours plus petit ou du même ordre de grandeur que k
et σ.
Les paramètres calibrés de manière historique selon la méthode 2 (cf. tableau 3.11) suivent la même
tendance : θ est très grand, tandis que k et σ sont proches de 0, ainsi que le facteur du risque, qui est
négatif. Seulement le paramètre θ à 538.00%, qui représente la valeur moyenne à long terme semble
assez étonnant.
Quant aux valeurs des paramètres issus de la méthode 1, ils ont le comportement opposés de ceux
de la méthode 2 : le θ est le paramètre le plus proche de zéro, tandis que k, σ et λ prennent des valeurs
élevées qui vont respectivement au de-là de 40.00% et de 19.00%.
La différence des résultats entre la méthode 1 et la méthode 2 met en évidence l’impact du choix
des données sur les modèles et les résultats pour des estimations historiques.
Ces singularités présentées par les paramètres estimés selon l’approche historique peuvent s’expli-
quer en partie par la non-homogénéité par rapport aux unités de temps de la comparaison qui vient
d’être effectuée. En effet, les paramètres déterminés dans Armel et Planchet (2020b) sont des pa-
ramètres annuels, qui projettent le taux sur un pas de temps annuel. Pour l’estimation des paramètres
selon la méthode de l’EMV, l’historique de taux utilisé est un historique à pas mensuel, par conséquent,
il est cohérent dans ce contexte de modéliser le temps en mois. Les paramètres historiques déterminés
sont donc des paramètres mensuels, qui permettent de projeter le taux court sur des échéances de
temps mensuelles. Ainsi, pour effectuer une comparaison cohérente avec les paramètres de Armel et
Planchet (2020b), les paramètres issus des modèles historiques doivent être annualisés .
Pour procéder à l’annualisation des paramètres, les deux modèles sont recalibrés : l’estimateur du
maximum de vraisemblance sur le taux court instantané et l’estimateur du maximum de vraisemblance
sur le taux zéro-coupon. Afin d’annualiser les paramètres, deux options sont testées.
• La première est de convertir les taux mensuels en taux annuels, ainsi que de convertir les
maturités t exprimées actuellement en mois, en années, ce qui revient à toutes les diviser par
12 : (1/12, ..., 94/12) = (0.83, ..., 7.91). Pour l’annualisation des taux, deux conversions sont
expérimentées :
Une fois le taux court instantané et le taux zéro-coupon annualisé, l’estimation est à nouveau
lancée selon l’implémentation des deux méthodes respectives. Dans cette configuration, la vrai-
semblance sur le taux court instantané est encore plus irrégulière que lorsque les taux sont
mensuels. Quant à la vraisemblance sur les taux zéro-coupons, elle est tout simplement nulle
88 CHAPITRE 3. MISE EN PRATIQUE
en tout point : lorsque les taux sont annuels, ils prennent des valeurs nettenemt plus élevés, ce
qui rend impossible la vérification de l’indicatrice 1 echantillon−b ≥0 pour n’importes quelles com-
a
binaisons des paramètres (cf. pseudo code 3.3.2). La fonction b, qui est négative, ne peut pas
compenser les taux echantillon négatifs aussi, pour rendre la quantité echantillon − b positive.
Cette approche est alors mise de côté.
• La deuxième est donc de garder les taux tels quels, et de ne convertir que les maturités t ex-
primées actuellement en mois, en années (ce qui revient à toutes les diviser par 12 : (1/12, ..., 94/12) =
(0.83, ..., 7.91)). Le processus de calibrage est réalisé exactement de la même manière qu’aupa-
ravant, il n’y a que les maturités qui ont été converties en années. Les estimations sont, de la
même manière, confrontées aux irrégularités de la vraisemblance (cf. partie EMV sur la loi du
taux court instantané en 3.2 et cf. EMV sur la loi du taux zéro-coupon en 3.3).
- Annualisation des paramètres de la méthode 1, EMV sur la loi du taux court : Pour
l’EMV sur le taux court, ce n’est pas concluant. La vraisemblance est périodique en fonc-
tion de θ. Le maximum de la log-vraisemblance est de 177.23 et est atteint plusieurs fois.
Le plus petit θ pour lequel le maximum est atteint est de l’ordre de 2 × 105 (cf. An-
nexe D.1). La méthode n’est pas conservée, et les paramètres k, θ et σ de la méthode
1 ont simplement été annualisés en les multipliant par 12, ce qui donne : (k, θ, σ, λ) =
(1026.00%, 60.00%, 564.00%, −81.52%), (cf. tableau 3.12).
- Annualisation des paramètres de la méthode 2, EMV sur la loi du taux zéro-coupon :
Les paramètres annualisés résultant de l’EMV sur les taux zéro-coupons sont (k, θ, σ, λ) =
(4.20%, 80.00%, 26.00%, −17.47%), (cf. tableau 3.13 et Annexe D.2). Avec les paramètres
annualisés, la méthode 2 donne une volatilité plus élevée qu’avec le calibrage implicite
(26.00% VS 9.16% au plus grand), et un facteur de risque bien plus petit (-17.47% VS
-5.68% au plus petit), (cf. tableau 3.10). Selon un calibrage implicite ou historique, l’inves-
tisseur est en recherche de√risque (la prime de risque est négative). La prime de risque
λ (0.01)
à l’instant initiale (λ(0) = σ ) demandée par l’investisseur est de −6.71%, tandis que
pour les calibrages implicites du CIR ++ elle est de −6.20% pour les swaptions, et de
−4.40% en moyenne pour les caps. L’investisseur demande donc moins de prime de risque
à l’instant initiale avec une estimation historique des paramètres du CIR ++ qu’avec un
calibrage implicite. Quant au paramètre de retour à la moyenne k, il est du même ordre
de grandeur qu’avec le calibrage implicite. Enfin, la moyenne à long terme θ historique est
d’environ 20% moins élevée que la moyenne à long terme implicite.
Les résultats sont synthétisés dans les tableaux 3.12 et 3.13 pour la méthode de l’EMV sur la loi du
taux court, et pour la méthode de l’EMV sur la loi du taux zéro-coupon.
Comme il n’est pas évident d’interpréter les effets et les différences entre les paramètres implicites
et les paramètres historiques du processus CIR++, les trajectoires du processus CIR ++ ont été
tracées en fonction des différents paramétrages.
Pour chaque combinaisons de paramètres, le CIR++ sous P a été diffusé 1000 fois sur un horizon
de 20 ans. Ensuite le taux CIR++ est représenté pour trois maturités différentes :
k 85.50% 1026.00%
θ 5.00% 60.00%
σ 44.50% 534.00%
λ 19.86% -81.52%
Table 3.12: Estimation des paramètres du CIR ++ sous P selon une approche historique, obtenus
avec la valeur initiale du CIR fixée à x0 = 1%.
k 0.15% 4.20%
θ 538.00% 80.00%
σ 0.72% 26.00%
λ -0.71% -17.47%
Table 3.13: Estimation des paramètres du CIR ++ sous P selon une approche historique, obtenus
avec la valeur initiale du CIR fixée à x0 = 1%.
90 CHAPITRE 3. MISE EN PRATIQUE
0.04
0.00
MLE taux court
0.03
−0.01
−0.02
Taux 6 mois
Taux 6 mois
0.02
−0.03
0.01
−0.04
0.00
CIR++(0.4)
CIR++(1)
−0.05
CIR++(2)
0 5 10 15 20 0 5 10 15 20
(a) Trajectoires du CIR ++ sous P pour un pa- (b) Trajectoires du CIR ++ sous P pour un pa-
ramétrage historique. ramétrage implicite.
Par exemple pour le taux 10 ans, un point i de la courbe, pour i ∈ 1, .., 20 correspond à la moyenne
des 1 000 simulations à l’instant i pour la maturité 10 ans. Cela permet, de constater en moyenne,
l’évolution du taux.
Les trajectoires implicites sont représentés pour le calibrage du CIR++ sous P sur les swaptions
pour les trois différents paramètres de décalage de Black (cf. tableau des paramètres implicites 3.10)
sur les figures 3.16b, 3.17b et 3.18b.
Les trajectoires historiques sont représentées pour le calibrage annualisés du CIR ++ sous P (cf.
3.12 et 3.13) sur les figures 3.16a, 3.17a et 3.18a.
Les trajectoires implicites et les trajectoires historiques n’ont pas les mêmes comportements. En
revanche les courbes issues d’un paramétrage historique suivent relativement la même tendance entre
elles. Il en est de même pour les trajectoires du CIR++ avec les paramétrages implicites.
- Les courbes du paramétrage historique ont une tendance croissante, mais assez irrégulière. Elles
sont comprises entre -0.60% et 3.00%. La courbe bleue (calibrage sur loi zéro-coupon), reste
plus longtemps en dessous de 0 (environ 5 ans) que la courbe orange qui est quasiment tout
le temps strictement au dessus de 0.
- Les courbes du paramétrage implicite sont décroissantes avec les années et toujours négatives.
Elles sont comprises entre -5.00% et 0.20%.
- Les courbes historiques sont toujours croissantes, et voires mêmes presque linéaires. Elles
3.3. MISE EN PRATIQUE DE LA MÉTHODE 2 ET COMPARAISONS DES RÉSULTATS 91
0.025
0.05
0.020
0.03
0.015
Taux 10 ans
Taux 10 ans
0.02
0.010
0.01
0.005
0.00
0 5 10 15 20 0 5 10 15 20
(a) Trajectoires du CIR ++ sous P pour un pa- (b) Trajectoires du CIR ++ sous P pour un pa-
ramétrage historique. ramétrage implicite.
0.030
0.03
Taux 20 ans
Taux 20 ans
0.025
0.02
0.020
0.01
0.015
0.00
0.010
0 5 10 15 20 0 5 10 15 20
(a) Trajectoires du CIR ++ sous P pour un pa- (b) Trajectoires du CIR ++ sous P pour un pa-
ramétrage historique. ramétrage implicite.
s’apparentent à deux fonctions affines qui auraient la même ordonnée à l’origine (autour de
1%), mais pas le même coefficient directeur. Elles sont comprises entre 1.00% et 4.00%.
- Les trajectoires du CIR++ avec un calibrage sur les swaptions sont décroissantes sur les 10
premières années environ, puis croissantes. Elles sont toujours positives et leurs valeurs sont
comprises entre 0.02% et 2.50%. La courbe relative au paramètre de black décalé égal à
2.00%, présente une croissance bien plus accentuée que pour les deux autres courbes.
- Pour le paramétrage sur les taux zéro-coupons et les taux courts, l’allure du graphique du
taux 20 ans se rapproche très fortement de celui du taux 10 ans. Les courbes historiques
sont toujours croissantes, et voires presque linéaires. Elles s’apparentent à deux fonctions
affines qui auraient la même ordonnée à l’origine (un peu au dessus de 1%), mais pas le
même coefficient directeur. Elles sont toujours comprises entre 1.00% et 4.00%.
- Les courbes relatives au calibrage sur les swaptions sont croissantes et comprises entre 1.50%
et 4.00%.
Pour conclure, à court terme, le paramétrage historique donne une évolution opposée à celle du
paramétrage implicite sur le processus CIR++ sous P. En revanche, à long terme, les deux approches
expriment la même tendance et les mêmes ordres de grandeur pour le processus CIR++ sous P. Enfin,
il est important de souligner que le paramétrage historique ne permet pas de reproduire la courbe
des taux, notamment la tendance des taux négatifs. Par conséquent, les paramétrages historiques
présentés ne confèrent pas le caractère de Market Consistency. L’évolution moyenne des taux dont les
paramètres sont issus d’une estimation par maximum de vraisemblance ne sont pas négatifs à court
terme. Une piste d’amélioration possible pour obtenir des taux négatifs est de donner plus de poids
aux années les plus récentes, par exemple en ne considérant pas un historique des courbes de taux
zéro coupons sur 2011-2018, mais sur 2015-2018.
Conclusion
93
94 CHAPITRE 3. MISE EN PRATIQUE
la suite des calculs. Finalement, cela revient à maximiser la vraisemblance en fonction de θ. Lorsque le
temps est modélisé en mois, cette méthode semble plus simple à utiliser que la première, et nécessite
moins de travail en amont : pas d’extraction du taux court instantané, ni d’extraction du taux forward
instantané. En revanche, lorsque les maturités ont été converties en années, trouver un ensemble des
paramètres pour lesquels la vraisemblance est définie s’est avéré à nouveau complexe.
Pour conclure, les processus d’estimation des paramètres sur un historique de données issus des
travaux du mémoire, ne sont pour l’instant pas suffisamment robustes pour pouvoir calibrer le GSE
de l’article Armel et Planchet (2020b).
Cependant les travaux sont loin d’être aboutis : les modèles proposés sont implémentés en utilisant
un historique de courbes de taux zéro-coupon, mais ils méritent d’être implémentés avec d’autre
valeurs, puisqu’à priori celles-ci ne conviennent pas bien à la loi du Khi-deux non centrée. De plus,
deux pistes supplémentaires de processus de calibrage sont décrites en Annexe B, mais n’ont pas pu être
traitées dans le temps imparti. Elles peuvent éventuellement être testées dans de prochains travaux.
Le plus gros frein des méthodes proposées est la difficulté des données à vérifier les indicatrices des
densités, notamment à cause des valeurs négatives des taux. L’annexe Armel et Planchet (2020a)
donne plusieurs façons d’approcher une Khi-deux non centrée par une loi Normale. En relançant les
méthodes avec une loi Normale, les problèmes d’irrégularités dues aux valeurs négatives des taux
pourraient être surmontés ; ça ne résout pas le problème des données incompatibles à la loi, mais c’est
une façon de le contourner. Enfin, un autre algorithme d’optimisation peut être utilisé : un algorithme
d’optimisation stochastique, pour des fonctions non différentiables. En ce sens, les irrégularités de la
vraisemblance sont moins contraignantes pour l’optimisation.
Bibliographie
Adam, E., Felix, J., Werle, S., Malecot, S. et Planchet, F. (2014). Attraits et limites de la
probabilité risque neutre pour valoriser le passif d’un assureur. 13 ème Congrès des Actuaires.
Agbaholou, T. (2018). 3 cas d’analyse des scénarios économiques utilisés pour le calcul d’un Best
Estimate en Epargne. Mémoire d’Actuariat. Paris : Université Paris Dauphine.
Armel, K. (2020). Générateurs de scénarios économiques pour valoriser les passifs de l’épargne en €.
Support de cours. ISFA.
Armel, K. et Planchet, F. (2020a). Annexe de l’article Utilisation de modèles de taux CIR pour
évaluer la valeur économique des contrats d’épargne participatifs ? Laboratoire des sciences actua-
rielle et financière.
Armel, K. et Planchet, F. (2020b). Evaluer la valeur économique des contrats d’assurance vie avec
des déflateurs stochastiques. Laboratoire des sciences actuarielle et financière.
Armel, K. et Planchet, F. (2020c). L’évaluation économique des engagements en assurance vie :
écueils, bonnes pratiques et préconisations pour une mise en oeuvre pertinente. Laboratoire des
sciences actuarielle et financière.
Armel, K. et Planchet, F. (2020d). Utilisation de modèles de taux CIR pour évaluer la valeur
économique des contrats d’épargne participatifs ? Laboratoire des sciences actuarielle et financière.
Ben-Tahar, I., Trashorras, J. et Turinici, G. (2016). Eléments de calcul stochastique pour
l’évaluation et la couverture des actifs dérivés, avec exercices corrigés, travaux pratiques et études
de cas. Ellipses.
Beuil, G. (2010). Estimation du taux d’actualisation : cas particulier du très long terme. Mémoire
d’Actuariat. Brest : EURIA.
Briys, E. et Varenne, F. (2017). Life insurance in a contingent claim framework : pricing and
regulatory implications. The geneva papers on risk and insurance theory 19.
Bureau, F. (2017). IFRS 17, la nouvelle norme comptable pour les assureurs. Insurance speaker, le
blog assurance des consultants Wavestone.
Cheng, P. et Planchet, F. (2018a). Stochastic deflator for an economic scenario generator with five
factors. Laboratoire des sciences actuarielle et financière.
Cheng, P. et Planchet, F. (2018b). Supplementary material of Stochastic deflator for an economic
scenario generator with five factors. Laboratoire des sciences actuarielle et financière.
Dastarac, H. et Sauveplane, P. (2010). Les Déflateurs stochastiques : quelle utilisation en assurance
? Mémoire d’Actuariat. Paris : ENSAE ParisTech.
Donio, M. et Debaere, F. (2021). M2 Actuariat - Gestion Actif Passif d’une société d’assurance.
Support de cours. Université Paris Dauphine.
Guirreri, S. S. (2013). YieldCurve-package : Modelling and estimation of the yield curve. R Foun-
dation for Statistical Computing. url : https://cran.r-project.org/web/packages/YieldCurve/index.
html.
Henon, S. et Turinici, G. (2020). Modèles de taux.
95
96 BIBLIOGRAPHIE
Karoui, N. E., Loisel, S., Prigent, J. et Vedani, J. (2017). Market inconsistencies of the market-
consistent European life insurance economic valuations : pitfalls and practical solutions. European
Actuarial Journal.
Monferrini, J. (2018). Projection des taux négatifs sous la probabilité monde réel. Mémoire d’Ac-
tuariat. Lyon : ISFA.
Ndiaye, A., Ndoye, B. et Rommel, T. (2014). La valorisation du passif d’assurance dans la zone
CIMA. Mémoire d’Actuariat. Brest : EURIA.
Ohnouna, E. (2008). Evaluation Best estimate de contrats d’épargne en euros. Mémoire d’Actua-
riat. Strasbourg : Université Louis Pasteur.
Planchet, F. (2020-2021). Modélisation des obligations : présentation et utilisation en assurance.
Support de cours. ISFA.
R Core Team (2021). R: A Language and Environment for Statistical Computing. R Foundation for
Statistical Computing. Vienna, Austria. url : https://www.R-project.org/.
Ryan, J. A. et Ulrich, J. M. (2020). xts: eXtensible Time Series. R package version 0.12.1. R Foun-
dation for Statistical Computing. url : https://CRAN.R-project.org/package=xts.
Selma (2016). Cohérences et incohérences de marché, le risque neutre de la finance à l’assurance.
Périclès Actuarial.
Suru, A. (2011). Le rachat : modélisations et préconisations. Mémoire d’Actuariat. Paris : Université
Paris Dauphine.
Team, R. C. et contributors worldwide (2021). stats-package : R statistical functions. R Foundation
for Statistical Computing. url : https://stat.ethz.ch/R-manual/R-devel/library/stats/html/00Index.
html.
Thérond, P. (2010). IFRS Contrats d’assurance phase 2. Support de cours. Ecole d’été de l’Institut
des Actuaires. url : http://www.therond.fr/wp-content/uploads/presentations/seminar/100723 IA
EcoleEte IFRS.pdf.
Thérond, P. (2013). Génération de scénarios économiques : Modélisation des taux d’intérêt. Support
de cours. ISFA.
Tichit, D. (2019). Construction d’un modèle ALM pour l’analyse de l’impact d’une remontée des
taux sur la solvabilité d’un assureur vie. Mémoire d’Actuariat. Paris : ENSAE ParisTech.
Wickham, H., Chang, W., Henry, L., Pedersen, T. L., Takahashi, K., Wilke, C., Woo, K.,
Yutani, H., Dunnington, D. et RStudio (2021). ggplot2: Create Elegant Data Visualisations
Using the Grammar of Graphics. R Foundation for Statistical Computing. url : https://cran.r-
project.org/web/packages/ggplot2/index.html.
Annexe A
Données
Colonne A : Les courbes de taux de l’institut des actuaires proposent des taux sur une période de
100 ans.
Sur les 50 premières années, la courbe comprend un taux zéro-coupon par mois. Cela fait 50×12 =
600 maturités mensuelles. Le premier taux (ligne 2) calculé dans la figure A.1 est le taux zéro-
coupon R(0, 1) dans un mois vu à fin juillet 2011 , il est donc de maturité 1 mois par rapport
à la date d’observation, et ainsi de suite. Sur les 50 années suivantes, la courbe comprend 1 taux
zéro-coupon par an à fin juillet (31/07/2011).
Les fichiers contiennent 650 maturités, dont 600 à pas mensuel, et 50 à pas annuel.
Colonne B et colonne C : Les courbes de taux sont présentées respectivement avec deux et cinq
décimales après la virgule.
97
98 ANNEXE A. DONNÉES
Annexe B
La loi du processus CIR x étant connue (cf. paragraphe 2.3.2), les moments du CIR ++ r peuvent en
être déduit. Soit n ∈ N, alors E[rn (t)] = E[(x(t) + ϕ(t))n ], en gardant à l’esprit que ϕ est déterministe.
De plus si EQ [rn (t)] = g(k, θ, σ), alors EP [rn (t)] = g(k̃, θ̃, σ̃).
En égalisant les moments théoriques avec les moments numériques, la méthode des moments permet
à l’aide de la résolution du système, de déterminer les paramètres de la loi. Il y a trois paramètres à
estimer, il faut donc trois équations.
Les moments de la Khi-deux non centrée n’ont pas des allures propices aux calculs à la main .
Pour simplifier la détermination des moments théoriques, les moments non centrés sont retenus.
Considérons un n-échantillon (r1 , ..., rn ) du taux court instantané.
n
X
ri2 = EP [r2 (t)],
i=1
n (B.2)
X (ṽ + γ̃)2 + 2(ṽ + 2γ̃) 2(ṽ + γ̃)ϕ̃(t)
ri2 = + + ϕ̃2 (t).
c̃ c̃
i=1
99
100 ANNEXE B. AUTRES IDÉES DE PROCESSUS DE CALIBRAGE NON TRAITÉES
Le prix zéro-coupon évalué à la date t d’échéance T du processus CIR ++ sous P s’écrit P T H (t, T ) =
Ā(t, T )e−B(t,T )r(t) . Les modèles de taux qui présentent une écriture de la forme précédente de l’obliga-
tion zéro-coupon sont dits affines . L’annexe technique Armel et Planchet (2020a) fournit une
définition et une présentation détaillée des modèles de taux par structure par termes affines.
P M (0, T ) est le prix observé en 0 de l’obligation zéro-coupon de maturité T . Les notations sont
précisées ci dessous :
" n o # 2kθ2
(k+h)(T −t) σ
2 hexp 2
A(t, T ) = 2h+(k+h)(exp{(T −t)h}−1) ,
2(exp{(T −t)h}−1)
B(t, T ) = 2h+(k+h)(exp{(T −t)h}−1) ,
p 2
et h = (k + 2σ 2 ).
La relation entre le prix d’une obligation zéro-coupon P (t, T ) et le taux d’une obligation zéro-
coupon R(t, T ), à l’instant t pour l’échéance T est établi comme : P (t, T ) = exp(−(T − t)R(t, T )),
qui s’écrit aussi P (τ ) = exp(−τ R(τ )), avec τ = T − t la maturité. Ainsi, il est facile d’en déduire
l’expression théorique du taux zéro-coupon (cf. B.4), avec les notations ci-dessus.
Pour ajuster les paramètres α = (k, θ, σ) du CIR ++, une estimation par minimisation de l’écart
quadratique entre le taux théorique et le taux observé peut être effectuée.
B.2. ESTIMATION PAR MINIMISATION DE L’ÉCART QUADRATIQUE 101
Par exemple, considérons un historique de n courbes de taux zéro-coupon. Pour une maturité τ
choisie, une chronologie de n taux zéro-coupon de maturité τ peut être constituée. α est alors déterminé
selon l’équation B.5.
n
X
α̂ = argmin (RT H (i, i + τ, α) − R(i, i + τ ))2 . (B.5)
α
i=1
Les termes (RT H (i, i + τ, α) − R(i, i + τ )) pourraient éventuellement être pondérés pour donner
plus de poids aux années les plus récentes, par exemple.
102 ANNEXE B. AUTRES IDÉES DE PROCESSUS DE CALIBRAGE NON TRAITÉES
Annexe C
Nelson Siegel
t β0 β1 β2 τ1 β0 + β1 t β0 β1 β2 τ1 β0 + β1
1 3.76 -3.29 5.39 0.01 0.47 31 4.32 -4.07 -5.74 0.04 0.25
2 3.57 -2.97 5.96 0.01 0.60 32 4.49 -4.23 -5.79 0.04 0.26
3 4.46 -3.74 3.41 0.02 0.73 33 4.43 -4.13 -6.04 0.04 0.30
4 4.28 -3.33 3.37 0.01 0.95 34 4.31 -3.99 -6.12 0.04 0.32
5 3.87 -2.95 4.56 0.01 0.92 35 4.37 -4.03 -6.38 0.04 0.33
6 4.17 -3.13 4.66 0.01 1.04 36 4.35 -3.95 -6.34 0.05 0.39
7 1.23 -0.42 10.01 0.01 0.81 37 4.13 -3.72 -6.41 0.04 0.41
8 0.01 0.25 11.82 0.01 0.27 38 4.15 -3.75 -6.15 0.04 0.39
9 0.02 0.31 13.38 0.01 0.33 39 4.08 -3.64 -6.11 0.04 0.44
10 2.71 -2.55 8.70 0.01 0.16 40 3.91 -3.49 -5.85 0.04 0.42
11 2.56 -2.96 8.42 0.01 -0.40 41 3.79 -3.41 -5.95 0.04 0.38
12 1.04 -1.11 11.58 0.01 -0.07 42 3.72 -3.45 -5.80 0.04 0.28
13 0.01 -0.28 13.45 0.01 -0.27 43 3.49 -3.24 -5.49 0.04 0.26
14 0.00 -0.35 13.53 0.01 -0.34 44 3.18 -2.96 -5.11 0.03 0.22
15 0.36 -0.70 13.07 0.01 -0.34 45 3.34 -3.13 -5.50 0.03 0.21
16 0.00 -0.44 11.85 0.01 -0.43 46 3.28 -3.08 -5.26 0.03 0.20
17 4.52 -4.26 -5.89 0.05 0.25 47 3.03 -2.88 -4.60 0.03 0.15
18 4.00 -3.74 -6.31 0.05 0.26 48 2.88 -2.77 -4.50 0.03 0.11
19 4.05 -3.75 -6.48 0.05 0.29 49 2.14 -2.12 -3.26 0.03 0.02
20 0.01 0.34 12.71 0.01 0.35 50 2.16 -2.14 -3.60 0.03 0.02
21 4.18 -3.92 -6.33 0.05 0.26 51 1.62 -1.68 -2.62 0.03 -0.07
22 4.14 -3.89 -6.15 0.05 0.25 52 1.94 -2.06 -2.73 0.03 -0.13
23 4.20 -3.98 -6.16 0.04 0.22 53 2.26 -2.33 -3.59 0.03 -0.07
24 4.00 -3.70 -6.42 0.04 0.31 54 3.05 -3.06 -4.72 0.03 -0.01
25 4.06 -3.82 -5.10 0.04 0.24 55 2.64 -2.67 -4.30 0.03 -0.03
26 4.20 -3.94 -6.08 0.04 0.26 56 2.82 -2.88 -4.34 0.03 -0.06
27 4.24 -3.95 -6.27 0.04 0.29 57 2.74 -2.77 -4.38 0.03 -0.03
28 3.90 -3.66 -5.76 0.04 0.24 58 2.59 -2.70 -4.32 0.03 -0.11
29 4.20 -4.00 -5.72 0.04 0.20 59 2.82 -3.00 -4.68 0.03 -0.19
30 4.30 -4.14 -5.31 0.04 0.16 60 2.97 -3.20 -4.63 0.03 -0.23
103
104 ANNEXE C. NELSON SIEGEL
t β0 β1 β2 τ1 β0 + β1
61 2.60 -2.80 -4.67 0.03 -0.19
62 2.39 -2.64 -4.42 0.03 -0.25
63 2.28 -2.59 -3.86 0.03 -0.31
64 2.65 -3.05 -4.04 0.03 -0.40
65 2.43 -2.81 -3.95 0.03 -0.38
66 1.64 -2.14 -2.93 0.02 -0.50
67 1.54 -1.93 -3.18 0.03 -0.39
68 1.78 -2.28 -3.32 0.02 -0.50
69 1.83 -2.36 -3.47 0.02 -0.53
70 2.08 -2.70 -3.24 0.03 -0.62
71 2.32 -2.90 -4.31 0.04 -0.58
72 2.41 -3.06 -4.25 0.03 -0.65
73 2.86 -3.28 -4.74 0.04 -0.42
74 2.69 -3.21 -4.31 0.03 -0.52
75 2.84 -3.28 -4.31 0.03 -0.44
76 2.64 -3.00 -4.89 0.03 -0.36
77 2.66 -3.06 -4.84 0.03 -0.40
78 2.62 -3.10 -4.11 0.03 -0.47
79 2.61 -3.09 -4.25 0.03 -0.48
80 2.53 -3.03 -4.34 0.03 -0.50
81 2.61 -3.02 -4.68 0.03 -0.41
82 2.54 -3.09 -4.36 0.03 -0.54
83 2.55 -3.24 -3.54 0.03 -0.70
84 2.65 -3.23 -3.66 0.03 -0.58
85 2.41 -3.00 -3.03 0.03 -0.59
86 2.35 -2.95 -3.22 0.03 -0.60
87 2.21 -2.75 -3.26 0.03 -0.55
88 2.24 -2.77 -3.37 0.03 -0.52
89 2.31 -2.79 -3.68 0.03 -0.48
90 2.30 -2.82 -3.69 0.03 -0.52
91 2.31 -2.82 -3.42 0.03 -0.51
92 2.33 -2.87 -3.50 0.03 -0.54
93 2.34 -2.93 -2.96 0.03 -0.59
94 2.29 -2.94 -3.09 0.03 -0.65
95 2.37 -2.96 -3.43 0.03 -0.58
C.2. HISTORIQUE DU TAUX COURT AVEC LE PACKAGE YIELD CURVE 105
Figure C.1: Extraction du taux court β0 + β1 avec la fonction Nelson.Siegel du package YieldCurve
de R Core Team (2021).
106 ANNEXE C. NELSON SIEGEL
Annexe D
4e+76
2e+76
0e+00
Figure D.1: Illustration des valeurs de la vraisemblance en fonction de chacun des paramètres. k en
noir, σ en orange et θ en bleu.
La figure D.1 illustre la non unicité du maximum de la vraisemblance. Cette approche n’a pas été
retenue. La plus petite valeur pour laquelle le maximum est atteint et pour θ supérieur à 2 × 105 , ce
qui ne paraı̂t pas crédible.
107
108 ANNEXE D. RE-CALIBRAGE : ANNUALISATION DES PARAMÈTRES
Sur le pavé D.1 de R3 les irrégularités de la vraisemblance sont limitées (cf. figure D.2), et la log-
vraisemblance négative y est minimisée. Les résultats de l’algorithme d’optimisation en fonction des
valeurs initiales sont répertoriées dans le tableau D.1.
4.00% ≤ k ≤ 10.00%
80.00% ≤ θ ≤ 100.00% (D.1)
20.00% ≤ σ ≤ 26.00%
k
theta
sigma
3.0e+117
2.0e+117
Vraisemblance
1.0e+117
0.0e+00
Figure D.2: Illustration des valeurs de la vraisemblance en fonction de chacun des paramètres.