Mémoire Présenté Le: Pour L'obtention Du Diplôme de Statisticien Mention Actuariat Et L'admission À L'institut Des Actuaires
Mémoire Présenté Le: Pour L'obtention Du Diplôme de Statisticien Mention Actuariat Et L'admission À L'institut Des Actuaires
Mémoire Présenté Le: Pour L'obtention Du Diplôme de Statisticien Mention Actuariat Et L'admission À L'institut Des Actuaires
Confidentialité : ! NON !
✓ OUI (Durée : ! 1 an !
✓ 2 ans)
Les signataires s’engagent à respecter la confidentialité indiquée ci-dessus.
Membres présents du jury de Entreprise : CNP Assurances
l’Institut des Actuaires
Nom : Gall Richard
Signature :
Membres présents du jury de la Directeur de mémoire en
filière entreprise :
Nom : DUFOURG Alexandre
Signature :
Invité :
Nom :
Signature :
Autorisation de publication et de
mise en ligne sur un site de
diffusion de documents actuariels
(après expiration de l’éventuel
délai de confidentialité)
Signature du responsable entreprise
Bibliothèque :
Approche stochastique pour la tarification d’un produit d’épargne en environnement ORSA
Résumé
Mots clefs : assurance vie, épargne, solvabilité 2, ORSA, rentabilité, tarification, stochastique.
Le secteur français de l’assurance vie s’inscrit dans un univers économique et réglementaire en plein
mouvement et présentant des incertitudes croissantes pour plusieurs raisons.
D’une part, nous constatons que le secteur de l’assurance vie évolue dans un contexte économique
nouveau, marqué par une crise financière mondiale et un niveau de taux d’intérêts historiquement
bas qui font porter de fortes incertitudes sur l’avenir du secteur en matière de solvabilité et d’offre
produit.
En parallèle de ces changements, c’est aussi le nouveau contexte règlementaire Solvabilité 2 qui
contraint les assureurs à revoir leurs approches concernant l’évaluation de leurs risques financiers et
techniques. Désormais, les règles fixant la consommation en capital règlementaire de solvabilité font
intervenir l’ensemble des caractéristiques de passif et d’actif des portefeuilles et produits, ce qui
complique l’évaluation pratique du besoin en capital et sa projection sur l’horizon temporel jugé
adéquat. Le capital économique mobilisé doit désormais prendre en compte l’existence des options
et garanties financières dont bénéficient les assurés ainsi que les conditions économiques futures et
leur impact sur l’actif de l’assureur. C’est dans ce contexte qu’intervient l’actuaire produit, lequel a
pour mission de faire le lien entre le profil de risque à l’échelle du groupe et la conception et
l’évaluation des produits au niveau opérationnel.
C’est en particulier dans l’environnement de l’ORSA (Own Risk and Solvency Assessment) que nous
traiterons des considérations quantitatives en matière de consommation en capital économique.
L’ORSA est fondée sur la notion d’appétence au risque, propre à chaque compagnie d’assurance
selon sa stratégie de risque et son positionnement commercial dans le paysage européen de
l’assurance. L’un des enjeux actuels du processus ORSA est son adaptation à l’échelle du produit
d’assurance. En effet, cette approche soulève de nombreux problèmes opérationnels quant aux
méthodes de détermination des éléments quantitatifs constitutifs du capital économique propre à
un nouveau produit. Nous tâcherons dans ce mémoire de traiter de cette question en apportant une
réponse opérationnelle ayant ses avantages et inconvénients.
C’est dans ce contexte que sont aussi impactées les études de rentabilité en assurance vie. Les
évolutions règlementaires vont avoir une influence non seulement sur le besoin en capital
économique et donc impacter la rentabilité de certains produits et garanties, mais vont aussi
nécessiter l’adaptation des méthodes d’estimation de la rentabilité des produits d’épargne à la
nouvelle culture du risque. L’approche déterministe actuelle de la tarification consistant à calculer un
indicateur de rentabilité pour un scénario économique unique n’est pas satisfaisante pour rendre
compte du risque réellement pris pas l’assureur. C’est pourquoi nous présenterons une approche
stochastique de la tarification d’un nouveau produit d’épargne hypothétique basée sur l’utilisation
de scénarios de marchés stochastiques représentatifs des conditions réelles de marchés futures.
Nous développons dans ce mémoire les résultats de cette méthode qui consiste en l’évaluation de
distributions d’indicateur de rentabilité, représentatives de la volatilité de ces indicateurs en fonction
des scénarios de marchés possibles ; ainsi que des méthodes de tarification adaptées dans ce
contexte.
Il convient finalement de rappeler que l’un des enjeux reste la simplification à l’échelle produit d’un
processus d’évaluation interne des risques très complexe et requérant des temps de mise en place et
de calculs particulièrement longs. Il faut donc interpréter les résultats et analyses de ce mémoire
comme une réponse possible conciliant différentes fonctions groupe au travers de la diffusion de la
culture du risque à l’échelle de l’actuariat produit.
Abstract
The French life insurance sector is an industry in constant motion due to growing financial and
regulatory changes.
On one hand, the life insurance industry is evolving in a new economical context marked by a global
financial crisis and a historically lox level of interest rates that carry considerable uncertainty on the
future of the sector, affecting the solvency and insurance products.
In parallel with these changes, the new regulatory environment Solvency 2 will push insurers to
review their approaches to the assessment of their technical and financial risks. Now, the rules that
determine the consumption of capital involve the modeling of liabilities and asset risks, which makes
the assessment of economical capital and its projection all the more complex. The mobilized
economical capital must now take into consideration the existence of financial options and
guarantees from which the policyholders benefit, as well as the impact of future economical
conditions. This is the context in which the product actuary will intervene, whose mission is to
establish a connection between the design of products at the operational level and the risk
assessment at the scale of the corporation.
It is especially in the ORSA environment that we will deal with quantitative considerations about the
consumption of economical capital for a new life-insurance savings product. The ORSA approach
revolves around the idea of risk appetite, which is specific to each insurance company depending on
their risk strategy and market positioning in the European insurance landscape. One of the current
challenges of the new regulatory system is the downscaling of the ORSA process at the level of a new
insurance product. Indeed, the assessment of ORSA economical capital at this scale is technically and
operationally difficult and raises many problems concerning the determination of its constitutive
elements. We will try in this paper to address these issues by providing an operational solution.
The assessment of profitability is also impacted by the regulatory and economical changes. The
forthcoming of Solvency 2 will dramatically change affect the solvency capital requirement of
insurers specifically concerning certain kinds of guarantees, but also compel insurers to change their
method to assess profitability and pricing to adapt it to the new risk culture. The current
deterministic approach to pricing assumes only one economical scenario by which is calculated a
single profitability indicator; therefore it doesn’t reflects the actual risks upon the return on equity
taken by the insurer. As an answer to this limitation, we will present a stochastic approach to the
assessment of profitability and pricing of a hypothetical savings product that relies on the use of
stochastic market scenarios meant to represent the possible future market conditions.
We will expose in this paper the results of this method by the form of distribution of profitability
indicators, which represents the volatility of the profitability according the stochastic market
hypothesis; as well as an adapted pricing method.
Finally, it is relevant to remind that the main challenge is the internal evaluation of risks and ORSA
economical capital at the product level, which requires an impressive amount of time to implement
and lengthy calculation process. We must therefore interpret the results and analysis of this paper as
an operational solution that conciliates the different actuarial functions at the company, from the
assessment of corporate risks to the product management actuary.
Remerciements
Je souhaite remercier plusieurs personnes qui m’ont été d’une grande aide tout au long de mon
expérience professionnelle à CNP Assurances de par leur disponibilité, leurs connaissances
techniques et leur soutien moral.
Tout d’abord, je souhaite remercier mes collaborateurs actuaires : Alexandre DUFOURG, mon tuteur
en entreprise, ainsi que Cédric GAILLARD et Laurence GENEST. C’est grâce à eux que j’ai pu aborder
sereinement les difficultés de l’actuariat en assurance vie et ainsi réaliser les différents travaux
techniques qui m’ont amené vers les résultats de mon mémoire. Il convient aussi de remercier
Laurent JUMELLE, directeur de CNP Patrimoine, et Marine DE BOUCHONY, directrice du pôle
conception produit, pour m’avoir accueilli au sein de leurs équipes.
Je tiens aussi à remercier les équipes commerciales de CNP Patrimoine, qui m’ont apporté leur
soutien moral et m’on fait partager leur longue et passionnante expérience au sein du monde de
l’assurance ; ainsi que toute les autres équipes avec qui j’ai eu l’honneur de travailler sur des sujets
variés.
Résumé .............................................................................................................................. 1
Abstract ............................................................................................................................. 3
Remerciements .................................................................................................................. 5
Table des matières ............................................................................................................. 6
I. Introduction ................................................................................................................. 9
I.1 Le capital immobilisé en assurance vie .................................................................................... 9
I.2 Le concept de rentabilité ...................................................................................................... 10
I.3 La tarification........................................................................................................................ 10
I.4 Le pilotage de l’activité d’assurance ...................................................................................... 11
Conclusion ....................................................................................................................... 87
Bibliographie ................................................................................................................... 89
Annexes ........................................................................................................................... 90
I. Introduction
Ce mémoire a pour objectif d’étudier la rentabilité d’un produit d’épargne en assurance vie dans le
contexte de l’ORSA, ainsi que des méthodes de tarification applicables dans ce contexte. En
particulier, nous présenterons une méthode alternative de tarification basée sur une approche
stochastique. Nous prendrons soin de présenter nos hypothèses et nous appuierons les difficultés
rencontrées dans l’adaptation de l’ORSA à l’échelle d’un nouveau produit. Ce mémoire présente
notamment une solution applicable à cette problématique récurrente dans le nouveau cadre
réglementaire.
Or l’assurance est un métier présentant des risques pour ses investisseurs : en effet, il existe de
nombreux exemples d’assureurs ayant fait faillite. Il est donc évident que l’actionnaire d’une société
d’assurance souhaite que ses investissements en fonds propres soient profitables, ce qui revient
classiquement à considérer que l’assureur doit fournir à ses actionnaires une rentabilité au moins
égale au taux sans risque majoré d’une prime de risque. Il convient donc d’éclaircir ce qu’est la
profitabilité dans le contexte présent, ce que nous ferons plus quantitativement dans un chapitre
ultérieur.
De plus, une des problématiques actuelles est l’adaptation du processus ORSA (Own Risk and
Solvency Assessment) à l’échelle d’un produit d’assurance. En effet, la détermination du capital
économique réglementaire peut se fait aisément à l’échelle d’un portefeuille de passif. Ce processus
n’est cependant pas adapté à l’estimation du capital économique propre à un nouveau produit, qui
est pourtant la maille à laquelle s’effectue le processus de surveillance des risques dans ce contexte.
Nous présenterons dans ce mémoire une approche possible de l’ORSA à l’échelle d’un produit
d’épargne et ses limites.
On voit donc apparaitre l’une des problématiques de l’assurance vie : comment définir la profitabilité
des opérations d’assurance vie et maîtriser les risques qui portent sur elle.
En effet, il existe différents outils et différentes métriques pour mesurer la profitabilité d’une
entreprise d’assurance. La méthode la plus élémentaire et intuitive consiste à analyser a posteriori
les profits réalisés sur les contrats souscrits. Or dans cette perspective, on ignore complètement les
états futurs des marchés et leur conséquence sur situation comptable de l’assureur. Il est donc
primordial de disposer d’outils de mesure de profitabilité qui prennent en compte à la fois la
variabilité des marchés financiers et le poids des investissements en capitaux réglementaires, et ce
d’autant plus dans le contexte prudentiel changeant actuel.
C’est donc pour cela que nous en venons au concept de rentabilité. Comme nous l’avons suggéré
précédemment, une façon intéressante de mesurer la profitabilité d’une société d’assurance du
point de vu actionnaire repose sur l’analyse prospective du profit réalisé comparativement aux
capitaux propres mis à disposition pour remplir les obligations prudentielles comme le prévoit la
règlementation.
De façon synthétique, ceci revient à calculer une quantité homogène à un profit futur net d’impôts
sur les capitaux propres investis.
On constate donc les deux principales composantes qui vont agir sur la rentabilité des affaires en
assurance : le profit (et les éventuelles pertes) réalisés et les exigences en capitaux propres,
lesquelles conditionnent le volume de souscription possible.
Un des chantiers que doit mettre en place la fonction actuarielle est donc de définir des indicateurs
de rentabilité qui rendent compte des risques encourus par l’assureur sur l’horizon de temps qui
convient aux décideurs.
I.3 La tarification
Du calcul des capitaux propres exigés par les règles de solvabilité et des indicateurs de rentabilité
découle la tarification des contrats d’assurance.
En effet, le tarif appliqué contractuellement sur de tels contrats est quasiment le seul moyen dont
dispose l’assureur de se rémunérer en contrepartie des garanties qu’il propose à ses clients. Le tarif
est donc l’élément clef qui va influer sur la profitabilité future des affaires. Un tarif élevé va non
seulement d’autant plus enrichir l’actionnaire mais aussi permettre à l’assureur de se constituer des
réserves importantes pour faire face aux aléas futurs du marché.
Dans la perspective de ce mémoire, nous nous intéresserons surtout au premier aspect : le tarif
applicable va dépendre de l’appétence au profit de l’actionnaire et se traduit par une exigence de
rentabilité minimum.
De plus, la tarification affecte l’offre commerciale déjà très concurrentielle sur le marché de
l’épargne. Baisser ou augmenter son tarif revient à rogner sur le commissionnement du courtier
faisant l’intermédiaire entre l’assureur et le client, et donc affecte directement de façon
opérationnelle la réalisation des affaires. Trouver le bon équilibre est donc un enjeu majeur en
assurance vie.
Le pilotage de l’activité assurantielle est une fonction fondamentale au sein des compagnies, car elle
fait le lien direct entre les décideurs de la stratégie d’entreprise et la fonction actuarielle. La bonne
maîtrise de risques techniques liés à la souscription est le fait de l’actuaire, qui doit s’assurer de
l’adéquation de la rentabilité des affaires nouvelles et anciennes avec les objectifs stratégiques
définis par la direction générale de l’entreprise.
La maîtrise des indicateurs de rentabilité devient d’autant plus difficile que la pratique se voit
compliquée par les nouvelles règles imposées par Solvabilité 2. Ceci implique que le pilotage de
l’activité de souscription d’épargne doit s’accompagner par la conception d’outils permettant de
recalculer les différents indicateurs à tout moment et dans un délai de temps raisonnable.
Cette partie du mémoire a pour objectif d’introduire la place de l’épargne en assurance vie, le rôle
des acteurs clefs du marché ainsi que les principales caractéristiques des produits d’épargne.
Le groupe CNP Assurances est engagé dans l’assurance à la personne depuis plus de 160 ans, et offre
à ce jour une offre très large de protection incluant la prévoyance santé, l’assurance emprunteur, la
retraite et l’épargne. Il s’agit du plus grand groupe d’assurance de personnes en France avec plus de
27 millions d’assurés en prévoyance et 14 millions en épargne/retraite.
CNP Assurances est un groupe détenu à 40% par la caisse des dépôts, ce qui en justifie son encrage
historique dans le secteur public, ainsi qu’à 36,3% par Sopassure, Holding de La Banque Postale et du
groupe BPCE.
La solidité du groupe est notamment visible dans la notation S&P (A avec perspective stable) et dans
son taux de couverture de marge de solvabilité qui est à fin juin 2013 de 115% hors plus-values
latentes, et de 302% avec PVL. De plus, le groupe détient un portefeuille diversifié servant à couvrir
ses engagements qui reflète la stratégie prudentielle du groupe :
§ 9 % : actions
Cet encours est alimenté par un chiffre d’affaire total de 30,8 milliards d’€ en 2014, dont environ
deux tiers concernent le périmètre épargne.
La collecte est quant à elle principalement concentrée en France à hauteur de 80%, avec les Caisses
d’épargne et la Banque Postale, les 20% restants se répartissant équitablement entre le reste de
l’Europe et L’Amérique latine.
Le groupe CNP Assurances présente la particularité de distribuer ses produits via un réseau
partenaire de banque-assurances : en effet, les deux principaux distributeurs de polices d’assurance
CNP sont La Banque Postale et les Caisses d’Epargne, regroupant un peu moins de 20 milliards de
chiffre d’affaire à eux deux. A ceux-là viennent s’ajouter les réseaux salariés et ceux des collectivités
locales, ainsi que les mutuelles.
C’est donc dans un contexte de forte croissance et d’ouverture à de nouveaux marchés que le groupe
CNP mise désormais sur le développement de l’épargne haute de gamme au travers de la fidélisation
des partenaires non captifs (conseillers en gestion de patrimoine indépendants, Banques privées,...).
Ainsi s’est créé CNP Patrimoine, département de la CNP ayant pour but la création, la distribution et
la gestion de produits d’épargne répondant aux exigences d’une clientèle haut-de-gamme cherchant
à sécuriser son capital en vue d’une gestion patrimoniale.
Dans la pratique, un contrat d’assurance vie est un véritable outil de placement financier, offrant
divers avantages fiscaux et une rentabilité intéressante qui en font l’un des placements préférés des
Français. Il s’agit aussi d’un moyen de transmission de capital offrant des avantages fiscaux à portée
de tous. L’épargne en assurance vie est donc surtout un moyen de faire fructifier un capital
quelconque en vue d’un projet personnel ou simplement pour faire fructifier ses liquidités en limitant
ses risques.
De plus, l’épargne est une source importante de financement de l’économie, qui fournit aux
institutions financières (banques, assurances) des ressources qu’ils peuvent mutualiser et réinvestir
sur les marchés financiers en échange d’un taux de rendement distribué au souscripteur. L’assurance
vie est un des principaux placements qui entrent en jeux dans la constitution de l’épargne des
ménages: l’encours total des assureurs-vie français s’élève en effet à 1 531 milliards d’euros en 2013,
ce qui représente environ 70% du PIB de la France.
§ L’assuré, c’est l’individu sur qui repose l’aléa défini par le contrat. Ce n’est qu’en cas de décès
ou de vie de celui-ci que s’exécutent les dispositions prévues par le contrat d’assurance. Le
plus souvent, l’assuré est aussi le souscripteur et bénéficiaire de la clause d’assurance. Nous
ne distinguerons pas ces trois notions dans la suite de notre étude.
§ L’apporteur, qui est l’intermédiaire qui fait le lien commercial entre l’assuré et l’assureur. En
effet, les contrats d’assurance haut de gamme sont souscrits la plupart du temps dans un
contexte de gestion de patrimoine et représentent une solution de placements financiers
parmi d’autres. L’apporteur est donc rémunéré sur la base de chargements sur versements
et encours en fonction des affaires qu’il apporte à l’assureur.
v Le support Euro. Il s’agit du principal support d’investissement en assurance vie, et son atout
est de garantir à l’assuré son capital à tout moment du contrat. Il s’agit d’un support sans
risque, c’est donc l’assureur qui supporte la charge du risque financier inhérent à ce type de
garanties.
Le souscripteur verse une ou plusieurs primes à l’assureur, lequel va faire fructifier ce capital sur les
marchés financiers. En vue de garantir une croissance constante du capital, la logique veut que
l’assureur concentre ses investissements sur le marché obligataire, en privilégiant les émetteurs les
plus solides du marché. Cependant, en complément des investissements en obligations, instruments
financiers distribuant des intérêts relativement faibles en général, les assureurs diversifient leur
portefeuilles en y incluent une part d’actions d’entreprises et d’actifs immobiliers. Le but étant bien
sûr d’améliorer le rendement des fonds Euro et d’augmenter la revalorisation des contrats d’épargne
souscrits, et donc d’être compétitif par rapport aux autres acteurs du marché de l’épargne. La
composition des fonds en Euro est un point essentiel pour comprendre les risques qu’encourent les
assureurs. Il s’agit d’un levier d’action permettant à l’assureur de mieux gérer ses risques.
La revalorisation de l’épargne de l’assuré est un point fondamental que nous expliquerons plus loin. Il
s’agit du mécanisme de participation aux bénéfices, aussi désigné comme étant un « effet cliquet »
par lequel les intérêts versés à l’assuré ne peuvent qu’être positifs (garantie de revalorisation de 0%
minimum) et son garantis à vie.
v Le support en Unité de Compte (dit « UC »). C’est le second support d’investissement que
presque tous les assureurs proposent à leurs clients en vue de faire fructifier leur épargne.
Les unités de compte sont des instruments financiers divers, tels que des actions, des parts
d’OPCVM ou de FCP sur lesquels les assurés peuvent affecter une partie de leur épargne en
vue de bénéficier des performances des instruments financier désirés. Contrairement au
support en Euro, les unités de comptes ne sont pas garanties en valeurs (en « Euro ») mais en
nombre de part investies. L’assureur d’engage donc à fournir à l’assuré au terme de son
contrat un nombre de parts d’UC, lesquelles sont associées à une valeur liquidative
fluctuante et extérieure au champ d’action de l’assureur. La valeur des unités de compte
n’est donc absolument pas garantie. L’assuré est le seul à supporter le risque sur ce support,
risque dépendant des fluctuations des marchés financiers. L’assureur ne fait qu’assurer la
garde des UC et leur mise à disposition.
Pour l’assureur, ces UC représentent un moyen de transférer une partie du risque financier à l’assuré
et représentent donc un levier supplémentaire pour gérer ses risques. Dans la suite de ce mémoire,
nous entamerons l’étude de l’impact du support séparément du support euro pour des raisons de
modélisation.
v Le taux minimum garanti. Il n’est pas rare que les contrats d’assurance vie proposent un taux
minimum de revalorisation à ses assurés. Le TMG est un élément se négociant à la
souscription du contrat qui assure une revalorisation minimum au cours des premières
années, et ce notamment en cas de rachat. En effet, la PB n’étant connue qu’à la fin de
l’exercice courant, elle ne peut donner lieu à une distribution préemptive en cas de rachat.
Le TMG permet donc d’assurer une revalorisation, même faible, en cas de rachat durant le
début du contrat.
Le TMG est une option « cachée » faisant porter un lourd risque à l’assureur. En effet, si le
rendement des actifs n’est pas suffisant pour honorer l’engagement de taux garanti, alors l’assureur
devra puiser sur ses fonds propres pour faire face à ses engagements contractuels. Nous verrons par
la suite l’impact de cette garantie sur la rentabilité et le tarif.
La collecte globale en assurance est tirée à la hausse par les cotisations en assurance de personnes,
en constante augmentation
La collecte nette en assurance vie à l’échelle nationale reste positive et en forte augmentation en
2014, bien qu’elle reste bien en dessous de son niveau de 2010 :
On constate donc une concentration de l’épargne financière au sein des tranches les plus aisées du
fait de la combinaison de deux facteurs : D’une part, la concentration du patrimoine total. Ainsi, 80%
des ménages les moins riches ne représentent que de 12% du patrimoine total de la population
française. De plus, la part de l’épargne financière devient d’autant plus faible que l’épargne moyenne
des ménages se réduit, ce qui signifie que les ménages les plus fortunés auront d’autant plus le
réflexe de placer leur épargne sur les supports financiers divers (bourse, assurance vie,...).
Le marché de l’épargne haut de gamme est donc incontournable pour les assureurs, lesquels
cherchent à capter cette clientèle en proposant une plus grande flexibilité quant à la diversification
de l’épargne au travers de supports en unités de comptes performantes et grâce à des modes de
gestion du contrat adaptés au profil d’investissement du client.
Il est important de souligner que c’est dans ce contexte « haut de gamme » que nous modéliserons le
nouveau produit d’assurance. Les hypothèses et résultats sont donc propres à l’étude de la
rentabilité stochastique d’un produit répondant aux exigences d’une clientèle haut de gamme.
Dans cette troisième partie, nous présenterons le référentiel réglementaire « Solvabilité » dans
lequel ce mémoire s’inscrit ainsi que les évolutions qui lui ont été apportées. Nous tâcherons de
mettre en exergue les impacts de la nouvelle réglementation Solvabilité 2 sur la pratique de
l’assurance vie épargne et les principaux enjeux auxquels seront confrontés les assureurs dans la
mise en place de ce nouveau cadre prudentiel.
D’autre part, notons de plus l’existence d’un risque supplémentaire pesant sur la rentabilité du
capital investi. En effet, il est nécessaire de concilier au mieux les intérêts des assurés (respect des
engagements par l’assureur) et des actionnaires (objectifs de rentabilité). L’actionnaire quant à lui
cherche à optimiser son investissement en capital auprès de la société d’assurance, et serait donc
amené à déroger
La bonne santé des organismes d’assurance est un enjeu clef à l’échelle nationale et internationale :
les assureurs sont des investisseurs institutionnels de premier plan, qui assurent une part non
négligeable du financement des Etats et des entreprises. C’est au regard de ces éléments qu’est né le
besoin d’une réglementation spécifique visant à encadrer et piloter les pratiques prudentielles en
assurance. A l’échelle Européenne, la traduction en est la réglementation « Solvabilité ».
III.1.2 Solvabilité II
La nouvelle réglementation Solvabilité II a pour objectif de fixer un cadre uniforme à l’ensemble des
organismes d’assurance en Europe et de les inciter à prendre en considération de manière plus fine
les risques auxquels ils sont soumis.
§ Sensibiliser les assureurs sur la nécessité de développer une culture des risques adaptée au
contexte actuel, grâce à l’adoption d’une vision dynamique du bilan et de principes
quantitatifs prenant en compte la réalité des activités et des risques.
§ Améliorer la mesure et le contrôle des différents risques dans le but de protéger les assurés
et la bonne santé de l’industrie de l’assurance.
Comme nous l’avons vu, la directive Solvabilité II se structure selon trois grands axes directeurs,
nommés piliers, regroupant les exigences quantitatives, qualitatives ainsi que les exigences en
matière d’information prudentielle vis-à-vis des entités extérieures. Nous préciserons le contenu de
ces trois piliers dans les parties suivantes, et ce à fin de poser le cadre de notre étude.
III.2.1 Pilier 1
Le premier pilier de Solvabilité 2 répond au besoin d’exigences réglementaires en matière de capital
économique et d’outils de mesure de ce capital. Il a pour objectif de définir les normes quantitatives
de calcul des provisions techniques et des fonds propres de solvabilité.
Ce pilier définit notamment les méthodes réglementaires d’évaluation de l’actif et du passif. Ceux-ci
sont évalués selon le principe de la « fair value », ou juste valeur dans le but d’avoir une estimation la
plus précise et fidèle à la réalité des richesses et engagements de l’assureur. L’actif est valorisé en
valeur de marché, et le passif est évalué selon une méthode du « Best Estimate ». Le bilan de
l’assureur n’est plus approché selon une vision comptable mais économique.
De façon plus précise, le passif est valorisé selon qu’il soit ou non repliable sur les marchés :
§ Si l’engagement est repliable sur les marchés financiers, alors sa valeur sera celle de la
stratégie de couverture correspondante (« mark to market »).
§ Sinon, alors l’assureur l’évaluera selon un modèle de diffusion (« mark to model »).
En plus des spécifications en matière de règles de valorisation, ce pilier définit les normes de calcul
des fonds propres réglementaires. L’exigence en fonds propres de solvabilité se décompose en deux
parties :
L’élément principal de ce pilier est le calcul des SCR, élément critique du calcul du besoin en fonds
propres réglementaires. La vision retenue par la directive Solvabilité II est modulaire : le SCR total se
calcule selon l’agrégation de plusieurs modules de risques correspondant aux grandes familles de
risques (techniques, financiers, opérationnels,...).
III.2.2 Pilier 2
Le second pilier a pour objectif d’harmoniser les règles et les pratiques en matière de gestion des
risques internes et de stratégie d’entreprise. Il permet ainsi aux entreprises de maîtriser leurs risques
internes grâce à un processus d’évaluation des risques appelé ORSA (Own Risk and Solvency
Assessment).
Il s’agit avant tout d’un outil de management opérationnel et stratégique d’autoévaluation visant à
renforcer une pratique responsable et cohérente de la gestion des risques financiers et techniques.
Si l’appréciation des risques internes n’est pas jugée suffisante ou cohérente par le régulateur, ce
dernier a la possibilité d’intervenir sur la politique interne de gestion des risques de l’entreprise
et/ou la sanctionner au travers d’une plus forte exigence en capital économique.
Soulignons que c’est en utilisant une estimation des capitaux économiques ORSA que nous
effectuerons nos études de rentabilité et de tarification. La présentation synthétique des méthodes
de calcul des capitaux économiques se fera en partie IV.5.2.
III.2.3 Pilier 3
Le dernier pilier a pour objectif de définir les informations auxquelles le public, les investisseurs
institutionnels et le régulateur ont accès. Ce pilier permet une meilleure diffusion des informations
relatives à la situation financière et prudentielle de l’assureur.
Pour récapituler, voici les principaux points développés dans chaque pilier :
Contrairement à Solvabilité I, les provisions techniques ne sont plus calculées selon un principe de
prudence, mais sont à évaluer selon la juste valeur des flux transférés par les deux parties (assurés et
assureur).
§ Une projection de l’ensemble des flux liés aux contrats en portefeuille depuis la date
d’évaluation jusqu’à l’extinction de tous les risques relatifs aux engagements.
La marge de risque est calculée de manière à garantir que la valeur des provisions techniques est
équivalente au montant que les entreprises d’assurance et de réassurance demanderaient pour
reprendre et honorer les engagements d’assurance et de réassurance.
Elle se calcule dans notre cas selon la méthode du coût du capital (CoC), et utilise notamment les SCR
réglementaires de la manière suivante :
La difficulté de cette formule réside dans l’estimation des SCR à des dates éloignées, pouvant
nécessiter de très importantes ressources informatiques. C’est pour cette raison que des
simplifications peuvent être apportées, en considérant que le SCR à chaque instant est proportionnel
à un indicateur tel que la provision mathématique.
III.4.3 Le SCR
Le principe de la détermination du SCR repose sur le calcul de la Value at Risk (Var) des pertes futures
à l’horizon un an avec un niveau de confiance de 99,5%. Le SCR est donc en principe le capital
minimum nécessaire pour que l’assureur ne soit en situation de faillite qu’avec une probabilité de
0,5%. Le SCR est donc un élément à calculer tous les ans en fonction des nouvelles conditions de
marché et de l’évolution du passif. La réglementation prévoit l’utilisation d’une méthode de calcul
standard permettant de prendre en comptes les différents sous-modules de risques et de les agréger
suivant des matrices de corrélations prédéfinies.
Les modules de risques en épargne sont les suivants : Module de marché, module de souscription
vie, module de contrepartie, module opérationnel.
Dans le cas d’un produit d’épargne, le BSCR est constitué des principaux modules de risques suivants,
représentant les grandes familles de risques auxquelles les sociétés d'assurance sont confrontées :
• Le risque de souscription Vie : Il regroupe l’ensemble des risques liés à une tarification
insuffisamment prudente lors de la souscription ou le rachat du contrat le risque de
mortalité, de longévité, de rachat, etc..
Le BSCR (Basic Solvency Capital Requirement) est le capital de solvabilité de base composé des
différents modules présentés ci-dessus. Le SCR opérationnel est quant à lui le capital de solvabilité
issu de l’évaluation des risques restants faisant figure dans le module opérationnel.
Le BSCR se calcul suivant une approche ascendante : on évalue d’abord les sous-modules de risques
puis on les agrège grâce à une matrice de corrélation.
L’approche employée pour le calcul des sous-modules repose sur les variations de l’actif net réévalué
(Net Asset Value) de l’entreprise d’assurance. Si le scénario choqué entraîne une augmentation de la
NAV par convention, schématiquement, le SCR est évalué en faisant la différence entre le bilan Best
Estimate et choqué :
v Eléments inchangés :
Tout d’abord, Solvabilité n’impactera pas les dispositifs réglementaires relatifs aux règles
d’intermédiation, de lutte contre le blanchiment des capitaux et l’encadrement des options et
garanties proposées par les assureurs. De plus, il reste à la charge de celui-ci de définir lui-même
l’éligibilité des UC en représentation des contrats multi-supports. De plus, la fiscalité très particulière
de l’assurance vie ne change pas non plus au vu des nouvelles normes prudentielles.
Le passif en vision Solvabilité I a le défaut de ne pas prendre en compte le coût des options et
garanties. La TVOG (Time value of Options and Guarantees) est un élément nouveau permettant
d’inclure dans les calculs règlementaires les risques liés à des garanties de taux minimum ou
garanties plancher.
Nous pouvons déduire des remarques précédentes que Solvabilité II va directement impacter un
certain nombre de garanties et produits. En effet, les garanties de taux sont désormais pénalisantes
pour l’assureur qui se voit obliger de mobiliser des montants de fonds propres sensiblement plus
importants que dans le référentiel précèdent. Ceci va impacter considérablement les hypothèses
tarifaires, qui devront être revues à la hausse pour compenser l’augmentation du capital immobilisé.
Notons aussi en ce qui concerne l’offre produit en épargne que les supports euro proposent
fondamentalement une garantie de taux 0% : l’assuré ne peut perdre de capital, et se voit au moins
affecter un niveau de participation au bénéfice qui reste à la discrétion de l’assureur. Le coût d’une
telle garantie est au cœur de la différence entre les exigences prudentielles de marge de solvabilité
entre fonds en euro et unités de compte. Ces dernières faisant porter l’ensemble du risque financier
sur l’assuré, elle se voit rester bien à priori moins couteuse pour l’assureur que les fonds en euro.
Nous constatons en effet un positionnement des assureurs plus pressant sur les unités de compte,
lesquels essaient de détourner le client des fonds en euro devenus trop coûteux.
L’évolution de l’offre produit montre globalement la volonté des assureurs de transférer vers les
assurés une partie des risques financiers au travers du développement d’offres commerciales en
unités de comptes plus attractives voire d’une forme de désengagement. Certaines garanties,
notamment de taux, sont amenées à disparaitre à cause de leurs coûts trop élevés. L’assuré se voit
donc comme l’ultime moyen qu’ont les assureurs de limiter leurs risques en adaptant les garanties,
quitte à ne plus se positionner sur certains marchés devenus trop peu attractifs en termes de
rentabilité et d’exposition aux risques.
C’est à ce niveau que se calculeront nos marges de solvabilité pour un nouveau produit. En l’absence
de stock initial, la méthodologie adoptée consiste à exécuter deux lots de simulations ORSA :
§ Un second lot auquel nous ajoutons le new business du nouveau produit au portefeuille
L’horizon de calcul des SCR dans ce cadre est fondamental : les affaires nouvelles s’étalant sur les 5
premières années de projection tel que décrit dans le business plan, il faut donc pouvoir disposer des
SCR à sur les 5 premières années. En pratique, les calculs ne sont faits que pour les années 0, 1, 3 et 5
et la valeur de besoin en fonds propre retenue est le maximum atteint pour ces années. Cette
limitation est due à la pénibilité des calculs ORSA selon le modèle interne.
• RM : Risk Margin
• Equity : Résultat net d’impôts futur des affaires nouvelles à partir de la date considérée
Notons le supplément de marge de 10% ainsi que l’effet modérateur des résultats nets futurs qui est
une avancée propre à l’ORSA. Schématiquement, les calculs ORSA prennent l’allure suivant :
Le calcul du besoin en fonds propres ORSA consiste donc à faire des chocs réglementaires SII à partir
d’une simulation déterministe ayant subi préalablement des chocs ORSA (baisse des taux, baisse des
actions,…). La calibration des chocs ORSA va dépendre de l’appétence au risque de l’assureur.
§ Chargements sur encours : 0,80%, dont 0,35% de commission apporteur et 0,45% pour CNP
Assurances
Ce nouveau produit prévoit une collecte étalée sur les 5 premières années. Par mesure de
simplification, seules les années 3 et 5 seront utilisées pour le calcul du besoin en fond propre.
Dans cette application, nous ne considérons que les années 3 et 5 par souci de simplification. Nous
retiendrons donc un besoin en fonds propres de 5,46% pour cet exemple par la suite.
La solution idéale à ce problème est l’approche par simulations dans simulations. Pour assurer la
couverture « parfaite » du besoin en fonds propres de solvabilité du produit ou périmètre considéré,
il est nécessaire de calculer la distribution des marges de solvabilité à chaque date de fin d’année sur
tout l’horizon de projection.
Cette méthode consiste donc à effectuer un premier lot de simulations stochastiques en univers
monde-réel. Ces simulations primaires décrivent l’ensemble des évolutions possibles de l’actif et du
passif jusqu’à un horizon k. A partir de cet horizon et de chacun des états projetés, un second lot de
simulations secondaires constituées de projection en univers risque-neutre permet l’évaluation de
chaque poste du bilan et ainsi l’évaluation des besoins en fonds propres pour chaque trajectoire à
l’horizon k.
L’inconvénient majeur de cette méthode réside dans la pénibilité des calculs : en supposant un
éventail de 1000 simulations à chaque projection stochastique, cette méthode nécessiterait le calcul
de plusieurs dizaines de millions de runs déterministes. Etant donnés les délais courts dans lesquels
doivent se faire les études de rentabilité pour le lancement d’un nouveau produit, il est peu
concevable d’employer cette approche.
Il est peu adéquat d’employer cette approche et nous privilégierons une méthode plus
opérationnelle.
Dans le cadre de notre étude, nous considérons le principal facteur de risque : la plus ou moins value
latente (PMVL) du portefeuille global. Nous estimons dans ce cas la variabilité du besoin en capitaux
économique en fonction de l’écart de la PMVL du portefeuille par rapport à son état initial.
De plus, nous ferons une hypothèse simplificatrice forte : nous supposerons que la sensibilité du
besoin en fonds propres (BFP) du nouveau produit en vision est identique à celle du portefeuille
épargne sur lequel il est adossé. Cette hypothèse permet de simplifier considérablement les calculs
ORSA, car d’une part nous n’avons plus besoin de passer par l’approche marginale à chaque point où
est calculé l’abaque et d’autre part l’abaque reste identique quelles que soit les caractéristiques du
nouveau produit.
Il est important de noter que nous extrapolons la sensibilité du besoin en fonds propres linéairement
à partir de cet abaque de part et d’autre de l’axe des ordonnées.
Les détails des calculs ORSA sur le portefeuille sont en annexe 1. Nous utiliserons cet abaque tout au
long de nos calculs, sauf si cela est spécifié.
Dans cette quatrième partie nous tâcherons d’expliciter les éléments de modélisation essentiels que
nous aborderons dans le cadre des études de rentabilité et de tarification. En effet, comme nous
l’avons vu précédemment, le nouveau contexte prudentiel Solvabilité II en jeu va profondément
impacter la rentabilité de l’activité en assurance vie en apportant de nouvelles exigences
quantitatives en marge de solvabilité et en imposant un suivi des risques approfondi.
Pour illustrer ceci, nous avons choisi de présenter ces impacts sur un exemple de nouveau produit
d’épargne, que nous détaillerons dans la cinquième partie. Nous développerons ici d’une part les
éléments relatifs au portefeuille d’épargne qui nous servira de fondation pour nos calculs. Nous
présenterons aussi l’approche stochastique que nous appliquerons dans une partie ultérieure, en
remplacement des actuelles méthodes déterministes.
Le portefeuille épargne est représenté notamment par un model point dont nous donnons ici un
aperçu synthétique :
L’âge moyen des assurés pondéré par la PM est de 71 ans. Cela représente un âge relativement
avancé, qui indique donc que le portefeuille entre dans une phase de décollecte rapide à cause
notamment de la forte mortalité des assurés âgés.
v La PPE initiale du portefeuille est de 136 412 624 €, c’est à dire 1,6% de la PM initiale.
Dans le modèle CNP les paramètres TME et R de la formule des taux de rachats dynamiques ACPR
n
⎧
⎪ ∑ TME t − j
⎪ j =1
sont égaux à ⎨TME =
⎪ n
⎪⎩ R = TGR p −1
Variable Description
n Retard TME
Dans le cadre de notre étude, les paramètres suivants sont utilisés en fonction de l’âge des assurés :
α -4% -6%
β -1% -2%
γ 1% 1%
δ 3% «3%
En ce qui concerne l’actif du portefeuille, il est composé à hauteur de 15,3% d’actions ; 80,2%
d’obligations ; 3,8% de trésorerie et 0,6% d’immobilier. Voici plus en détail la répartition des actifs :
Actions: 15,3%
OATi: 3,3%
Immobilier: 0,6%
Trésorerie: 3,8%
Cette richesse initiale est très importante notamment en ce qui concerne l’évaluation des besoins en
capitaux économiques ORSA. Qualitativement, plus la plus-value du portefeuille est importante, et
plus les capitaux requis seront faibles. La plus-value latente initiale joue un rôle de coussin car elle
permet de représenter les besoins réglementaires de solvabilité.
Nous verrons dans une section ultérieure (IV.6) la sensibilité de ces capitaux aux variations de PMVL.
La plus part des indicateurs classiques offrent une représentation annuelle des résultats plutôt
qu’une synthèse sur l’horizon de projection complet. Sachant que l’assurance vie est une industrie
dont le chiffre d’affaire à une année donnée produit des résultats sur la durée de vie des contrats,
qui peut être très longue, il est nécessaire de manipuler ces indicateurs avec précaution.
Nous allons donc dans cette section expliquer la nature de trois indicateurs de rentabilité récurrents
en assurance vie : la New Business Value (NBV), le Return on Equity (ROE) et le Taux de Rentabilité
Interne (TRI).
La NBV ajustée représente la valeur actuelle probable des profits dégagés dans le futur par les
affaires nouvelles du business plan. Dans notre modélisation, nous considérons 5 années de collecte
future, au lieu d’une seule telle que les normes européennes le prévoient. Elle est égale à la
moyenne de la valeur actuelle des profits futurs nets d’impôts pour chaque scénario économique
considéré.
La détermination de la NBV repose sur la projection des profits futurs à partir du portefeuille
d’affaires nouvelles, le portefeuille étant déroulé jusqu’à extinction des engagements de l’assureur
en tenant compte d’hypothèses de rachats et décès.
La NBV est une mesure intéressante car elle capture la rentabilité réelle de l’activité, c’est-à-dire la
marge réelle (déduction faite d’impôts) diminuée des coûts nécessaires à l’exercice de l’activité
d’assurance. Elle prend aussi en compte le coût des garanties et options, à l’origine de l’asymétrie du
Le RBE était le résultat brut d’exploitation, c’est à dire le profit brut de l’assureur, et IS l’impôt sur les
sociétés.
Cet indicateur a l’avantage d’être facile à calculer et permet de comparer facilement la rentabilité
sous différents référentiels règlementaires.
Cependant, le ROE laisse apparaître certains défauts en tant qu’indicateur de rentabilité pour une
activité d’assurance vie. En effet, il considère les résultats sur des périodes courtes, alors que
l’activité d’assurance vie produit de la valeur sur un horizon long équivalent à la durée de vie des
contrats. De fait, l’emploi du ROE à des fins opérationnelles ne semble raisonnable que pour des
portefeuilles incluant des générations de contrats multiples. En effet, pour de tels portefeuilles, les
bénéfices produits par les générations matures compensent les pertes engendrées par la production
récente. Le ROE n’a donc de sens que sur une vision de croisière de l’activité d’assurance.
Le TRI est donc un taux qui annule la VAN des flux financiers relatifs à un projet, tel que le lancement
d’un nouveau produit. Il peut s’assimiler au taux « moyen » de retour sur investissement sur toute la
durée de projection des flux futurs. En ce sens il s’agit d’un très bon indicateur pour rendre compte
de la rentabilité réelle des activités en assurance vie.
Où :
• CTS(t) : Coûts des titres subordonnés achetés en couverture des capitaux économiques.
Notons tout de même qu’en réalité, la libération des capitaux économiques immobilisés en
représentation de la marge de solvabilité n’est pas rendue dans l’immédiat à l’actionnaire mais peut
servir notamment à couvrir d’autres activités en croissance au sein de la compagnie.
Ce taux peut être utilisé comme mesure de la rentabilité à plusieurs niveaux : aussi bien à l’échelle du
groupe qu’à celle d’un nouveau produit ou même d’un contrat spécifique, ce qui s’avère notamment
le cas en épargne haut de gamme, où les primes peuvent atteindre plusieurs dizaines de millions
d’euros.
Les TRI ainsi calculés sont directement comparables sans besoin d’ajustement selon le contexte
particulier de chaque étude de rentabilité.
Dans le contexte réglementaire Solvabilité I, la tarification des produits des produits d’épargne est
grandement simplifiée du fait que les capitaux réglementaires sont calculés forfaitairement à des
taux fixes selon les supports (4% euro, 1% UC) avec une éventuelle marge additionnelle selon les
assureurs. De plus, l’approche déterministe est favorisée du fait de la simplicité de sa mise en place
et permet de généralement bien comprendre les impacts des caractéristiques des nouveaux
produits. Cette approche se fonde sur l’idée que l’on détermine un indicateur de rentabilité unique
selon un scenario économique central.
§ Le business plan. Il s’agit de l’élément central des études de tarifications pour de nouveaux
produits. Le business plan est l’estimation de la production future du nouveau produit. Il est
construit de manière à représenter la collecte euro & UC que prévoit la compagnie sur le
canton considéré.
§ Les caractéristiques du produit. Ce sont aussi bien les caractéristiques contractuelles que les
hypothèses de coûts de lancement et de gestion du produit. C’est à ce niveau qu’intervient le
tarif à proprement parler, c’est à dire la combinaison de l’incompressible rémunérant
l’assureur et de la commission rémunérant l’apporteur.
Notons que les assureurs proposent de plus en plus différents modes de gestion des unités
de compte, c’est là un paramètre qui peut aussi intervenir dans les études de rentabilité en
fonction du niveau de précision souhaité.
§ Les hypothèses financières. Il s’agit là d’un jeu d’hypothèses très importantes qui donne tout
son sens au caractère déterministe des études de rentabilité sous Solvabilité 1. Les
hypothèses financières sont regroupées au sein d’un scénario financier central censé
représenter le rendement projeté des fonds en euro et UC, ainsi que la production sur fonds
propres.
Il est important de noter que l’absence de variabilité des hypothèses financières conduit à ne pas
considérer tous les mécanismes de revalorisation et de provisionnement ainsi que les PMVL (plus ou
moins-values latentes) du portefeuille d’actif. La rentabilité est calculée en supposant un portefeuille
d’actif « idéal » distribuant un rendement constant. Le coût des garanties de taux (par défaut à 0%
pour les fonds en euro) ainsi que les risques financiers en cas de portefeuille en situation de moins-
value latente ne sont pas pris en compte.
C’est justement pour pallier ce manquement que nous présentons dans ce mémoire une approche
stochastique des études de rentabilité à l’échelle produit avec pour objectif de déterminer la
variabilité des indicateurs de rentabilité selon un ensemble de scénarios économiques. Nous
garderons à l’esprit que nous cherchons à étudier la rentabilité d’affaires nouvelles. Ce mémoire ne
s’intéressera pas à l’étude de ces indicateurs sur un portefeuille d’épargne mature.
C’est donc à la lumière des remarques précédentes concernant les études de rentabilité
déterministes qu’il convient de changer profondément la méthodologie de ces études en vue
d’intégrer la vision prospective de l’ORSA. Nous présenterons dans la section suivante la méthode de
détermination du capital économique ORSA au lancement d’un nouveau produit.
Il est aussi important de souligner que toutes les considérations suivantes sont valables uniquement
pour le support euro. Ce n’est que dans la partie V.5 de ce mémoire que nous intégrerons les
supports UC dans la méthodologie stochastique suivante.
Ces abaques ont pour but de donner une mesure de l’impact quantitatif de un ou plusieurs facteurs
de risques sur le besoin en fonds propres ORSA du nouveau produit. L’idée sous-jacente est de
pouvoir projeter l’évolution du besoin en capitaux économiques selon des indicateurs des indicateurs
de marché ou des caractéristiques de l’actif. En effet, en contexte stochastique, l’avantage que nous
disposons est de disposer de plusieurs scénarios économiques.
La seconde étape est bien sûr la plus cruciale puisqu’il s’agit là de déterminer les indicateurs de
résultat et de bilan pour chaque scénario nous permettant ensuite de calculer la rentabilité pour
chacun d’entre eux.
Pour ce faire, nous procédons par la méthode marginale : nous déterminons tout d’abord ces
indicateurs en nous basant sur l’ensemble du périmètre épargne considéré, c’est à dire le
portefeuille de passif retenu sur lequel s’adossera le nouveau produit ; puis nous déterminons ces
indicateurs pour le portefeuille auquel nous ajoutons le new business du nouveau produit. Les
indicateurs propres au nouveau produit sont supposés être égaux à la différence entre les deux.
Cette approche a l’avantage de faire jouer les mécanismes de diversification et mutualisation du fond
en euro.
Les données nécessaires qu’il nous faut extraire sont les suivantes :
C’est avec le second jeu de données que nous pouvons utiliser l’abaque préalablement construite
pour faire varier le besoin en capital économique. Nous analyserons plus précisément l’impact de la
prise en compte de l’abaque dans la partie V.3.2.
La dernière étape consiste à calculer les indicateurs de rentabilité souhaités pour chacune des
trajectoires à partir des données récoltés.
Nous obtenons ainsi des distributions de rentabilité en lieu et place d’un indicateur unique comme
c’est le cas en se servant d’un scenario déterministe central.
L’interprétation de ces distributions dans un objectif de tarification est un problème ouvert donc
nous chercherons à apporter une solution dans la partie VI.
Dans cette partie nous présenterons et analyserons les résultats que nous obtenons en appliquant la
méthode stochastique de calcul des indicateurs de rentabilité à un nouveau produit d’épargne fictif.
Ce nouveau produit est supposé faire l’objet d’une collecte sans stock initial.
Cette partie a pour but de déterminer la sensibilité des différents indicateurs de rentabilité aux
paramètres de passif et la déformation de leurs distributions. Les sensibilités se feront par rapport à
un scénario « central » lequel est censé représenter un produit standard du marché de l’épargne.
Dans un premier temps, nous analyserons les sensibilités uniquement sur la partie Euro du contrat.
Nous ferons ensuite intervenir les unités de compte pour obtenir une vision plus réaliste de la
rentabilité des produits sur le marché.
La prime moyenne Euro du nouveau produit est fixée à 600 000€ par contrats.
Le chiffre d’affaire futur généré par le nouveau produit se répartie de la manière suivante sur les 6
premières années :
Année 0 1 2 3 4 5
CA 0 127 500 000 225 000 000 350 000 000 520 000 000 600 000 000
Au-delà de 6 ans, le nouveau produit est supposé ne plus générer de chiffre d’affaire. Il est donc en
situation de run-off à partir de la cinquième année. Notons qu’en année 0, le produit est supposé ne
pas voir de contrats en stock et a donc une provision mathématique nulle.
v Pour représenter les rachats, nous avons choisis une hypothèse de rachats constante :
- Rachats totaux : 6%
- Rachats partiels : 0%
L’hypothèse de loi constance est une approche simplificatrice, compte tenu du positionnement
particulier du nouveau produit fictif sur le marché haut de gamme.
A titre de comparaison, voici les lois de rachats effectifs (totaux + partiels) du portefeuille en
pourcentage de la PM :
La loi que nous utilisons est donc plus prudente à partir de la douzième année, et à l’avantage
d’accélérer l’extinction du stock sur la période réduite de 40 ans sur laquelle nous ferons nos
projections.
v Pour représenter la mortalité, nous avons utilisé la TH 00-02 dont les Lx sont représentés ci-
dessous :
v Les chargements prélevés sur la PM s’élèvent à 0,80% et se répartissent comme suit : 0,45%
d’incompressible CNP et 0,35% de commissions pour l’apporteur.
N.B. : nous nommerons « incompressible » la part des chargements sur encours revenant à
l’assureur. La commission est tout naturellement la part des chargements revenant à
l’apporteur des affaires nouvelles (intermédiaire entre l’assureur et le client).
v Age moyen : 57 ans. L’ensemble des assurés est supposé avoir cet âge à la souscription du
contrat.
v Clause de PB : 100% des produits financiers, ce qui signifie que la seule ressource effective de
l’assureur est donc l’incompressible de 0,45% sur encours.
En effet, ces paramètres sont établis à l’échelle groupe et altèrent la vision produit à laquelle nous
nous plaçons.
Cette hypothèse de calcule est forte et permet d’extraire des indicateurs de rentabilité intrinsèque
pour le nouveau produit. Nous évaluerons les impacts de la prise en considération de ces paramètres
extérieurs dans la partie V.6.
V.2.1 Généralités
Le but de la méthode stochastique est de projeter le compte de résultat d’un nouveau produit pour
un grand nombre de scénarios de marchés générés en univers monde réel, et ainsi déterminer les
indicateurs de rentabilité pour chacune de ces scénarios. Pour ce faire, il nous faut disposer d’un
générateur de scénarios économiques. Dans le reste de l’étude, nous considérons toujours 1000
trajectoires issues du générateur économique.
Maturité 1 2 3 4 5 10 15 20 25 30
Taux lissés 0.34% 0.36% 0.40% 0.46% 0.54% 1.01% 1.36% 1.56% 1.83% 2.14%
Le générateur projette des scénarios de marché sur 50 ans. Pour cette étude, nous nous limiterons à
40 ans pour rester cohérant avec les études dans le référentiel Solvabilité I.
Les facteurs d’actualisation utilisés pour escompter les flux en date de projection dans les calculs
stochastiques sont déterminés pour chaque date de projection et chaque scénario de marché en
fonction des taux d’intérêt court terme (maturité 1 an) projetés dans le scénario stochastique
considéré. Plus précisément, le facteur d’actualisation entre les dates 0 et t, noté δ(t) est donné par
la relation suivante :
t −1
δ (t ) = ∏ Pn (k , k + 1)
k =0
Où Pn(k, k+1) désigne le prix en date k d’une obligation zéro-coupon nominale de maturité un an.
Les modèles de diffusion sont donnés en annexe 3.
Pour ce faire, nous allons procéder en affichant la courbe de diffusion moyenne ainsi que les
quantiles 5% et 95% pour chaque année. Ceci nous donne une idée des cas limites en omettant
seulement 10% des valeurs possibles. En abscisse se trouve l’horizon de projection en années, en
ordonnée l’indice.
On constate que les taux obligatires 10 ans descendent rarement en dessous de 0,25% tout au long
de l’horizon de projection. Le taux 10 ans étant une référence pour les assureurs, qui couvrent la
majeur partie de leurs passifs avec des obligations étatiques de maturité 10 ans car se raprochant de
la duration des contrats d’épargne, il est important de souligner que ce modèle prévoit des situations
où ce taux n’est même pas sufissant pour permettre le prélèvement des chargements sur encours.
Ces derniers sont de 0,80% dans le cas que nous étudierons.
v Indice CA40
Le rendement annuel moyen du scenario moyen est de 7,5%, et la volatilité moyenne sur l’ensemble
des trajectoires est de 20,6%. Ceci correspond en effet à la calibration retenue dans ce modèle.
Nous allons dans cette partie exposer la sensibilité des indicateurs de rentabilité stochastiques selon
les hypothèses de notre modèle pour analyser leurs impacts. Ceci a pour but de mettre en évidence
quels sont les paramètres critiques qui influent le plus sur les distributions de rentabilité, et mettre
en évidence les déformations de celles-ci.
Ces sensibilités constituent aussi un moyen de construire des tables décrivant l’influence des
paramètres de passif sur les caractéristiques des distributions de rentabilité, et ainsi alléger les
calculs en passant par des proxys dépendant des caractéristiques produit (chargements sur encours,
prime moyenne,…).
Rappelons les principales caractéristiques du produit ainsi que les hypothèses faites :
§ TMG à 0%
§ Incompressible : 0,45%
§ Pas de production financière sur fonds propres ni titres subordonnés en couverture des fonds
propres.
Pour ce produit, le besoin en capital économique initial vaut 5,48% des PM. Les détails des calculs
sont fournis à la partie III.7.2. Nous ne sensibiliserons pas le besoin en fonds propres dans cet
exemple liminaire.
Cette allure est caractéristique des hypothèses de collecte que nous avons supposées : durant les 5
premières années, la collecte est nette ce qui signifie que l’assureur doit mobiliser plus de capitaux
économiques qu’il n’en libère du fait des sorties. A partir de la 6ième année de projection, il n’y a plus
de collecte donc le portefeuille entre en phase de run-off. Le flux actionnaire diminue avec
l’écoulement de la PM totale jusqu’à l’horizon de projection.
Nous allons considérer en premier lieu dans toute cette partie les indicateurs de médiane et de
moyenne, nous permettant d’apprécier de façon globale la rentabilité que l’on obtient dans ce
référentiel. Voici les valeurs pour le scenario central :
Cette distribution met en évidence un phénomène très propre à l’assurance vie épargne : l’asymétrie
du risque financier pour l’assureur. Cela signifie que la rentabilité des produits d’épargne est
particulièrement sensible au rendement de l’actif du fait de la contrainte de garantie de taux minimal
à 0% et de la structure des coûts. Dans notre cas, la clause de PB à 100% nous impose de redistribuer
ou de provisionner pour l’assuré toute la production financière du portefeuille. Nous ne disposons
donc pas de produits financiers supplémentaires dans les scénarios économiques favorables (hausse
du rendement de l’actif). A contrario, la dégradation des conditions de marché peut entraîner une
baisse du rendement de l’actif et donc rendre plus délicate la redistribution des excédents financiers.
Cette approche nous permet ainsi de quantifier l’asymétrie du risque au niveau de la rentabilité.
Nous retrouvons de manière moins évidente cette asymétrie dans la diffusion de la distribution des
ROE calculés pour chaque année de l’horizon de projection :
Notons que la forme de cette distribution est très différente de celle des TRI : la NBV est symétrique
au voisinage de son mode. La fonction de répartition de NBV nous indique cependant l’asymétrie des
queues de distributions : il existe de nombreux scénarios à NBV faibles et relativement peu de
scénarios à NBV forte.
Ce résultat peut s’interpréter par le fait que la NBV n’est pas autant conditionnée par les fonds
propres que le TRI : une augmentation des profits nets entraine une augmentation relative faible des
coûts des capitaux économiques.
L’asymétrie des queues de distributions s’explique par celle des garanties en cas de forte baisse du
rendement du portefeuille.
Voici L’allure de la diffusion sur 40 ans du taux forfaitaire de besoins en fonds propres (BFP) sur les
1000 trajectoires en appliquant l’abaque pour le facteur de risque PMVL du portefeuille :
On constate une légère hausse du besoin forfaitaire médian sur les 40 ans, qui signifie une
diminution de la PMVL médiane, mais surtout nous n’obtenons pas de valeurs aberrantes (proches
de 0%).
Voyons maintenant l’allure de la distribution des TRI avec abaque et sans abaque sur 40 ans :
De même, nous pouvons comparer les fonctions de répartition pour se donner une idée plus claire
de l’impact de l’abaque sur les quantiles :
§ La queue de distribution gauche change peu, ce qui signifie que l’abaque n’a pas ou peu
d’influence sur le TRI des « mauvais » scénarios.
§ La distribution sans abaque domine celle avec abaque au voisinage du centre de distribution.
§ La queue de distribution droite avec abaque est bien plus prononcée que dans le cas sans
abaque. C’est ce qui donne une allure symétrique à la distribution des TRI en appliquant une
sensibilité sur le besoin en fonds propres : la baisse du besoin en fonds propres dans les
scénarios où l’on observe une hausse de la PMVL a naturellement pour effet d’augmenter le
TRI.
Durée 0 5 10 15 20 25 30 35 40
TRI médian 2,49% 2,45% 2,40% 2,37% 2,36% 2,34% 2,33% 2,33% 2,33%
On constate que sur la durée, le TRI médian diminue de presque 25bp. La conclusion logique est que
l’abaque a deux avantages :
§ Rendre plus prudente l’estimation des quantiles inférieurs à 50%, comme nous pouvons le
constater sur la figure 21.
Dans la suite de ce mémoire, nous utiliserons donc toujours l’abaque pour estimer nos distributions
de rentabilité.
On constate que le TRI médian diminue en fonction de l’horizon de calcul du TRI, ce qui est tout à fait
naturel : les flux négatifs apparaissant en début de projection, tel que le met en évidence la figure 15,
la réduction de l’horizon signifie que l’on néglige les flux bénéficiaires à long terme et donc on
amortit moins la mobilisation initiale des capitaux.
Pour réaliser une comparaison des distributions de TRI en fonction de la prime moyenne, il est
nécessaire de procéder aux calculs de besoins en fonds propres 0RSA pour chaque jeu d’hypothèses.
Nous obtenons une relation linéaire entre le besoin en fonds propres et la prime moyenne, mise en
évidence par la régression suivante :
Cette relation nous permet de plus facilement déterminer les distributions de TRI pour d’autres
valeurs sans passer par le processus de calcul ORSA, qui est particulièrement lourd à mettre en place
et très gourmand en temps de calculs. Ce genre de proxy permet de simplifier le processus
opérationnel à la simple projection des flux selon les trajectoires de marchés stochastiques.
Intéressons-nous à la distribution des TRI en supposant une prime moyenne de 300 000€ et le même
incompressible, 0,45% pour rappel.
De la même manière, voici les indicateurs de la distribution pour une prime moyenne à 900 000€ :
Pour mieux comprendre l’influence de la prime moyenne sur la distribution des TRI, voyons les
fonctions de répartition des distributions correspondantes :
Bien entendu, si la structure des coûts était différente, pondérée entre des coûts forfaitaires et
unitaires, la sensibilité serait moindre. Le choix d’une hypothèse de structure de coût adéquate est
donc fondamental.
Dans le tableau suivant se trouve la comparaison des valeurs centrales des distributions :
Les calculs de besoins en fonds propres ORSA en fonction du niveau de chargement nous donnent
ces résultats :
On constate une baisse du besoin forfaitaire en fonds propres avec la hausse de l’incompressible, ce
qui est cohérant avec la formule de la section IV.5.2. En effet, en augmentant l’incompressible on
augmente de fait les résultats nets du produit, qui compensent le SCR et la Risk Margin.
On constate que l’évolution de ce besoin en fonds propres est quasi linéaire en fonction de
l’incompressible, et varie relativement peu entre les deux valeurs « extrêmes » possibles d’un tarif
raisonnable (0,30% et 0,50%).
On ne constate pas de déformation particulière des distributions, en ayant pourtant choisi des
niveaux d’incompressibles très différents. La seule évolution remarquable est l’augmentation de la
variance avec l’incompressible sur encours.
Comme nous l’avons suggéré, les distributions se translatent régulièrement en fonction du niveau
d’incompressible, mais aussi une augmentation de leur variance.
Le taux minimum garanti (TMG) est une option classique des contrats d’assurance vie : elle consiste à
garantir un taux minimum de revalorisation de l’épargne euro quelles que soient les conditions
financières de marché. Il est donc intéressant de se pencher sur l’impact de cette option sur la
rentabilité d’un nouveau produit.
Pour ce faire, nous allons considérer le nouveau produit avec hypothèses centrales auxquelles nous
ajoutons l’hypothèse de TMG viager pour tous les contrats. Nous obtenons les besoins en fonds
propres suivants en fonction du TMG :
Il est intéressant de noter l’ampleur de la sensibilité du besoin en fonds propres en fonction du TMG
comparativement aux cas précédents. Cela s’explique notamment pas le fait que les calculs ORSA ont
été effectués selon un scénario économique ORSA de baisse de taux, ce qui est fortement impactant
en présence d’un produit avec TMG.
Les détails des calculs ORSA dans le cas d’un TMG à 1% sont laissés en annexe 3.
Nous pouvons faire la remarque suivante quant à la présence d’un TMG : La probabilité d’avoir une
rentabilité négative augmente assez sensiblement.
V.3.6.3 TMG à 1%
Dans cette section, voyons ce qu’il se passe en imposant un choc de rachats de +3% sur chacune de
ces lois séparément.
On constate une très forte différence de la sensibilité selon le type de rachats impactés (totaux ou
partiels). Ceci est la conséquence de notre choix de structure de coûts. Puisque les coûts ne
dépendent pas de la PM mais uniquement du nombre de contrats unitaires, une baisse de la PM par
contrat signifie une baisse des chargements sur encours prélevés mais des coûts unitaires identiques.
D’où un résultat brut en forte baisse lorsque l’on ajoute une hypothèse de rachats partiels.
L’étude des sensibilités précédentes sur les distributions de rentabilité nous permet de tirer plusieurs
conclusions :
§ L’approche stochastique permet bien de capter les caractéristiques du produit aussi bien au
travers des indicateurs moyens/médian que dans l’allure des distributions.
Ces estimations sont d’autant plus difficiles que nous avons considéré le cas d’un produit
haut de gamme, pour lequel le nombre d’assurés est faible et dont les hypothèses vont avoir
tendance à s’écarter de la réalité observée à postériori.
§ Une étude de sensibilité est un moyen de construire des proxys qui permettent de
déterminer simplement l’évolution d’un indicateur (moyenne ou quantile du TRI) en fonction
de certains paramètres, notamment le tarif. Comme nous l’avons vu, la distribution de la
rentabilité se déforme uniformément en fonction de l’incompressible ce qui permet de créer
des proxy pour des incompressibles intermédiaires.
§ Le point majeur de cette étude a été l’utilisation d’un besoin forfaitaire en capitaux
économiques pour chaque jeu d’hypothèses. La détermination de ces besoins en capitaux est
particulièrement fastidieuse en environnement ORSA, d’autant plus que leur variation est
plus ou moins notable selon les hypothèses sensibilité. En effet, nous avons vu que l’ajout
d’un TMG était en soi bien plus impactant que la baisse du tarif sur le besoin en capital.
Il est donc naturel de construire des tables à partir de ces sensibilités, ce qui réduit le calcul
du besoin en capital à un proxy et rend ainsi plus opérationnelle la mise en œuvre de la
méthode stochastique.
Concernant la détermination des flux de résultats dans les parties précédentes, nous avions adopté
une vision dite « marginale » qui consistait à déterminer les éléments de bilan du nouveau produit
comme étant la différence entre ceux du stock initial et ceux du stock agrandi par les affaires
nouvelles de ce produit. Cette approche a le grand avantage de ne pas requérir d’hypothèses
supplémentaires, telles que l’ajout d’une réserve de capitalisation et d’une PPE en fonction du
volume des affaires nouvelles, et rend compte de l’impact du portefeuille initial.
Il est donc intéressant d’analyser ce qu’il se passe en projetant le nouveau produit en stand-alone
(SA), c’est à dire en supposant un portefeuille vierge en début de projection, lequel va s’incrémenter
des actifs achetés selon la stratégie financière sur les 5 premières années à mesure que le produit
engendre de la collecte.
Pour cela on considère le jeu d’hypothèses central, sans abaque, pour voir l’allure des distributions
des TRI :
Le seuil de rentabilité maximum est sensiblement le même, ce qui signifie que même en absence
d’effets de diversification et sans utilisation de l’abaque le nouveau produit ne peut donc pas
excéder le même seuil de rentabilité. L’absence de ces effets ne bénéficie donc pas à la rentabilité
d’un nouveau produit.
La queue de distribution par la gauche en stand-alone est considérablement plus lourde, du fait de
l’absence de ces effets de diversification. Cela s’explique simplement : dans de mauvaises conditions
de marché, c’est à dire dans les scénarios économiques à faible taux, la collecte nouvelle ne bénéficie
pas des sorties du portefeuille, ni de la PPE ou de la plus-value latente du portefeuille. Les éventuels
coûts fonds propres causés par un actif à très faible rendement ne sont pas amortis. Dans ces
scénarios, le TRI est donc très impacté.
L’approche stand alone n’est donc pas adaptée à une étude stochastique car elle ne rend pas compte
des effets transverses dus à la présence d’un stock et d’un actif mature et est très sensible aux
conditions de marchés de la période de collecte.
Les unités de compte nécessitent une modélisation différenciée du fonds en Euro à cause des
mécanismes financiers de revalorisation et de provisionnement inhérents à chaque support. Les
outils nous permettant de projeter le compte de résultat pour un passif libellé en Euro ne permettent
pas l’intégration de supports en unités de compte. Il nous faut donc statuer sur le modèle à choisir
pour la projection et la valorisation des unités de compte.
Ce modèle va nous permettre d’affecter une distribution de rendements UC pour chaque scénario.
De plus, nous allons présenter le modèle financier qui nous permettra de simplifier la modélisation
des UC en explicitant le lien entre leurs paramètres financiers.
Dans toute notre étude, nous allons considérer que les unités de compte suivent le modèle de
diffusion Brownien géométrique, aussi connu sous le nom de modèle de Black & Scholes. Ce modèle
est tout particulièrement adapté pour représenter des portefeuilles d’actifs de type action, qui
représentent une composante majeure des unités de compte. Ce modèle présente aussi l’avantage
de réduire le paramétrage des actifs à leur rendement moyen annuel et à la volatilité de ce
rendement.
Soit µ le rendement moyen de l’actif et σ la volatilité de l’actif. Dans ce modèle le cours d’un actif est
régi par l’équation :
Le terme d’évolution moyen est une croissance à taux constant μ et le terme stochastique
s’apparente à des fluctuations aléatoires dont l’ampleur des variations (la volatilité est
proportionnelle au prix de l’action St). L’idée est que les pertes et les gains se font en pourcentages.
Une fois de plus si dB ́était un terme fluctuant L(t)dt on résoudrait l’équation par séparation des
variables, c’est à dire en intégrant la relation :
Ou encore :
On peut montrer qu’il s’agit bien de la solution de l’équation. Elle satisfait plusieurs postulats que
vérifient les cours des actifs St dans un marché viable répondant aux hypothèses de Black & Scholes.
Ces postulats sont :
– Les accroissements relatifs sont stationnaires (la loi ne dépend que de t − u).
Il est donc ainsi possible de modéliser la diffusion d’une UC grâce avec un pas annuel. Par souci de
simplification, nous considérons que la simulation des 1000 trajectoires UC se fait indépendamment
des conditions de marché que nous avons considérées en input du modèle Euro.
Le modèle de diffusion d’actifs que nous avons introduit pose le problème du choix des paramètres
financiers et surtout du lien existant entre espérance de rendement et volatilité. En effet, pour
représenter au mieux la réalité d’une unité de compte, il nous faut trouver un modèle établissant
cette liaison.
Pour ce faire, nous allons nous servir de la théorie moderne du portefeuille pour appuyer notre choix
de paramétrage.
La théorie moderne du portefeuille est née en 1952 avec la publication de l’article fondateur d’Harry
Markowitz. En partant du postulat que le risque d’un portefeuille peut être correctement mesuré par
la variance de sa rentabilité, Markowitz explicite et formalise le dilemme fondamental de la gestion
de portefeuille: obtenir une rentabilité faible mais certaine, ou accepter de prendre un risque dans
l’espoir d’accroître cette rentabilité, l’espérance de rentabilité étant d’autant plus élevée que le
risque est important.
Le postulat essentiel de cette théorie est que l’investisseur va nécessairement chercher à maximiser
le rendement de son portefeuille et minimiser sa variance. Ce qui se traduit par deux approches
possibles : maximiser son espérance de rendement pour une variance donnée, ou minimiser sa
variance pour une espérance de rendement donnée.
La frontière efficiente est constituée de la combinaison d’actifs risqués qui minimisent pour chaque
rendement possible la volatilité du portefeuille.
Le portefeuille de marché est quant à lui intimement lié à l’actif sans risque. En effet, celui-ci est
défini comme le portefeuille d’actif tel que la droite passant par lui et l’actif sans risque est tangent à
la frontière efficiente précédemment définie.
La nouvelle droite ainsi construite est nommée la Capital Market Line et représente l’ensemble des
portefeuilles optimaux réalisables à partir d’un actif sans risque et d’un portefeuille d’actif risqué
donnés.
Par souci de simplification, nous nous intéresserons donc au choix d’un actif sans risque et d’un
portefeuille de marché.
Le lien entre rendement et variance d’un actif de la CPM (Capital Market Line) se décrit de la manière
suivante, avec rm et σm les paramètres du portefeuille de marché et rf le rendement de l’actif sans
risque.
Dans le cadre de notre étude, nous avons choisi les paramètres suivants pour définir la CPM :
rf rm σm
1% 5% 15%
Dans notre cas il vaut approximativement 0,2667. Il décrit le gain en rendement par unité de
volatilité supplémentaire pour un portefeuille sur la CPM. Tout autre portefeuille dispose d’un ratio
de Sharpe inférieur à celui du portefeuille de marché par optimalité.
V.5.2 Analyse de l’impact des unités de compte sur la rentabilité du nouveau produit
Pour comprendre l’impact de l’intégration des unités de compte sur les distributions de rentabilité,
nous allons considérer les paramètres suivants tout au long de l’étude :
§ Besoin en fonds propres UC forfaitaire égal à 1,5% des PM libellées en unités de compte.
§ Le besoin en fonds propres est supposé constant et donc indépendant du facteur de risque
de PMVL du portefeuille.
§ Aucun coût pour la gestion ou l’acquisition des UC. La structure des coûts est identique aux
exemples précédents (coûts annuels par contrats).
Dans l’exemple suivant nous allons considérer plusieurs scénarios avec une prime moyenne euro et
UC totale égale à 800 000 € et plusieurs taux d’UC.
De plus, nous faisons l’hypothèse que l’unité de compte standard est assimilable au portefeuille de
marché que nous avons présenté précédemment.
La variation de marge de solvabilité euro s’explique par la variation de la prime moyenne euro en
fonction du taux d’UC, pour une prime moyenne totale constate égale à 800 000€.
Il est assez intuitif que l’augmentation de la part UC provoque une augmentation de la variance des
distributions de TRI. La provision mathématique représentée par les unités de compte est bien plus
volatile que celle en euro, ce qui signifie que les chargements sur encours prélevés sont eux aussi
amenés à fluctuer.
Voici la comparaison des fonctions de répartition pour se donner une meilleure idée de l’influence du
taux d’UC :
- Faible augmentation des quantiles inférieurs à 40%, on diminue peu le risque d’avoir une
rentabilité faible.
- Forte augmentation des quantiles supérieurs à 70%, ce qui explique la hausse relativement
du TRI moyen.
D’après ce modèle simplifié, l’impact des unités de compte se fait surtout ressentir sur la valeur
moyenne des TRI, et non sur les premiers quantiles.
V.5.3 Sensibilité des indicateurs en fonction des paramètres des unités de compte
V.5.3.1 Sensibilité des indicateurs au rendement des UC
En ce qui concerne ( ?) la sensibilité de la distribution au taux d’UC, nous pouvons comparer les
distributions de TRI en fonction des paramètres financiers. Pour cela, nous allons utiliser le couplage
rendement-volatilité de la section V.5.1.2 avec une hypothèse de 25% d’UC.
Rendement 1% 2% 3% 4% 5% 6% 7%
Les remarques sont les mêmes que pour la sensibilité selon le taux d’UC : un support en unités de
compte à fort rendement va surtout impacter la queue de distribution, mais aura peu d’influence sur
les premiers quantiles.
Ces remarques auront de l’importance dans le cadre de la tarification, car selon que l’on se base sur
une méthode qui prend en compte uniquement un quantile bas (entre 20% et 30%) ou sur la
moyenne, les unités de compte auront plus ou moins d’influence.
Dans toute la partie précédente, nous avons choisi de considérer un incompressible sur le support en
unités de compte de 0,45% pour rester cohérent avec le support euro. En réalité, la part de
l’incompressible sur les unités de compte peut descendre bien plus bas grâce à la prime de
rentabilité supplémentaire causée par le faible besoin en fonds propres de ce support.
Voici les résultats de plusieurs hypothèses de tarif UC sur les distributions, en supposant un taux
d’UC de 25% :
Il faut noter que cette sensibilité va bien sûr dépendre du taux d’unités de compte considéré.
§ Le besoin en marge de solvabilité réduit des supports en unités de compte est un atout
considérable comparativement à l’augmentation important des marges de solvabilité des
supports sécurisés en euros. L’écart entre les marges forfaitaires, qui étaient auparavant de
3% (1% pour l’UC et 4% pour l’euro) est amené à se maintenir même en considérant une
augmentation sensible de la marge UC. Pour rappel, dans notre modèle, nous avons
considéré des marges euro de l’ordre de 5,5% et de 1,5% pour l’UC.
§ L’absence de garantie sur la valeur des unités de compte, ce qui est le cas en l’absence de
garanties planchers, est un moyen efficace pour transférer une partie du risque financier vers
les assurés tout en conservant des produits d’épargne hautement attractifs en terme de
rendements servis. En effet, en contexte de taux bas, les produits proposants des taux à la
fois honorables et sécurisés se font de plus en plus rares, pour ne pas dire inexistants à
l’exception justement des fonds en euro des assureurs.
§ Les marges sur encours (ou incompressibles) de l’assureur sur les supports en unités de
compte ont aussi l’avantage d’être plus flexibles quel que soit le contexte commercial et
financier dans lequel on se situe. Les unités de compte ne font en effet pas face à la
problématique à laquelle sont confrontés les fonds en euro en période de taux obligataires
inférieurs aux chargements des assureurs, étant donné l’absence d’effet cliquet. De plus, la
marge de l’assureur sur les unités de compte est d’autant plus négociable auprès des
apporteurs et partenaires commerciaux que le besoin en marge de solvabilité de ces
supports est faible.
Cependant, suite aux crises financières successives et parallèlement à la hausse de la volatilité des
marchés en période d’incertitude sur le futur des taux obligataires déjà historiquement bas, la
collecte en unités de compte est confrontée à une certaine méfiance de la part des assurés,
notamment en ce qui concerne le périmètre haut de gamme. En ce qui concerne les contrats à très
fortes primes, telles que les contrats de capitalisation souscrits par des personnes morales très
fortunées (associations, entreprises,…), la stabilité des rendements servis est un des avantages clés
recherchés par les clients. Ceci amène tout naturellement les assureurs à développer une offre en
unités de comptes adaptée, en faisant apparaitre des produits structurés.
Ces produits structurés sont construits de telle sorte qu’ils proposent une garantie à terme tout en
étant exposés aux risques de marché action et donc offrant des rendements supérieurs à un fond en
euro classique. L’avantage de ces unités de comptes réside dans le fait que la majeure part du risque
financier n’est plus supportée ni par l’assuré, ni par l’assureur mais par une combinaison de
couvertures financières. Au prix de la rémunération d’acteurs tiers, ceux-ci captent les risques dont
veulent naturellement se décharger les différents acteurs en assurance vie.
Existant depuis plusieurs années déjà, ces produits sont amenés à se développer de plus en plus
notamment du fait de la perte de compétitivité des fonds en euros. Nous pouvons remarquer que
ces produits sont peu adaptés à des contrats entrée de gamme. La structuration des ces unités de
compte nécessite des encours importants et une gestion conséquente de la part de l’assureur, il est
tout naturel de retrouver ces produits le plus souvent pour des produits haut de gamme. Nous
pouvons donner l’exemple des Euro Medium Term Notes (EMTN)
La modélisation de ces unités de compte est donc un des enjeux de la fonction actuarielle pour un
assureur se voulant compétitif sur le marché haut de gamme. Leur complexité structurelle impose la
mise en place de nouvelles approches aussi bien pour leur projection dans le cadre d’une étude de
rentabilité que pour leur intégration dans le processus ORSA propre aux supports UC. L’impact sur les
exigences en capital économique de ces nouveaux produits aura des conséquences non-négligeables
sur les études de rentabilité des affaires haut de gamme.
Dans cette sixième partie, nous nous intéresserons aux méthodes de tarifications dans le contexte
stochastique présenté précédemment. Nous tâcherons de trouver des critères adéquats de
tarification avec les indicateurs stochastiques que nous avons développés et leur impact sur le tarif
dans différentes situations.
Nous avons suggéré précédemment que l’indicateur de rentabilité le plus pertinent dans le cadre de
l’étude d’un produit d’épargne est le TRI. Nous avons précédemment exposé les distributions de TRI
issues d’affaires nouvelles hypothétiques sans prendre en considération la production financière sur
fonds propres. En effet, synthétiquement la rentabilité d’un produit d’épargne se compose de deux
éléments :
§ Rentabilité des affaires sur chargements : on détermine ce que rapportent à l’actionnaire les
différents chargements par rapport aux capitaux propres mobilisés en représentation de la
marge de solvabilité.
§ Rentabilité sur fonds propres : les fonds propres ci-dessus sont bien entendu réinvestis et
fournissent une certaine production financière en fonction de l’appétence au risque défini
par la stratégie financière de la compagnie d’assurance.
Pour rendre compte de la rentabilité liée aux caractéristiques produit seules, nous avons négligé de
prendre en compte la production financière des fonds propres.
Ce choix s’avère judicieux à la lumière de l’exemple suivant : Voici l’évolution du TRI médian et de la
prime de risque médiane en fonction du taux de rendement des fonds propres (en abscisse). La
prime de risque médiane est définie comme étant la différence entre le TRI médian et le rendement
des fonds propres que nous avons entrés en paramètre du modèle. Nous considérons dans cet
exemple le cas où le rendement des fonds propres est constant sur toute la durée de projection.
La prime de risque reste très proche de la valeur que l’on obtient sans rendement sur fonds propres.
Nous en déduisons qu’il s’agit bien d’un estimateur à minima de la prime de risque inhérente aux
produits. Ceci justifie à posteriori notre choix dans la cinquième partie de ne pas considérer la
production des fonds propres, car nous avons la relation :
Avec :
• Prime : la prime de risque inhérente au produit, que nous avons appelée « TRI » dans les
parties précédentes, car calculée comme étant le TRI sans rendement sur fonds propres.
Cependant, une interrogation subsiste : comment synthétiser les distributions de TRI ? Deux choix
naturels s’imposent :
§ Considérer la moyenne des TRI. Le principal inconvénient de la moyenne est qu’elle ne rend
pas compte du véritable risque encouru par l’actionnaire. Pour deux produits différents, la
moyenne des TRI de l’un peut être « artificiellement » tirée vers le haut pas la présence de
nombreux « bons scénarios » sans pour autant assurer un pourcentage de cas favorables
bien meilleur. Voir pour cela l’exemple des courbes de distributions au paragraphe V.5.2.
Bien que la moyenne des distributions de TRI soit régulièrement proche de la médiane, cela
revient à se fixer un niveau de risque à environ 50%, ce qui en pratique n’est pas un niveau
de risque convenable.
§ Considérer un quantile selon un niveau de risque à définir. Cette seconde méthode est
préférable dans l’optique de minimiser le risque que le nouveau produit ne fournisse pas la
rentabilité minimale attendue. Par exemple, il peut être convenable de calibrer les
paramètres tarifaires d’un nouveau produit de façon à ce que celui-ci atteigne un TRI de 3%
avec une probabilité de 80%, par exemple. Ceci revient à ce que la distribution de ses TRI ait
pour quantile à 20% la valeur de 3%. Cependant, le problème inverse apparaît : les « bons »
scénarios n’influencent pas ce procédé de tarification, ce qui revient à être « aveugle » aux
queues de distributions.
Nous allons considérer dans la section suivante des méthodes de tarification s’appuyant sur ces deux
mesures de rentabilité et comparer leurs impacts respectifs.
Le WACC est un taux d’actualisation reflétant la rentabilité minimum exigée par les apporteurs des
fonds à une entreprise, c’est-à-dire ses actionnaires et ses créanciers obligataires. Il est utilisé comme
taux d’actualisation d’une séquence de flux de résultat d’un projet. Son utilisation est conditionnée
au fait que l’entreprise ait un niveau d’endettement relativement stable et que le niveau de risque du
projet lancé soit aligné sur celui de l’entreprise. Il faut cependant garder à l’esprit que cette
méthode, bien que repandue, reste contestable notamment en ce qui concerne la prise en
considération dans le modèle de la dette émise par l’entreprise comme source de financement.
Dans le cas de CNP Assurances, la dette subordonnée est utilisée pour couvrir les exigences
réglementaires en capital. Cependant nous ne développerons ce point pas souci de simplification et
par manque de visibilité sur le long terme quant aux spreads corporate.
Le WACC est une moyenne pondérée du coût des capitaux propres et du coût de la dette. Il prend en
compte la structure financière de l’entreprise, c’est-à-dire la part relative des capitaux propres et de
la dette dans ses sources de financement.
Avec :
• E[Rcp] : coûts des capitaux propres, c’est-à-dire l’espérance de rendement des capitaux
propres attendu par les actionnaires.
Il reste donc à déterminer les deux espérances de rendement ; pour ce faire nous utiliserons les
méthodes classiques faisant appel aux taux de marché présents.
Pour évaluer le coût des capitaux propres, nous pouvons nous servir du Modèle d’Equilibre Des Actifs
Financiers. D’après le MEDAF, nous avons :
Avec :
Le coefficient bêta mesure la sensibilité du cours de l’action de l’entreprise par rapport à l’indice
boursier représentant l’ensemble du marché actions. Plus cette sensibilité est forte, plus la
rentabilité attendue par les actionnaires est importante.
La prime de risque du marché est obtenue par différence entre la rentabilité espérée du marché
actions et le taux sans risque : il s’agit du rendement additionnel attendu par l’actionnaire pour
investir en actions plutôt que dans l’actif sans risque. La prime de risque propre à l’entreprise est
donc le produit de son bêta et de la prime de risque du marché.
En considérant l’ensemble des contraintes, l’allocation optimale pour CNP Assurances est la
suivante :
Avec :
Il est important de noter que le WACC tel quel ne correspond pas tout à fait aux résultats de
distributions de TRI que nous avons présentés. En effet, nous avons simplifié les calculs en excluant le
rendement des fonds propres de notre TRI pour ainsi obtenir un estimateur de la prime de risque
réelle qu’offre le nouveau produit. Il convient donc d’ajuster le WACC de deux manières :
§ En ne considérant pas la dette subordonnée. Elle fait intervenir des variables financières
supplémentaires apportant un aléa trop important sur le critère de tarification (taux swap et
spread corporate) n’apporte en rien quant à l’appréciation du rendement des affaires
nouvelles sur le capital économique immobilisé.
Comme nous l’avons vu avec les distributions d’indicateurs de rentabilité par la méthode
stochastique, il est difficile de comparer un ensemble de valeurs possibles de TRI avec une cible
définie, mais nous obtenons en contrepartie un estimateur du risque pesant sur la rentabilité future
du nouveau produit. Présentons les deux méthodes intuitives faisant appel aux distributions de TRI :
Il est a priori raisonnable de choisir le tarif d’un nouveau produit de façon à ce que son TRI moyen
soit égal au WACC ajusté. Il s’agit là de l’extension à un univers stochastique de la méthode
déterministe qui se contente de calculer une estimation du TRI en faisant des hypothèses centrales
sur le rendement des actifs puis de la comparer à une valeur cible. Cette méthode, bien que simple,
ne nous apporte aucune indication quant au niveau de risque sur la rentabilité pris pas l’assureur.
Une seconde approche consiste à choisir un niveau de risque sur la distribution des TRI. En effet,
pour chaque jeu de paramètres produit, nous obtenons une proportion de scénarios dits
« favorables » tels que le TRI de chacun de ces scénarios soit supérieur à la cible. Cette proportion
peut s’interpréter comme la probabilité que le nouveau produit serve un TRI admissible, c’est-à-dire
supérieur au WACC ajusté. Cette probabilité sera notée de façon générique « Ω » tout au long de ce
mémoire.
Une nouvelle inconnue apparait à la lumière de ces considérations : quel niveau de risque Ω choisir ?
Il n’existe à ce jour aucune méthode standard pour déterminer un niveau de risque sur rentabilité
satisfaisant, cependant nous pouvons noter qu’il est irréaliste que Ω soit inférieur à 50%. Ceci revient
à dire que l’actionnaire a moins d’une chance sur deux de tirer d’une des affaires nouvelles une
prime de risque supérieure au WACC ajusté.
Pour remédier à ce défaut majeur, nous allons chercher à calibrer Ω en le calculant pour un produit
« standard ».
La calibration du Ω de l’actionnaire que nous allons retenir dès lors va se baser sur un produit
d’épargne « standard ». Les hypothèses sont les suivantes :
§ Part UC : 25%
De plus, les hypothèses financières suivantes ont été retenues pour le calcul du WACC :
• Bêta = 0,80
Sous ces hypothèses, la probabilité Ω que le produit standard serve un TRI inférieure au WACC est :
Ω = 26,9%
Voici l’évolution du quantile Ω en fonction des incompressibles euro et UC, lesquels sont égaux à
chaque simulation :
La régression linéaire s’ajustant très bien aux résultats pour les trois simulations (0,45% ; 0,55% ;
0,60% d’incompressible euro et UC), on peut donc inférer l’évolution du quantile Ω pour des
valeurs supérieurs.
Faisons une remarque important concernant ce résultat : un tel tarif signifie que la commission
apporteur n’est que de 0,01%. Ceci semble tout bonnement inimaginable dans le contexte de
l’assurance vie, où les commissions sont de l’ordre de plusieurs dizaines de points de base.
Cette approche souligne donc l’impossibilité dans le nouveau contexte réglementaire solvabilité 2 de
proposer des produits à TMG, même faibles. Le besoin en fonds propres associé à une telle option
(11,45% dans notre exemple) est tout simplement prohibitif.
La prime moyenne est supposée égale à 800 000€ pour rester cohérant avec l’exemple précèdent.
Les deux points suivants nous suffisent pour estimer le tarif euro :
Le Tarif minimal convenable est donc de 0,48% pour un produit mono-support euro, qu’il faut
comparer aux 0,45% d’incompressibles dans le cas du produit standard. Cet écart peut sembler
faible, mais il faut garder à l’esprit que le choix d’un incompressible doit aussi se faire en fonction du
tarif de marché : un écart même faible au delà du tarif « standard » peut compromettre le succès
commercial d’un nouveau produit, si les apporteurs jugent leur rémunération pas assez suffisante.
TR à 26,9%
1,705% 3,880% 6,05%
Sous ces hypothèses, nous notons une très forte augmentation de la rentabilité du produit, ce qui est
le fait de baisse relative des coûts par rapport à la prime moyenne des contrats souscrits et de la
forte hausse du taux d’UC.
Dans ce contexte, nous obtenons un tarif de 0,23%. Il faut noter que ce tarif est particulièrement bas
et ne correspond pas à la réalité de tels contrats. Nous avons simplifié la structure des coûts du
contrat en supposant l’absence de frais de gestion des unités de compte. En pratique, de tels
contrats fonts l’objet de ces frais car la gestion des unités de compte peut être confiée à un
gestionnaire externe.
Conclusion
La directive Solvabilité 2 impose aux assureurs de réévaluer leur approche des risques et ce en
particulier dans le cadre de l’ORSA. C’est un ensemble de processus de gestion et de suivi des risques
qui sera mis en place, et de façon générale il s’agit de diffuser à tous les niveaux des compagnies
d’assurances une nouvelle culture du risque sur tous les aspects possibles: technique, financier,
opérationnel,… Les assureurs seront notamment contraints de revoir leur stratégie en s’ajustant
selon la règlementation et leur profile de risque, ce qui aura des impacts conséquents sur la
rentabilité effective des produits et le processus de tarification.
Les études menées dans le cadre de ce mémoire ont mis en exergue que la mise en place du
processus ORSA représente trois enjeux de taille :
§ L’adaptation de ce processus à l’échelle produit pour suivre au mieux les risques au niveau de
cette maille : ce sera l’un des travaux majeur de l’actuaire produit, lequel va devoir intégrer
la dimension de la gestion des risques et du capital économique dans ses travaux de
tarification. Il n’existe pas à ce jour de méthodologie idéale pour répondre à cet enjeu, et
notre mémoire adopte une vision marginale au niveau du portefeuille pour inclure dans le
calcul du capital ORSA l’ensemble des effets de diversification du canton considéré.
Pour répondre davantage au besoin de maitriser les risques pesant sur la rentabilité des affaires
nouvelles, nous avons en plus de cela proposé une approche stochastique des études de rentabilité
des produits d’épargne. Cette approche se fonde sur l’idée que la variabilité de la rentabilité va
dépendre des scénarios économiques futures. Nous avons donc naturellement calculé un indicateur
de rentabilité rationalisé, le TRI hors rendement sur fonds propres, pour chaque trajectoire de
marché et nous avons obtenu des distributions de rentabilité de la forme suivante pour un produit
« standard » euro :
Cette approche modifie profondément les méthodes de tarification car elle apporte une information
supplémentaire que les méthodes déterministes omettent : la variabilité de l’indicateur de rentabilité
autour de sa moyenne. De cela nous pouvons définir des niveaux de risque en fonction de
l’appétence de l’assureur : en fonction de la stratégie de tarification de l’assureur, celui-ci va
accepter que ses produits d’assurance délivrent un TRI supérieur au WACC avec une probabilité plus
ou moins grande. Dans notre cas nous avons estimé admissible une probabilité de rentabilité
inférieure à la cible de 27%, soit environ un quart des scénarios.
La vision de la rentabilité que nous avons adoptée rend compte de la rentabilité intrinsèque des
produits d’épargne, et permet de réduire le poids de l’alea financier dans notre estimateur. La
conséquence en est une meilleure compréhension des impacts des caractéristiques du produit.
De façon générale, Solvabilité II va lourdement impacter l’offre puisque les assureurs seront
contraints de limiter leur collecte sur le fond en euro et de proposer des offres diversifiées en unités
de compte répondant aux attentes des assurés en matière de sécurité et rendement. De plus,
l’assurance vie devrait voir disparaitre progressivement les garanties de taux minimum et autres
options très gourmandes en capital économique du point de vue de l’assureur. Le développement de
produits d’épargne structurés autour de couvertures financières avec de fortes contraintes en termes
de rachat risque de devenir la norme pour les futurs épargnants.
Bibliographie
v Ouvrages :
v Sites internet:
v Mémoires :
§ Mise en place d’indicateurs de suivi du risque dans un cadre d’ORSA Epargne, Haguet Eléonor.
Annexes
Pour rappel, le capital économique forfaitaire retenu est le maximum sur les 5 années.
Scénario central :
Année 0 1 3 5
PM 8 087 892 782 8 041 497 672 8 070 635 747 7 826 779 160
PNA 509 071 884 454 664 540 365 178 280 326 521 427
Coûts 415 247 411 398 200 870 370 325 199 357 890 376
Fair Value 8 741 048 758 8 588 264 863 8 393 417 060 8 171 977 086
SCR 162 358 232 179 179 002 202 339 863 223 301 222
SCR Opérationnel 39 334 719 38 647 192 37 770 377 36 773 897
Année 0 1 3 5
PM 8 087 892 782 8 041 497 672 8 070 635 747 7 826 779 160
PNA 523 410 406 473 748 289 395 141 733 353 706 375
Coûts 419 180 846 402 642 841 375 577 847 363 555 816
Equity 104 229 560 71 105 448 19 563 886 - 9 849 441
Fair Value 8 859 265 517 8 720 466 908 8 547 485 801 8 338 253 580
SCR 161 531 900 175 624 173 192 096 050 215 521 389
SCR Opérationnel 39 866 695 39 242 101 38 463 686 37 522 141
Année 0 1 3 5
PM 8 087 892 782 8 041 497 672 8 070 635 747 7 826 779 160
PNA 420 464 868 381 092 318 318 359 079 286 335 358
Coûts 399 191 531 385 190 503 362 587 149 351 789 742
Equity 21 273 337 -4 098 184 -44 228 070 -65 454 384
Fair Value 8 448 022 335 8 339 201 320 8 238 812 311 8 004 306 266
SCR 198 603 669 210 172 824 221 492 393 245 129 875
SCR Opérationnel 38 016 101 37 526 406 37 074 655 36 019 378
Année 3 5
La volatilité stochastique est régie par un processus de Variance dynamisée par un processus de
retour à la moyenne :
Où :
Cette matrice de transition initiale est ensuite choquée par un processus stochastique
nommé prime de risque et modélisé par un CIR :
Les probabilités sont alors obtenues par une modélisation de type processus de Markov ;
Le prix du zéro coupon risqué est déterminé par la relation :
Avec
dS t
= rt dt + σ tS dWtS
St
L’indice immobilier est modélisé à l’aide du modèle de Black et Sholes à volatilité constante. L’indice
immobilier suit donc la dynamique suivante :
dI t
= rt dt + σ I dWt I
It
Le taux de dividende des actions et le taux de loyer de l’immobilier sont supposés fixes et égaux à
2,5%.
MODELISATION DE L’INFLATION
L’inflation pour chaque date et chaque marché stochastique généré est déduite des taux réels et
nominaux de maturité 1 an par la relation suivante :
Pr (t − 1, t )
Inflation(t ) = −1
Pn (t − 1, t )
Où Pn(k, k+1) désigne le prix en date k d’une obligation zéro-coupon nominale de maturité un an (i.e.
arrivant à échéance en date k+1) et Pr(k, k+1) désigne le prix en date k d’une obligation zéro-coupon
réelle de maturité un an.
Lors de la génération des scénarios économiques, les différentes variables (indice immobilier, indice
actions, taux nominaux et taux réels) sont corrélées par le biais des mouvements browniens
intervenant dans les équations de diffusion.