18
ENTERPRISE RISK SOLUTIONS 29 APRIL 2009 PRÉSENTATION TECHNIQUE MAI 2011 Massimiliano Neri Directeur associé Contactez-nous AMÉRIQUE +1.212.553.1658 [email protected] EUROPE +44.20.7772.5454 [email protected] ASIE (HORS JAPON) +85 2 2916 1121 [email protected] JAPON +81 3 5408 4100 [email protected] VISITEZ : www.moodysanalytics.com E-mail: [email protected] À propos de l’auteur Massimiliano Neri est le directeur associé de Moody’s Analytics agissant comme spécialiste des meilleures pratiques pour les solutions de Gestion des risques en entreprise. Avant de rejoindre Moody’s Analytics, Massimiliano s’est forgé une expérience internationale considérable, en promouvant les procédures et les règles de méthodologie dans le secteur financier. Massimiliano a obtenu un Doctorat en économie appliquée à l’Université Rey Juan Carlos à Madrid. Il a organisé de nombreux séminaires sur la micro-économie du risque et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos de Madrid, et l’institut Ludwig von Mises aux USA. Répondre aux défis de gestion de la qualité des données imposés par le régime Solvabilité II Les points principaux » Solvabilité II impose des exigences strictes en matière de qualité des données auxquelles les compagnies d’assurances devront se soumettre afin d’être conforme avec la nouvelle directive. Ce document a été préparé à l’attention des gestionnaires de risques, des actuaires, des responsables de projets Solvabilité II et des responsables informatiques. Il présente la réglementation et souligne les principales exigences en matière de qualité des données. Plus précisément, ce document donne un aperçu des meilleures pratiques d’évaluation et de gestion de la qualité des données, incluant des propositions de processus de contrôle qualité et d’audits. De plus, il démontre qu’une approche centralisée, industrialisée et automatisée de la gestion, aidera les compagnies d’assurances à ne pas se limiter aux exigences de la réglementation en matière de qualité de données mais plutôt à exploiter des données complètes, précises et transparentes pour permettre une plus grande efficacité opérationnelle et une meilleure prise de décision.

PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

EntErprisE risk solutions29 April 2009

PRÉSENTATION TECHNIQUE MAI 2011

Massimiliano Neri Directeur associé

Contactez-nous AMÉRIQUE [email protected]

EuropE [email protected]

ASIE (HorS JApon) +85 2 2916 [email protected]

JApon +81 3 5408 [email protected]

VISItEz : www.moodysanalytics.comE-mail: [email protected]

À propos de l’auteur Massimiliano neri est le directeur associé de Moody’s Analytics agissant comme spécialiste des meilleures pratiques pour les solutions de Gestion des risques en entreprise. Avant de rejoindre Moody’s Analytics, Massimiliano s’est forgé une expérience internationale considérable, en promouvant les procédures et les règles de méthodologie dans le secteur financier. Massimiliano a obtenu un Doctorat en économie appliquée à l’Université Rey Juan Carlos à Madrid. Il a organisé de nombreux séminaires sur la micro-économie du risque et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos de Madrid, et l’institut Ludwig von Mises aux USA.

Répondre aux défis de gestion de la qualité des données imposés par le régime Solvabilité II

Les points principaux » Solvabilité II impose des exigences strictes en matière de qualité des données auxquelles les compagnies d’assurances devront se soumettre afin d’être conforme avec la nouvelle directive. Ce document a été préparé à l’attention des gestionnaires de risques, des actuaires, des responsables de projets Solvabilité II et des responsables informatiques. Il présente la réglementation et souligne les principales exigences en matière de qualité des données. Plus précisément, ce document donne un aperçu des meilleures pratiques d’évaluation et de gestion de la qualité des données, incluant des propositions de processus de contrôle qualité et d’audits. De plus, il démontre qu’une approche centralisée, industrialisée et automatisée de la gestion, aidera les compagnies d’assurances à ne pas se limiter aux exigences de la réglementation en matière de qualité de données mais plutôt à exploiter des données complètes, précises et transparentes pour permettre une plus grande efficacité opérationnelle et une meilleure prise de décision.

Page 2: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

EntErprisE risk solutions

2 rÉponDrE AuX DÉFIS DE GEStIon DE LA QuALItÉ DES DonnÉES poSÉS pAr LE rÉGIME SoLVABILItÉ II

MOODY’S ANALYTICS

SommaireImportance de la qualité des données pour Solvabilité II 3

Note sur la documentation de référence 3

Critères d’évaluation de la qualité des données 4

Définition du terme « Donnée » 4

Évaluation de la qualité des données 4

Granularité de l’évaluation 5

Application du principe de proportionnalité 5

Réconciliation des données 5

Systèmes et procédures encadrant la qualité des données 6

Processus de gestion de la qualité des données 6

Collecte, stockage et exploitation des données 7

Fonction actuarielle et d’audit 7

Identification des données de faible qualité 8

Gestion de la qualité des données 8

Bonnes pratiques de Moody’s Analytics dans l’évaluation et la gestion de la qualité des données 10

Une approche centralisée de la qualité des données 10

Types de contrôles de qualité des données 13

Processus d’évaluation de la qualité des données et utilisateur 13

Audits et suivis 15

Conclusions 17

Lectures complémentaires 18

Page 3: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

EntErprisE risk solutions

3 rÉponDrE AuX DÉFIS DE GEStIon DE LA QuALItÉ DES DonnÉES poSÉS pAr LE rÉGIME SoLVABILItÉ II

MOODY’S ANALYTICS

Importance de la qualité des données pour Solvabilité IISolvabilité II est la première réglementation à imposer des exigences strictes en matière de qualité des données pour les assureurs. Les experts en gestion du risque s’accordent sur le fait que l’utilisation de données fiables permet d’effectuer un calcul plus précis best estimate (des provisions techniques). Aucune réglementation d’assurance n’avait jusqu’à présent donné des informations détaillées en matière de qualité des données.

Des données de bonne qualité constituent donc un pré-requis essentiel pour calculer les provisions techniques de manière fiable. C’est pourquoi les mesures d’implémentation de Solvabilité II ont été conçues pour guider les assureurs vers une approche cohérente de la qualité de données, dans le Pilier 1, afin de permettre le calcul précis du Solvency Capital Requirement (SCR) (Capital cible) et du Minimum Capital Requirement (MCR) (Capital minimum).

Beaucoup d’efforts ont été investis, en particulier dans l’Étude quantitative d’impact 5 (QIS5), sur le développement de modèles internes sophistiqués permettant l’adaptation des calculs du SCR et du MCR en fonction des besoins de la société. Toutefois, ils ne seront efficaces que s’ils disposent de données de haute qualité.

Note sur la documentation de référenceL’organisation qui a encadré la directive Solvabilité II, le Comité Européen des Contrôleurs d’Assurance et de Pensions Professionnelles (CEIOPS) a été remplacée par l’Autorité Européenne des Assurances et des Pensions Professionnelles (EIOPA) en janvier 2011. Dans la mesure où la documentation de référence a été entièrement publiée par le CEIOPS, nous faisons référence à cet organisme dans ce dossier.

Le CEIOPS a publié un certain nombre de documents relatifs à la qualité des données. Le principal étant le CP 43 (renommé par la suite « Provisions techniques – Article 86f Normes de qualité des données »),1 qui couvre les besoins en qualité des données pour le calcul des provisions techniques. Ce document aborde précisément le critère d’évaluation de la qualité des données ainsi que les procédures et les systèmes à utiliser pour la gestion, la collecte, le stockage et l’exploitation de données.

Il existe un autre document insistant sur la qualité des données, le CP 56 (renommé par la suite « Tests et normes d’approbation des modèles internes »)2 qui se concentre sur les compagnies d’assurances utilisant des modèles internes. Le CP 43 et le CP 56 ne se contredisent pas ; ils sont même plutôt complémentaires, et chacun contient des références croisées permettant de garantir une cohérence.3

Certaines critiques ont pu identifier quelques recoupements entre les deux documents.4 Quoi qu’il en soit, cela ne crée aucune confusion pour la stratégie globale de qualité des données élaborée par l’organisation. La plupart des données utilisées pour estimer les provisions techniques et pour paramétrer des modèles internes sont similaires et devraient être soumises à la même procédure. Nous avons étudié cette documentation ainsi que les commentaires soulevés par les compagnies d’assurances et les associations au cours de la période de consultation. Dans ce document, nous mettons aussi en évidence les domaines de réglementation ayant provoqué des inquiétudes importantes, et les solutions apportées par le CEIOPS.

1 CEIOPS (43/09).2 CEIOPS (56/09).3 “Les exigences standard de qualité pour les provisions techniques (voir l’Avis du CEIOPS) doivent aussi s’appliquer, le cas échéant, aux modèles de

données internes en plus des exigences citées ci-dessous” CEIOPS (56/09), CEIOPS (56/09), par 5.124. 4 Voir par exemple, CEIOPS (56/09), par 5.176.

SCr - Capital quantitatif requis défini dans la directive Solvabilité II. Le SCR est le plus élevé des deux niveaux de capitaux exigés par Solvabilité II et correspond au capital économique dont l’entreprise a besoin afin de limiter sa probabilité de défaut à une seule occurrence tous les 200 ans.

MCr - Capital quantitatif minimum requis défini dans la directive Solvabilité II. Le MCR est le plus bas des deux niveaux de capitaux exigés par Solvabilité II et fournit une protection inférieure.

Page 4: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

EntErprisE risk solutions

4 rÉponDrE AuX DÉFIS DE GEStIon DE LA QuALItÉ DES DonnÉES poSÉS pAr LE rÉGIME SoLVABILItÉ II

MOODY’S ANALYTICS

Critères d’évaluation de la qualité des données

Définition du terme « Donnée »En utilisant le terme de « donnée », le CEIOPS fait référence à l’information qui est utilisée en techniques actuarielles et statistiques pour calculer les provisions techniques.5 Ceci s’applique aussi aux données utilisées dans la définition d’hypothèses spécifiques concernant la valorisation de provisions techniques.6

Évaluation de la qualité des donnéesL’évaluation de la qualité des données doit se faire selon trois critères :

» La pertinence

» L’exhaustivité

» La précision

Il est parfois difficile pour une organisation d’obtenir des données à la fois pertinentes, complètes et précises. Ceci en raison de difficultés pratiques liées à l’évolution constante des produits d’assurance, des risques et de l’environnement institutionnel encadrant les entreprises.8

Cette section analyse les critères utilisés pour évaluer la qualité des données. La section suivante décrit ce qu’il convient de faire lorsque l’évaluation révèle des problèmes au niveau de la qualité de données.

La pertinenceLes données doivent être appropriées aux risques couverts et au calcul du capital nécessaire pour couvrir ces risques. Des données appropriées pour gérer l’industrie automobile peuvent ne pas l’être pour la gestion de l’assurance vie, et inversement.

Par définition, une donnée est pertinente si elle respecte les deux exigences suivantes.9

– Elle est adaptée à l’évaluation des provisions techniques (par exemple, pour l’estimation des entrées et sorties de fonds sur le passif) et/ou la détermination d’hypothèses.

– Elle est directement reliée aux principaux facteurs de risques dans le portefeuille de risques étudié.

L’exhaustivité Selon la Directive, une donnée est officiellement complète si trois critères sont remplis.10

– La donnée couvre tous les groupes principaux de risques homogènes dans le portefeuille passif.

– La donnée a une granularité suffisante pour permettre la compréhension totale du comportement du risque sous-jacent et l’identification des tendances.

– La donnée fournit suffisamment d’historique d’information.

L’exhaustivité des données est évaluée en les comparant avec les données d’autres secteurs d’activités ou facteurs de risques.

Au cours de la période de consultation, l’affirmation suivante issue du texte d’origine a soulevé une certaine inquiétude :

« Par exemple, si des triangles de liquidation sont utilisés pour calculer les Best Estimate, il est nécessaire d’enregistrer séparément tous les paiements et la date à laquelle chaque paiement a été effectué, au lieu du simple montant total payé. »

Ces définitions caractérisent uniquement le terme “donnée” en référence au passif des assurances. Nous recommandons aux compagnies d’assurances d’utiliser une définition plus large pour les données englobant les actifs7 et la relation entre actifs et passifs, afin de donner un cadre plus complet à l’évaluation de la qualité des données.

5 Le terme « Donnée » fait référence à toutes les informations directement ou indirectement nécessaires pour évaluer les provisions techniques, en particulier permettre l’utilisation de méthodologies actuarielles et statistiques appropriées”, CEIOPS (43/09), par. 3.56.

6 CEIOPS (43/09), par. 3.58.7 Par exemple : données sur le marché, prix d’actions, positions, etc.8 « Des changements dans l’environnement opérationnel (comme les changements de législation) peuvent réduire l’à-propos des données historiques,

qui deviennent moins crédibles pour les exercices de prédiction », CEIOPS (43/09), par. 3.23.9 CEIOPS (43/09), par. 3.62–3.10 CEIOPS (43/09), par. 3.64–5.

Page 5: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

EntErprisE risk solutions

5 rÉponDrE AuX DÉFIS DE GEStIon DE LA QuALItÉ DES DonnÉES poSÉS pAr LE rÉGIME SoLVABILItÉ II

MOODY’S ANALYTICS

Cette affirmation a soulevé le problème des sociétés d’assurance vie et de réassurance, qui recherchaient des regroupements de paiement. Toutefois, dans les décisions prises après la consultation, le CEIOPS a souligné que tous les paiements devaient être enregistrés. Dans le cas de l’assurance-vie, le CEIOPS a noté que « dans la mesure où une approche de flux de trésorerie prospective est engagée, l’historique d’information est en général uniquement requise pour l’élaboration d’hypothèses. »11

Les réassureurs auront la possibilité de refléter la date du paiement du cédant, plutôt que la leur, dans les triangles de liquidation en raison des retards de remise des rapports.12

La précision Pour être précise, une donnée doit remplir quatre conditions.

– Ne pas être affectée par erreurs ou oublis.

– Être enregistrée de façon adéquate, régulière et cohérente.

– Etre pertinente.

– La donnée doit être crédible par son utilisation dans des processus opérationnels et de prise de décision.

Selon la Directive, le critère de précision nécessite la vérification de la performance des données et de leur cohérence.

Granularité de l’évaluation L’évaluation des deux premiers critères (la pertinence et l’exhaustivité) doit être faite au niveau du portefeuille. Toutefois, si nécessaire, il doit être possible de réaliser ces évaluations avec une granularité plus fine. Afin d’atteindre une précision satisfaisante, l’organisation doit envisager de travailler au niveau de l’unité.13

Application du principe de proportionnalitéPour des portefeuilles regroupant des risques simples (en termes de nature, d’échelle et de complexité), le critère de précision est interprété de manière plus souple que pour un portefeuille avec des risques complexes. Ceci s’explique par le fait que moins de données sont requises. Toutefois, les données historiques sont importantes et doivent être collectées, car elles peuvent s’avérer nécessaires à l’avenir.

De même, lorsque la nature, l’échelle et la complexité des risques encourus sont plus élevées, des normes supérieures de gestion de la qualité des données seront appliquées. Cependant, il est parfois impossible de recueillir d’importantes quantités d’informations en présence de risques complexes (notamment, dans le cas d’événements peu fréquents). Dans ce cas, pour assurer la robustesse de la procédure de gestion des données, l’organisation doit envisager de rajouter à la gestion des informations internes des informations externes pertinentes et de faire appel au jugement d’un expert.

Réconciliation de donnéesLe processus de réconciliation a également un impact important sur la qualité des données. Cette procédure permet aux compagnies d’assurances de comparer les données avec des références externes pour vérifier leur cohérence. Le terme réconciliation fait référence ici à la mise en évidence des raisons expliquant les différences entre certaines données et leurs conséquences.14

Par exemple, une procédure de réconciliation avec la comptabilité générale impliquerait les points suivants :

– La génération de fichiers comptables permettant de créer un bilan basé sur les données internes.

– La comparaison avec le bilan officiel.

– L’identification et l’explication des différences, le cas échéant.

11 Voir le CEIOPS-SEC (106/09), résolutions 67, 73.12 Voir le CEIOPS-SEC (106/09), résolutions 66, 68, 73.13 CEIOPS (43/09), par. 3.61.14 Dans une première version de la Directive, le terme réconciliation n’était pas clair ; il pouvait signifier simplement l’identification des différences

(le cas échéant) ou bien l’explication des raisons / conséquences de ces différences. Par conséquent, il n’est pas redondant de confirmer que réconciliation signifie explication à la fois des différences et des raisons / conséquences.

Page 6: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

EntErprisE risk solutions

6 rÉponDrE AuX DÉFIS DE GEStIon DE LA QuALItÉ DES DonnÉES poSÉS pAr LE rÉGIME SoLVABILItÉ II

MOODY’S ANALYTICS

Systèmes et procédures encadrant la qualité des données L’entreprise doit adopter des systèmes et des procédures permettant aux compagnies d’assurances de gérer correctement les trois domaines suivants.

» Le processus de gestion de la qualité des données

» La collecte, le stockage et l’exploitation de données

» Les audits externes et la fonction actuarielle

De plus, la gestion de la qualité des données impose aux compagnies d’assurances de proposer des solutions lorsque des problèmes liés à la qualité des données seraient identifiés.

Le processus de gestion de la qualité des données Le processus de gestion de la qualité des données se compose de quatre étapes principales, qui peuvent être visualisées comme un cercle continu, présenté sur le schéma suivant.

Étape 1 : Définition de la donnée La Directive exige que les données décrivant l’activité de l’entreprise soient appropriées et complètes. La définition de la donnée implique l’identification de données requises remplissant ce critère. La donnée doit contenir une description correcte de chacun des éléments et de leur relation. L’ expérience que nous avons acquise en accompagnant nos clients a démontré que le maintien d’une documentation de la dimension principale de segmentation (par exemple, par groupe de risques homogènes) aide à générer une meilleure définition des données.

Étape 2 : Évaluation de la qualité de la donnée L’évaluation de la qualité de la donnée implique sa validation selon les trois critères : la pertinence, l’exhaustivité et la précision. L’évaluation doit tenir compte de la voie par laquelle la donnée est collectée et élaborée, que ce soit au travers de systèmes internes, de sociétés tiers externes, ou de sources électroniques disponibles publiquement.

Étape 3 : résolution de problème Les problèmes identifiés au cours de l’évaluation de la qualité des données sont adressés dans cette phase. Il est important de documenter les limitations des données et de permettre leur historisation pour que ces données historiques soient utilisées comme remède appliqué aux données défectueuses par le superviseur.

Étape 4 : Suivi de la qualité de la donnée Le suivi de la qualité des données implique de surveiller la performance des systèmes d’information associés, basé sur des indicateurs de performance. La fréquence de suivi de la qualité des données à l’aide d’indicateurs de performance clé a soulevé un nombre significatif de commentaires lors de la période de consultation.15 Il en est ressorti que le suivi de la qualité des données est découplé du processus d’audit et qu’il implique deux dimensions : l’une quantitative et l’autre qualitative (« l’évaluation de la qualité des données peut faire l’objet de mesures et d’indicateurs d’objectifs adéquats mais ne peut être dissocié du jugement d’un expert »).16

15 CEIOPS-SEC (106/09), resolution 314–324.16 CEIOPS-SEC (106/09), resolution 198.

Définitiondes Données

Suivi de la qualitédes données

Traitement des Problèmes

Cont

rôle

de

la q

ualit

éde

s don

nées Gestion

de la qualité des données

Page 7: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

EntErprisE risk solutions

7 rÉponDrE AuX DÉFIS DE GEStIon DE LA QuALItÉ DES DonnÉES poSÉS pAr LE rÉGIME SoLVABILItÉ II

MOODY’S ANALYTICS

La qualité des données pourrait être évaluée de façon quotidienne, hebdomadaire ou même mensuelle ; la Directive ne précise pas la fréquence de l’évaluation. D’un côté, Moody’s Analytics préfère éviter une surenchère de recommandations et une méthodologie unique pour tous ; d’un autre côté, notre expérience recommande d’exécuter le processus le plus fréquemment possible. Il y a trois raisons qui expliquent cette approche.

1. Lorsque, par exemple, la donnée est un élément des processus actuariels utilisés sur une base quotidienne, il est bien sûr pratique d’adopter la version la plus actualisée de cette donnée, une fois vérifiée.

2. Il est utile que les gestionnaires de risques et les actuaires utilisent de nouvelles mesures pour répondre aux attentes des membres du conseil d’administration, en particulier en temps de crise.

3. L’évaluation de la qualité des données, comme nous l’expliquons dans la prochaine section, est un processus continu de suivi et d’actions à entreprendre pour améliorer la qualité des données. Il est difficile de garantir une bonne continuité si la donnée n’est pas évaluée fréquemment.

Collecte, stockage et exploitation des données Les activités de collecte, stockage et exploitation des données doivent être menées suivant les exigences suivantes.17

» transparence

» Granularité

» Accumulation de données historiques

» traçabilité

La transparence sous-entend que la connexion logique entre les contributions et les résultats soient claire, et non une « boîte noire ».18

La granularité fait référence au niveau de détail de l’ensemble des données du dossier d’assurances risques. Plus le niveau de détail sera fin (le niveau de la police, éventuellement agrégé via des model points), plus le processus de calcul sera robuste en aval.

L’historique des données doit être stocké et cumulé régulièrement dans le but d’évaluer certaines provisions techniques. Avant la période de consultation, la formulation d’origine imposait aux sociétés d’assurances d’accumuler des données historiques « de manière générale ». Toutefois, la formulation finale fait uniquement référence à des « données pertinentes ».19 Dès lors, on peut se demander si les données pertinentes sont amenées à changer dans le temps, suite à des modifications dans l’environnement opérationnel (un changement de loi, par exemple) ou au moment du lancement de nouveaux produits d’assurance.

Enfin, la propriété de traçabilité fait référence au besoin capital selon lequel toute mise à jour de données doit être correctement documentée et auditée.

Tout en maintenant sa préférence pour éviter une surenchère et une méthodologie unique pour tous, l’expérience de Moody’s Analytics recommande aux groupes d’assurance d’accumuler le plus de données historiques possibles.20

Fonction actuarielle et d’audit Les auditeurs internes et externes seront responsables d’auditer des séries de données spécifiques, en suivant un examen formel et systématique utilisant des techniques adoptées par les professionnels de l’audit.21

À l’inverse, les fonctions actuaires de la compagnie d’assurances n’ont pas pour responsabilité d’exécuter un audit formel sur les données. Toutefois, la fonction doit s’assurer de la qualité des données en exécutant « des examens informels sur des ensembles de données sélectionnées » dans le but de déterminer et de confirmer que les données sont cohérentes avec leurs objectifs.

17 CEIOPS (43/09), par. 3.81–85.18 CEIOPS (56/09), par. 5.63. 19 Nous trouvons la définition de « données appropriées » dans la définition du critère d’à-propos : « [elles] sont directement liée aux facteurs de

risques », CEIOPS (43/09, par. 3.62.20 Le même commentaire a été « annoté » par le CEIOPS, voir CEIOPS-SEC (106/09), résolution 244, 247. Il faut aussi reconnaître que même si un

plus grand nombre de données historiques vaut mieux qu’un faible nombre, les données les plus récentes sont généralement plus appropriées que les anciennes.

21 CEIOPS (43/09), par. 3.40–43. Bien que de nombreux commentaires envoyés lors de la consultation réclamaient une définition plus détaillée du rôle et du cadre de l’analyse conduite par les auditeurs et les actuaires, ce niveau de détail ne fait pas partie du cadre de la directive sur la qualité des données et a été relégué au CEIOPS (33/09).

Page 8: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

EntErprisE risk solutions

8 rÉponDrE AuX DÉFIS DE GEStIon DE LA QuALItÉ DES DonnÉES poSÉS pAr LE rÉGIME SoLVABILItÉ II

MOODY’S ANALYTICS

Identification des données de faible qualité L’évaluation de la qualité des données peut renvoyer un résultat négatif, notamment lorsqu’on est en présence d’un ou plusieurs des facteurs suivants :

» Singularités dans la nature ou la taille du portefeuille

» problèmes dans le processus interne de collecte, stockage et validation de la qualité des données

» problèmes dans l’échange d’informations avec des partenaires de manière fiable et standardisée

De nombreux problèmes de qualité des données sont liés à des données de faible qualité qui peuvent être engendrées à la suite de singularités dans la nature ou la taille du portefeuille. Par exemple, il peut y avoir déficit de données quand la fréquence des sinistres est trop faible ou quand l’entreprise est trop jeune pour disposer d’un historique suffisant. D’autres exemples pourraient être dus à un faible volume d’activité ou à une importante quantité de sinistres qui feraient obstacle à la construction de probabilités de classe (homogènes). De plus, l’évolution de la législation ainsi que les changements exogènes de l’environnement opérationnel peuvent réduire la pertinence des données historiques accumulées pour prédire des comportements futurs.

Si la faible qualité des données est due à un processus interne de collecte, de stockage ou de validation de la qualité des données, la responsabilité est souvent imputée au département informatique ou au coût élevé de collecte et de maintenance des données.22 Dans tous les cas, le superviseur demandera au département informatique de mettre en place des solutions appropriées pour assurer la pertinence du processus. 23

Au cours de la période de consultation, de nombreux commentaires ont été faits concernant le temps nécessaire pour résoudre la gestion de la qualité des données. Le texte original mentionnait que la compagnie d’assurance « devait prendre des mesures immédiates pour remédier à cette situation », mais dans la version finale,« immédiates » a été remplacé par « appropriées ». En effet, ce changement survient car il sous-entend que la résolution du problème pourrait impliquer des efforts informatiques significatifs, nécessitant une planification en fonction des priorités.24

Gestion de la qualité des données Dans certains cas, pour améliorer la qualité des données, la compagnie d’assurances peut appliquer des ajustements. Ces derniers doivent être justifiés, documentés et ne doivent pas dupliquer les données brutes.25 Ceci exprime donc une demande claire de suivi et d’historisation de toute modification de données.

Lorsque le manque de données est inévitable (par exemple, du fait de la nature ou de la taille du portefeuille), l’entreprise peut appliquer des ajustements et/ou des hypothèses sur la donnée sous la forme d’approximations. Ces approximations peuvent être introduites en appliquant le jugement d’un expert qui répond aux aux consignes décrites dans le CEIOPS (33/09). Dans tous les cas, l’application d’approximations ne doit pas se substituer à l’adoption de systèmes et de processus appropriés garantissant la qualité des données.

Lorsqu’une donnée est ajustée, l’évaluation de la qualité des données doit se faire à un niveau de granularité plus élevé, « elle doit adopter une vue adaptée à une méthodologie spécifique ou à la réévaluation de la pertinence d’hypothèses et de paramètres spécifiques. »26

Si l’évaluation de la qualité des données le requiert, la compagnie d’assurance peut compléter les données internes par l’utilisation de données externes obtenues par l’intermédiaire de tiers ou de données de marché. Ces données externes seront sujettes à l’évaluation de leur qualité selon les qualifications suivantes.27

– Les tests concernant la pertinence et l’exhaustivité doivent être effectués au niveau du portefeuille ; ils peuvent être conduits, si nécessaire, à un niveau de granularité plus élevé (à l’unité).

– Le test de fiabilité est complexe car l’information externe n’est pas collectée à l’unité. Sa fiabilité dépend de la pertinence des sources d’information, ainsi que de la cohérence et la stabilité des processus de collecte des données à la source.

22 CEIOPS (43/09), par. 3.19.23 CEIOPS (43/09), par. 3.22. 24 Voir CEIOPS-SEC (106/09), résolutions 274–285.25 Par exemple, “pour adapter des données historiques en cas de changement dans l’environnement opérationnel ou dans la législation,” CEIOPS (43/09), par. 3.72.26 CEIOPS (43/09), par. 3.86.27 CEIOPS (43/09), par. 3.89

Une pratique efficace pour appliquer des ajustements de façon contrôlée, documentée et cohérente, consiste à accumuler les règles de correction appliquées aux données brutes. Les données restent inchangées ; la donnée corrigée devant être archivée avec une note expliquant et justifiant l’ajustement appliqué. Afin d’accroître l’efficacité de l’activité de validation, l’exécution des règles de correction de données doit être automatisée et conservée.

Page 9: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

EntErprisE risk solutions

9 rÉponDrE AuX DÉFIS DE GEStIon DE LA QuALItÉ DES DonnÉES poSÉS pAr LE rÉGIME SoLVABILItÉ II

MOODY’S ANALYTICS

Les bonnes pratiques de Moody’s Analytics dans l’évaluation et la gestion de la qualité des donné

Une approche centralisée de la qualité des donnéesPour obtenir une approche nette et efficace de la gestion des risques, les moteurs de calcul du risque reçoivent des données en entrée (hypothèses et paramètres, par exemple) à partir d’un fichier centralisé de données de risque (Entrepôt de données). Dans cette base de stockage, les utilisateurs peuvent définir une signification commune aux données pour l’ensemble de leurs utilisateurs (actuaires, IT, ingénieurs financiers, comptables, etc.).

Cette approche est très largement adoptée dans l’industrie de la gestion du risque, et conduit souvent à la question suivante : où faut-il positionner le processus d’évaluation de la qualité des données par rapport à cette base centrale ? Trois options possibles seront présentées dans la section suivante en analysant leurs avantages et leurs inconvénients.

Qualité des données, modèle 1 : contrôle qualité dans un système source décentralisé L’évaluation de la qualité des données se fait au niveau du système source avant l’importation des données dans le Risk Data Mart.

ETL

Risk Data Mart

DataScenarioResults

Evaluation de la qualitédes données avant

l'importation des données

Systèmes source des données

Cette option a l’avantage de permettre au propriétaire de chaque système source de données externe de facilement gérer les contrôles de qualité ainsi que les règles de correction associées. Toutefois, ce cas de figure présente aussi plusieurs inconvénients. Tout d’abord, lorsque la gestion des données est affectée par des conflits entre différents propriétaires de données, les utilisateurs dans le domaine du risque sont constamment victimes de ces conflits. Ils sont responsables de la qualité des données au yeux du superviseur, mais ils n’ont pourtant pas la possibilité de corriger ces données de manière réactive puisque cette activité dépend d’autres personnes. Ensuite, les propriétaires des systèmes de données externes sont généralement localisés chez le département informatique; dans ce cas, l’utilisateur de Solvabilité II n’a pas accès au processus d’évaluation de la qualité des données.

Enfin, la gestion des contrôles de qualité des données peut devenir encombrante. Les contrôles de qualité se développant en silos multiples peuvent dupliquer les données et donc devenir incohérentes. Il devient souvent difficile d’identifier un responsable du contrôle de la qualité des données lorsque ce rôle traverse différents systèmes.

Page 10: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

EntErprisE risk solutions

10 rÉponDrE AuX DÉFIS DE GEStIon DE LA QuALItÉ DES DonnÉES poSÉS pAr LE rÉGIME SoLVABILItÉ II

MOODY’S ANALYTICS

Qualité des données, modèle 2 : contrôle qualité dans les outils ETLL’importation des données dans le Risk Data Warehouse se fait en général au travers d’un outil Extract-Transform-Load (ETL). La donnée est extraite du système source, transformée d’une certaine manière, puis rechargée dans le Risk Data Mart.

Une option possible est d’effectuer le contrôle de la qualité des données lors de la phase de transformation dans le processus ETL. Toutefois, cette solution présente au moins trois inconvénients :

Premièrement, les contrôles qualité sont incorporés dans un outil extrêmement technique auquel l’utilisateur (le gestionnaire de risques où l’actuaire) n’aura pas accès.

Deuxièmement, la gestion des contrôle de qualité d’un grand nombre de données peut s’avérer difficile. Un outil ETL est généralement configuré pour gérer de nombreux flux de données vers le Risk Data Mart ;chaque flux de données devrait alors être contrôlé. La conséquence est que les contrôles de qaulité risquent de faire face à des problèmes comparables à l’exemple précédent (comme la duplication et l’incohérence).

Enfin, le problème le plus gênant serait que les contrôles de qualité exécutés au moment du chargement des données élimineraient des données de faible qualité. Par conséquent, toutes les données ne seraient pas disponibles dans le Risk Data Warehouse. Moody’s Analytics ne recommande pas cette pratique car des données de ce type sont tout de même utiles pour les utilisateurs. Ils peuvent les analyser pour comprendre pourquoi elles sont de faible qualité, et en connaissance de cause, les utiliser dans le calcul de risque, les corriger temporairement, etc.

ETL

Risk Data Mart

DataScenarioResults

Evaluation de la qualitédes données pendant

l'importation des données

Systèmes source des données

Page 11: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

EntErprisE risk solutions

11 rÉponDrE AuX DÉFIS DE GEStIon DE LA QuALItÉ DES DonnÉES poSÉS pAr LE rÉGIME SoLVABILItÉ II

MOODY’S ANALYTICS

Qualité des données, modèle 3 : contrôles de qualité dans le Data Mart

Cette option permet aux utilisateurs d’accéder aux contrôles de qualité mêmes si les utilisateurs ne sont pas directement responsables de la qualité des données. Cela signifie que les utilisateurs, pour leurs activités quotidiennes de modélisation et de contrôle a posteriori, peuvent avoir une vue sur l’évaluation de la qualité des données et étudier chaque contrôle. Par exemple, ils peuvent activer ou désactiver un contrôle de qualité dans le but d’exécuter une analyse d’hypothèses (vérifier la différence au niveau les résultats en insérant certaines données dans le processus de calcul). De même, sur la base des contrôles qualité qui sont actifs dans le système, les utilisateurs pourraient appliquer des mises à jour directement sur les données sans intervention de l’équipe informatique. Ces activités seraient impossibles dans les deux précédents modèles.

De plus (de la même façon que dans le second modèle), il est bénéfique d’importer toutes les données, y compris celles de faible qualité. Ceci permet aux utilisateurs d’évaluer les données de faible qualité et d’entreprendre les actions appropriées.

L’inconvénient principal de cette approche est que les utilisateurs souhaitant appliquer des corrections permanentes aux données incorrectes devront réaliser des manipulations directement sur le système source. Or, le contrôle de qualité et les règles de correction résident dans deux emplacements séparés de l’architecture IT. Il faut considérer que bien souvent le propriétaire de la donnée de risque, dans le Risk Data Mart, n’est pas le propriétaire des systèmes sources. De ce fait, on encourt des conflits de gouvernance IT en appliquant un changement dans les systèmes existants.

La possibilité de corriger temporairement des données dans l’entrepôt de données dédié au risque, en attendant que des corrections définitives soient faites dans le système source en amont, semble être un bon compromis. Ceci permet aux gestionnaires du risque et à l’actuaire de contourner ce problème et de présenter des données conformes à leurs hiérarchies* *La mise à jour des données est réservée aux utilisateurs ayant une permission prédéfinie pour les exécuter.

ETLEvaluation de la

qualité des données aprèsl'importation des données

Risk Data Mart

DataScenarioResults

Systèmes source des données

Page 12: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

EntErprisE risk solutions

12 rÉponDrE AuX DÉFIS DE GEStIon DE LA QuALItÉ DES DonnÉES poSÉS pAr LE rÉGIME SoLVABILItÉ II

MOODY’S ANALYTICS

Types de contrôles de qualité des données Il est suggéré aux compagnies d’assurances d’adopter quatre types de contrôle qualité.

Contrôles techniques Ils représentent les contraintes techniques affectant un champ ou plus du modèle de données (même au travers de tables de données multiples), comme des contraintes d’intégrité référentielle. Un exemple de contrôle technique pourrait êtrede détecter un code d’une politique d’assurance qui ne correspond à aucune entrée dans la table des codes.

Contrôles fonctionnels Ils représentent les contraintes fonctionnelles appliquées à un ou plusieurs champs du modèle de données (même au travers de tables de données multiples). Par exemple, la date d’anniversaire d’un client doit précéder la date de valeur d’une police d’assurance ; ou le genre d’un client doit être masculin, féminin ou une société.

Contrôles de cohérence Les contrôles de cohérence font référence à la définition de données spécifiques pour une activité et sont souvent associés à des données décrivant des produits d’assurance. Ces contraintes peuvent être appliquées à un ou plusieurs champs du modèle de données (même au travers de tables de données multiples). Par exemple, la valeur de la périodicité du Premium doit être cohérente avec le type de police d’assurance.

réconciliation avec la comptabilité générale

Il peut arriver que le chargement de données soit affecté par des erreurs temporaires ou par l’omission d’une partie des données. Si par erreur, une petite portion du portefeuille n’est pas chargée, les contrôles qualité ne révéleront aucune anomalie, les calculs de risque seront exécutés et pour finir le résultat ne révélera pas d’écarts significatifs (compte tenu du faible effet provoqué par des données manquantes). Les données seront envoyées au superviseur avec un bug. Au contraire, en insérant un contrôle de réconciliation, une version simplifiée du bilan comptable peut être comparée au bilan reconstruit sur la base des données importées.28 Ceci peut mettre en évidence des problèmes comme l’importation d’un groupe de 50 polices d’assurance où la virgule a disparu dans le champ valeur, multipliant ainsi les autres valeurs par 100. Un autre exemple pourrait concerner des problèmes liés aux taux de change, ou à des filiales à l’étranger ayant une définition différente d’une seule et même donnée.

Chaque type de contrôle qualité est géré par différents profils d’utilisateurs. Par exemple, les contrôles techniques sont évalués et dirigés par le service informatique, tandis que les contrôles fonctionnels sont sous la direction des utilisateurs aux profils fonctionnels (gestionnaire de risques) ou techniques. Les contrôles de cohérence sont gérés par les utilisateurs professionnels (gestionnaire de risques et actuaires) chargés de gérer les produits et les polices d’assurance. Enfin, la réconciliation avec la comptabilité générale est sous la responsabilité d’un profil fonctionnel se situant à l’interface avec le département comptable.

Le processus d’évaluation de la qualité des données et l’utilisateur La section précédente souligne l’importance de donner aux utilisateurs un accès au processus d’évaluation de la qualité des données. La section qui suit analyse d’autres aspects liés au même sujet. Par exemple, la Directive attribue la responsibilité spécifique concernant l’examen informel de la qualité de données aux actuaires.29

Selon l’expertise de Moody’s Analytics, les contrôle de qualité devraient se réaliser dans la langue d’origine de l’utilisateur et être gérable avec un maximum de souplesse, tel que le décrit le tableau suivant :

28 L’importance de la réconciliation avec les données comptables est reconnue dans la régulation du CEIOPS (CP 43/09), 1.3.29 CEIOPS (43/09), par. 3.40–43.

Exemple d’un contrôle de données.

Page 13: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

EntErprisE risk solutions

13 rÉponDrE AuX DÉFIS DE GEStIon DE LA QuALItÉ DES DonnÉES poSÉS pAr LE rÉGIME SoLVABILItÉ II

MOODY’S ANALYTICS

Le résultat des contrôles de qualité influence les activités quotidiennes des actuaires et des gestionnaires de risques.

Moody’s Analytics recommande aux compagnies d’assurances d’adopter une infrastructure permettant aux utilisateurs d’évaluer la qualité des données via un environnement facile d’accès, ne nécessitant aucune ‘intervention informatique. Par exemple, un actuaire pourrait vouloir étudier le niveau de qualité d’une table de mortalité avant d’exécuter une tâche donnée. Un gestionnaire de risques, réalisant un test a posteriori sur un certain modèle, pourrait vouloir corriger l’incohérence d’une donnée ou calibrer le modèle dans le but de le détourner momentanément.

De plus, le contrôle de qualité devrait avoir différents niveaux de sévérité déterminés par l’actuaire ou le gestionnaire de risques. Par exemple, un contrôle de qualité adéquat peut mettre en évidence une incohérence qui ne compromet pas un calcul, tandis que la violation d’un contrôle de qualité obligatoire peut entraîner l’exclusion de la donnée dans le calcul.

Le tableau suivant présente un environnement facile d’accès avec trois tâches :

– Une liste des polices d’assurance erronées

– Pour chaque police, la liste des contrôles détectant des erreurs

– Pour chaque contrôle détectant des erreurs, une identification graphique de l’erreur de champ, pour permettre à l’utilisateur d’agir sur la donnée (s’il en est autorisé)30

30 Quel que soit le logiciel utilisé dans le cadre du processus de qualité de données, il devra également proposer de corriger automatiquement les erreurs et inconsistances.

Page 14: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

EntErprisE risk solutions

14 rÉponDrE AuX DÉFIS DE GEStIon DE LA QuALItÉ DES DonnÉES poSÉS pAr LE rÉGIME SoLVABILItÉ II

MOODY’S ANALYTICS

Les incohérences détectées par le contrôle qualité doivent être analysées par l’utilisateur à différents niveaux de granularité : d’une vue agrégée jusqu’au détail le plus précis. De ce point de vue, il est utile de s’appuyer sur des technologies „zoom avant’, telles que les cubes OLAP.

Audits et suivis Nous avons déjà couvert les besoins de la Directive pour les activités d’audit et de suivi. Dans le tableau suivant, nous soulignons un exemple d’audit à l’occasion d’un changement de données concernant le genre d’une personne assurée :

Le tableau ci-dessous représente un passif en assurance non-vie.

Les cubes oLAp permettent aux utilisateurs de visualiser les données avec différents niveaux d’agrégation allant potentiellement jusqu’à la donnée unitaire.

Page 15: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

EntErprisE risk solutions

15 rÉponDrE AuX DÉFIS DE GEStIon DE LA QuALItÉ DES DonnÉES poSÉS pAr LE rÉGIME SoLVABILItÉ II

MOODY’S ANALYTICS

Enfin, nous devons souligner l’importance de l’audit et du suivi des modifications opérées sur les données dans le cadre d’une consolidation de groupe. Gérer des données au niveau d’un groupe est beaucoup plus compliqué que gérer des données au niveau d’une simple entitépuisque l’auditeur et l’utilisateur ne communiqueront pas ensemble facilement. Une vue centralisée des données concernant l’ensemble du groupe garantit la cohérence entre les données alimentant le calcul du capital de solvabilité dans les entités décentralisées, et le siège du groupe.

Cette approche facilite de même considérablement le processus d’audit, en particulier lorsque le superviseur pose ce genre de questions: « Qui a changé les données de cette entité, et pourquoi ? » ou « est-ce que le calcul au niveau du groupe prend en compte la nouvelle ou l’ancienne version des données ? »

De plus, le suivi de données associées à la mise à jour d’une information sur le cours d’achat d’un titre peut avoir l’effet suivant :

Page 16: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

EntErprisE risk solutions

16 rÉponDrE AuX DÉFIS DE GEStIon DE LA QuALItÉ DES DonnÉES poSÉS pAr LE rÉGIME SoLVABILItÉ II

MOODY’S ANALYTICS

ConclusionsSolvabilité II est la première réglementation à fournir des recommandations claires sur la manière de gérer la qualité des données pour les assureurs. Ce document se veut comme étant une analyse du contenu de la réglementation, en la simplifiant et en la rendant plus accessible aux gestionnaires de risques, aux actuaires, et aux responsables de projet Solvabilité II et Informatique.

Les compagnies d’assurances ne sont, pour la plupart, pas préparées aux exigences de qualité des données de la nouvelle réglementation. Cela est dû à plusieurs facteurs, dont nous en avons listé trois ci-dessous :

» La fonction d’actuaire est souvent utilisée pour appliquer un jugement professionnel aux données disponibles pour le calcul des best estimate.

» Certaines compagnies d’assurances accumulent des historiques de données depuis plusieurs décennies. pour autant, les données ont été généralement collectées pour des besoins opérationnels quotidiens, plutôt que pour le calcul de provisions techniques.

» Les systèmes informatiques en vigueur dans les assurances sont souvent périmés, et généralement organisés en silos multiples au travers de différents départements ; ceci entraîne des duplications de données et l’incohérence des valeurs.

Or, la plus stricte application de la nouvelle directive ne se substituera pas au jugement expert de l’actuaire. En effet, l’entreprise doit interpréter la Directive dans le but de rendre ce jugement aussi transparent que possible de façon a ce qu’il soit aisément et rapidement compris par la direction.

L’exigence principale de la Directive se concentre sur le processus d’évaluation de la qualité des données. La présence du jugement d’un expert signifie que ce processus est à la fois quantitatif et qualitatif. Ce document fournit une liste de bonnes pratiques qui permettent aux compagnies d’assurances d’utiliser la technologie comme un outil de support de décision (pour une application efficace d’un conseil expert) et d’automatiser les aspects quantitatifs du processus d’évaluation de la qualité des données.

L’application d’un contrôle de qualité systématique permet aux compagnies d’assurances d’augmenter la fiabilité de l’évaluation. L’utilisation d’une méthodologie pour la correction des données est vitale pour éviter des choix arbitraires et permettre l’obtention de résultats solides dès lors que la qualité des données doit être validée et auditée. Dans ce but, il est aussi important de s’appuyer sur une plate-forme technique permettant aux utilisateurs d’auditer et suivre la qualité des données, et de gérer les corrections.

Enfin, ce document apporte des suggestions qui vont au-delà de celle de la Directive. Tout d’abord, l’évaluation de la qualité des données devrait se faire aussi fréquemment que possible afin de fournir des calculs rapides. Deuxièmement, nous recommandons l’accumulation d’autant de données historiques que possible qui seront extrêmement utiles pour de futures analyses.

Page 17: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

EntErprisE risk solutions

17 rÉponDrE AuX DÉFIS DE GEStIon DE LA QuALItÉ DES DonnÉES poSÉS pAr LE rÉGIME SoLVABILItÉ II

MOODY’S ANALYTICS

Lectures complémentairesCEIOPS (33/09), “CEIOPS Advice for L2 Implementing Measures on SII: System of Governance / CEIOPS’ Resolutions on Comments Received,” former CP 33, https://eiopa.europa.eu/fileadmin/tx_dam/files/consultations/consultationpapers/CP33/CEIOPS-L2-Final-Advice-on-System-of-Governance.pdf

CEIOPS (CP 43/09), “Consultation Paper No. 43, Draft CEIOPS’ Advice for Level 2 Implementing Measures on Solvency II: Technical Provisions – Article 85 f, Standards for Data Quality,” 2 July 2009

CEIOPS (43/09), “CEIOPS Advice for Level 2 Implementing Measures on Solvency II:Technical Provisions – Standard for Data Quality,” former CP 43, https://eiopa.europa.eu/fileadmin/tx_dam/files/consultations/consultationpapers/CP43/CEIOPS-CP-43-09-L2-Advice-TP-Standards-for-data-quality.pdf

CEIOPS-SEC (106/09), “Summary of Comments on CEIOPS-CP-43/09 Consultation Paper on the Draft L2 Advice on TP - Standards for Data Quality,”https://eiopa.europa.eu/fileadmin/tx_dam/files/consultations/consultationpapers/CP43/CEIOPS-SEC-106-09-Comments-and-Resolutions-Template-on-CEIOPS-CP-43-09.pdf

CEIOPS (56/09) “CEIOPS’ Advice for L2 Implementing Measures on SII: Tests and standards for internal model approval,” former CP 56, https://eiopa.europa.eu/fileadmin/tx_dam/files/consultations/consultationpapers/CP56/CEIOPS-L2-Advice-on-Tests-and-Standards-internal-model-approval.pdf

Page 18: PRÉSENTATION Répondre aux défis de gestion de la qualité ......2005/01/11  · et de l’incertitude à l’Université Luiss Guido Carli de Rome, l’Université Rey Juan Carlos

111202

EntErprisE risk solutionsMOODY’S ANALYTICS

© copyright 2011, Moody’s Analytics, inc., et/ou ses concédants de licence et affiliés (ensemble, “MOODY’s). Tous droits réservés. TOUTE INFORMATION CONTENUE CI-DESSUS EST PROTEGEE PAR LES LOIS DE COPYRIGHT ET NE DOIT FAIRE L’OBJET D’AUCUNE COPIE OU TOUTE SORTE DE REPRODUCTION, DE MODIFICATION, DE TRANSMISSION, DE TRANSFER, DE DIFFUSION, DE REDISTRIBUTION OU DE REVENTE, OU ETRE STOCKEE POUR UNE REPRISE ULTERIEURE POUR QUELQUE USAGE, EN TOUT OU EN PARTIE, DE TOUTE FORME OU MANIERE OU PAR QUELQUE MOYEN QUE CE SOIT, PAR TOUTE PERSONNE N’ETANT PAS EN POSSESSION DU CONSENTEMENT ECRIT DE MOODY’S. Toute information contenue ci-dessus est obtenue par MOODY’s à partir de sources présumées précises et fiables. Toutefois, en raison de la possibilité d’erreur humaine ou mécanique ainsi que d’autres facteurs, les informations sont fournies “en l’état” sans garantie d’aucune sorte et MOODY’s, en particulier, ne s’engage aucunement ni ne garantit, n’exprime ou ne sous-entend, la précision, l’opportunité, l’exhaustivité, le caractère commercialisable ou adéquat pour quelque propos particulier d’une telle information. Sous aucune circonstance MOODY’s n’a d’engagement envers quelque personne ou entité pour (a) tout dommage ou perte en tout ou partie causé par, résultant de, ou lié à, toute erreur (négligence ou autre) ou autre circonstance ou contingence au sein ou hors du contrôle de MOODY’s ou de ses directeurs, cadres, employés ou agents en lien avec l’achat, la collecte, la compilation, l’analyse, l’interprétation, la communication, la publication ou la délivrance d’une telle information, ou (b) tout dommage direct, indirect, spécial, conséquent, compensatoire ou accidentel (incluant sans être limité à, la perte de profits), même si MOODY’s est informé à l’avance de la possibilité de tels dommages, résultant de l’utilisation ou de l’impossibilité de l’utilisation de cette information. Les conditions de crédit et les observations d’analyse financières, le cas échéant, constituant une partie de l’information contenue ci-dessus sont, et doivent être considérés uniquement comme l’expression d’opinions et non d’affirmations de faits ou de recommandations d’acheter, de vendre ou de garder tout titre de placement. AUCUNE GARANTIE, EXPRIMEE OU INDUITE, CONCERNANT LA PRECISION, L’OPPORTUNITE, L’EXAUSTIVITE, LE CARACTERE COMMERCIALISABLE OU ADEQUAT POUR QUELQUE PROPOS PARTICULIER D’UNE TELLE INFORMATION N’EST DONNEE PAR MOODY’s DE QUELQUE FORME QUE CE SOIT. Tout jugement ou autre opinion doit être considéré uniquement comme un facteur dans toute décision d’investissement faite par ou pour le compte de tout utilisateur de l’information contenue ci-dessus, et tel utilisateur doit réaliser sa propre étude et évaluation de chaque titre de placement pour chaque émetteur et garant de, et chaque fournisseur de support crédit pour tout titre qu’il pourrait considérer d’acheter, de garder ou de vendre. MOODY’s informe ici que la plupart des sociétés émettrices de dettes représentées par un titre (incluant obligations, obligations non garanties, notes et documents commerciaux) et les actions privilégiées notées par MOODY’s ont, avant d’obtenir toute note, accepté de payer MOODY’s pour ses services d’expertise et de notation des honoraires se situant de 1 500 $ à approximativement 2 400 000 $. Moody’s corporation (McO) et sa filiale de notation détenue à 100%, Moody’s Investors service (Mis), maintiennent aussi des politiques et procédures pour garantir l’indépendance des processus de notation de Mis. L’information concernant certaines affiliations pouvant exister entre les directeurs de McO et les entités notées, et entre les entités détenant des notations de Mis et ayant aussi reporté publiquement au sEc une participation chez McO de plus de 5%, est publiée annuellement sur le site internet de Moody’s à l’adresse www.moodys.com sous le titre “shareholder Relations — corporate Governance — Director and shareholder Affiliation policy.”

Credit Monitor, creditEdge, creditEdge plus, creditMark, DealAnalyzer, EDFcalc, private Firm Model, portfolio preprocessor, Gcorr, the Moody’s logo, the Moody’s KMV logo, Moody’s Financial Analyst, Moody’s KMV Losscalc, Moody’s KMV portfolio Manager, Moody’s Risk Advisor, Moody’s KMV Riskcalc, RiskAnalyst, RiskFrontier, Expected Default Frequency, et EDF sont des marques déposées détenues par Mis Quality Management corp. et utilisées sous licences par Moody’s Analytics, inc.