Aller à la navigation

Blog

Retour à l’accueil

19 Avr 2017

« Kappa », une nouvelle approche architecturale pour la surveillance de marché

Une nouvelle approche architecturale appelée « Kappa » allie traitement temps réel et exactitude des résultats. Les leaders du secteur finance l’utilisent pour réduire les coûts et accélérer l’implémentation d’analyses temps réel sur leurs problématiques de conformité et de risque.

Le contexte fonctionnel

Dans le cadre de son activité, un acteur de marché doit se conformer aux nouvelles réglementations votées par la Commission Européenne. Ces réglementations (EMIR / MIFID II / MAD/MAR / STFR / Solvency 2) se sont multipliées depuis la crise des subprimes de 2008. Elles ont pour but de mieux réguler le marché et protéger l’épargne des investisseurs, en appliquant un contrôle accru sur les acteurs et transactions financières.

La problématique de notre client

La mise en œuvre de ces nouvelles normes a un impact sur le SI au niveau du volume de données à ingérer, analyser et restituer. Les contrôles réalisés depuis plusieurs années sur une plateforme legacy nécessitent désormais une analyse granulaire avec une multitude de scénarios. Pour assurer l’audibilité et la retransmission des informations, le client doit avoir accès en temps réel à ces informations.

Les travaux réalisés par Finaxys

Dans le cadre d’une réponse à appel d’offre pour moderniser la plateforme existante, nous avons été sollicités pour réaliser un Projet Pilote. Celui-ci devant valider la pertinence de nos choix techniques : la faisabilité de l’architecture, le niveau d’expertise et notre aptitude à respecter les performances attendues. Le projet sera la base pour les développements à venir. Notre équipe a identifié Hadoop comme étant la solution la plus appropriée, pour ses capacités de stockage et son traitement temps réel. Nous avons mis en place une solution Big Data sur mesure, basée sur des composants Hadoop, HBase, Hive, Spark et Kafka, avec la plateforme HDP d’Hortonworks.

L’architecture Kappa a été choisie pour répondre au besoin de cohérence des données et traitement streaming car elle permet une exécution quasi temps réel et fiable avec son système de logs rejouables. Le dispositif est scalable et permet de répondre aux besoins actuels et futurs. Durant deux mois, une équipe composée de 4 Solution Engineers Big Data, un Solution Architect Big Data et un Team Leader/Business Analyst étaient dédiée à ce projet, en suivant les méthodes agiles. Parmi les défis à relever dans ce projet : le volume de données à gérer, les divers formats XML et FIX utilisés, créer une architecture transverse etc.

Les bénéfices apportés à notre client

– Volume + streaming + cohérence
– Scalabilité
– Extensibilité de la plateforme
– Solution Open Source
– Datascience

Share our news :

-