Dans l'industrie bancaire contemporaine, une transformation profonde est en cours, alimentée par des avancées technologiques rapides et des clients toujours plus exigeants. Elle dépasse la digitalisation pour réinventer, les opérations des banques et leurs interactions internes et externes. Au cœur de cette transformation, l’adoption d’une architecture orientée évènements ou Event-Driven Architecture rendra la banque multisensorielle. Elle s’appuiera sur l’analyse et l’exploitation de flux d’événements pour répondre voire pour anticiper les attentes de ses clients en temps réel.
NSI Luxembourg, en collaboration avec IBM, veut se placer en figure de proue de cette révolution. En exploitant les nombreux événements enregistrés par les systèmes informatiques, NSI Luxembourg et IBM ouvrent la voie à l’ère de la Real-Time Enterprise, capable de recueillir, analyser et combiner ces précieuses sources d’informations jusqu’alors largement inexploitées. Ce changement n'est pas simplement technologique ; il représente un bond qualitatif, mettant l'accent sur la réactivité en temps réel et les services centrés sur le client.
Pour explorer ce sujet, nous avons interrogé Michaël Rigali, Team Leader – Business Solutions IBM chez NSI Luxembourg, pour mettre en lumière cette approche et comment elle impacte profondément l’avenir du secteur bancaire, avec un avenir plus connecté, efficace et en phase avec les besoins du client moderne.
"Les systèmes bancaires traditionnels fonctionnent souvent en silos, avec des technologies de type orientées batch et sont gouvernés par un grand nombre de contraintes qui n’en favorisent pas l’adaptation. Notre stratégie consiste à nous pencher sur les évènements qu’ils contribuent à produire pour en exploiter la valeur. La proposition étant d’accroitre non seulement l'efficacité, mais également l'agilité des banques."
"Notre collaboration avec IBM est centrée sur plusieurs composants modulables et ouverts d’Event Automation. En fonction de la maturité de votre projet, vous pourrez opter pour l’un ou l’autre des composants disponibles ou les utiliser tous ensemble.
Tout d'abord, un premier composant « Event Stream » garantit une distribution efficace des événements dans l'ensemble de l'entreprise, améliorant la scalabilité, la flexibilité et la gestion opérationnelle de Kafka. Ensuite, « Event End Point » centralise l’accès, la publication et la réutilisation des événements de manière intuitive tout en assurant la sécurisation et la gouvernance. Finalement, « Event Processing » filtre et transforme les événements, identifie des patterns ou agrège des événements pour détecter des anomalies ou analyser des tendances, via une interface accessible y compris aux gens du métier."