Accueil / IT Business / Parole d'entreprise / Stimuler la performance des projets IoT dans le domaine des services financiers

Stimuler la performance des projets IoT dans le domaine des services financiers

Selon Gartner, d’ici 2020, 26 milliards d’objets connectés IoT créeront des données qui communiqueront via Internet pour analyse  le plus souvent en temps réel. Et ce chiffre n’inclut pas l’activité des ordinateurs et des smartphones… Peu de gens pensent que l’Internet des objets (IoT) en temps réel nécessitera de nouvelles approches en matière de traitement et d’analyse des données.

Le monde de la finance intègre déjà l’IoT avec des projets impressionnants. Les banques commencent à installer des guichets automatiques qui permettent de précharger les renseignements sur les comptes des clients par simple identification de leur téléphone portable. Les fournisseurs d’assurance automobile utilisent la télématique pour surveiller le comportement des conducteurs. Et les fournisseurs d’assurance santé sont impatients de se connecter à des appareils de suivi de la condition physique.

Au fur et à mesure que ces projets se concrétiseront et commenceront à prendre de l’ampleur, la performance des applications deviendra un facteur critique de succès pour la satisfaction des clients et, dans certains cas, également la sécurité (des patients et des conducteurs, par exemple). Pour s’assurer que les applications sont capables d’ingérer, de stocker et d’analyser les données à la vitesse et à l’échelle requises, l’infrastructure doit intégrer une connectivité réseau omniprésente, des capteurs et des objets connectés hautement efficaces, ainsi que les caractéristiques suivantes de l’architecture de l’application :

  • Systèmes de calcul, d’analyse et de stockage rapides et évolutifs
  • Haute disponibilité
  • Traitement des données en temps réel et en continu
  • Capacité de s’adapter immédiatement aux charges de travail variables
  • Interopérabilité
  • Sécurité renforcée

Pour créer cette architecture d’application, les entreprises innovantes se tournent vers l’informatique in-memory. En conservant les données en mémoire vive, une solution in-memory supprime la lenteur d’accès au disque, créant ainsi des délais défiants la plupart des stratégies d’application haute performance. Les applications utilisant des plateformes informatiques in-memory – qui combinent le stockage des données en RAM et le traitement parallèle des données sur un cluster informatique – sont environ 1 000 fois plus rapides que les mêmes applications construites sur des bases de données sur disque. Ces applications atteignent souvent des vitesses de traitement de centaines de milliers, voire de millions de transactions par seconde.

La technologie informatique in-memory existe depuis des décennies. Les développeurs savent que le fait de travailler avec des données stockées en mémoire élimine les délais inhérents au déplacement des données stockées sur disque vers la mémoire vive. Mais jusqu’à récemment, les coûts de mémoire étaient trop élevés pour de nombreuses applications. Aujourd’hui, le coût de la mémoire est tombé à des niveaux qui rendent l’informatique in-memory attrayante pour de nombreuses entreprises possédant des applications à forte intensité de données et qui peuvent désormais bénéficier d’un retour sur investissement significatif grâce aux avantages de performance d’une plateforme in-memory. Dans ce contexte, Gartner prévoit que le marché de l’informatique in-memory atteindra 10 milliards de dollars d’ici fin 2019, soit un taux de croissance annuel de 22%.

Sous le capot d’une plateforme informatique in-memory 

Pour offrir la vitesse, l’évolutivité, l’interopérabilité et la sécurité exigées par les projets IoT, une plateforme in-memory doit être capable de répondre à un cahier des charges complet. Les principales caractéristiques que les concepteurs de projets IoT recherchent dans une plateforme informatique in-memory sont les suivantes :

  • Une grille de données in-memory qui peut être insérée entre l’application et les couches de données pour mettre en cache les données sur disque des bases de données RDBMS, NoSQL ou Hadoop. Les caches de données sont automatiquement répliquées et partitionnées sur plusieurs nœuds, et de nouveaux nœuds peuvent facilement être ajoutés au cluster pour obtenir une évolutivité à la demande. Certaines grilles de données prennent en charge la conformité des transactions ACID et ANSI SQL-99.
  • Une grille de calcul in-memory qui permet un traitement parallèle distribué des tâches de calcul gourmandes en ressources, offrant généralement un équilibrage adaptatif de la charge, une tolérance automatique aux pannes, une extensibilité linéaire et une planification personnalisée. La grille de calcul peut également être construite autour d’une interface pluggable de fournisseur de services (SPI) pour offrir une API directe pour le traitement Fork-Join et MapReduce.
  • Une base de données in-memory qui peut remplacer un RDBMS sur disque. Les bases de données in-memory utilisent généralement des API ODBC et JDBC et ne devraient pas nécessiter un codage personnalisé extensif. La solution doit être évolutive horizontalement, tolérante aux pannes et conforme à la norme ANSI SQL-99. Elle doit également prendre en charge les commandes DDL et DML et offrir un support pour les données géospatiales.
  • Analyse in-memory en streaming qui permet l’acquisition rapide de données, le traitement en continu pour une analyse rapide, et le support pour les solutions d’apprentissage machine qui peuvent former des modèles en utilisant les données transactionnelles du système.
  • Une capacité de  » stockage permanent » qui utilise un stockage de disques distribué ACID et conforme à la norme ANSI-99 SQL déployé sur des disques en rotation, des disques à semi-conducteurs (SSD), Flash, 3D XPoint ou d’autres technologies de stockage. Les magasins de données persistantes préservent l’ensemble des données sur disque en cas de redémarrage ou de panne de courant et permettent à une entreprise d’équilibrer les coûts d’infrastructure et les performances des applications en conservant l’ensemble des données opérationnelles sur disque et en ne conservant qu’un sous-ensemble des données dans sa mémoire. Il permet également un traitement immédiat des données après un redémarrage en les comparant à l’ensemble de données sur disque, sans attendre que toutes les données soient rechargées dans la mémoire.
  • Des bibliothèques intégrées de Machine Learning (ML) et Deep Learning (DL) entièrement distribuées et optimisées pour un traitement massivement parallèle permettent à chaque algorithme ML ou DL de s’exécuter localement contre les données résidant en mémoire sur chaque nœud du cluster informatique in-memory. Cela permet la mise à jour en temps réel des modèles ML ou DL sans impacter les performances, même à l’échelle du pétaoctet.
  • Une grille de services in-memory qui permet de contrôler les services déployés sur les nœuds du cluster, tout en garantissant la disponibilité en continu des services en cas de défaillance d’un nœud. En effet, une grille de services in-memory doit être capable de déployer automatiquement des services au démarrage d’un nœud, de déployer plusieurs requêtes d’un service et de mettre fin à un service déployé sans pour autant stopper l’utilisation d’éventuels microservices.

Conclusion

L’ère de l’IoT n’en est qu’à ses débuts et les possibilités sont illimitées… Une chose est sûre, les applications IoT développées pour les services financiers et les domaines connexes exigeront des niveaux sans précédent de rapidité, d’évolutivité et de flexibilité et une plateforme informatique in-memory est le moyen le plus rentable d’atteindre ces objectifs.

Par Nikita Ivanov, fondateur et CTO de GridGain Systems

A voir

L’ERP, la colonne vertébrale des entreprises modernes

La bonne gestion des processus de l’entreprise est incontestablement un sujet passionnant....