Accueil / IT Business / Parole d'entreprise / Libérer l’Internet des objets grâce à l’informatique in-memory

Libérer l’Internet des objets grâce à l’informatique in-memory

Une plateforme d’applications Open Source optimisée par l’informatique in-memory est la clé pour atteindre à moindre coût la vitesse et l’échelle requises pour les applications IoT hautes performances.

Selon le « Cisco Global Cloud Index : Prévisions et méthodologie, 2015-2020 « , la quantité totale de données créées par les objets connectés, pilotés par l’Internet des objets (IoT), atteindra 600 ZB par an en 2020, contre 145 ZB par an en 2015. Toutefois, pour que ces nouvelles applications IoT apportent les avantages escomptés, elles doivent ingérer et analyser simultanément et en temps réel des quantités massives de données provenant de sources multiples.

Prenons, par exemple, certaines des nombreuses initiatives de transformation numérique et d’expérience client omnicanal lancées par les entreprises et les gouvernements :

  • Maintenance prédictive – Une myriade de capteurs sur des parcs d’équipements, tels que des camions, des avions et des bâtiments industriels – suivent chaque nuance des conditions d’exploitation actuelles. En analysant ces données, les fournisseurs ou les propriétaires peuvent agir immédiatement sur les indicateurs de défaillance potentielle pour éliminer ou réduire les temps d’arrêt, réduire les coûts de maintenance et permettre aux équipements de durer plus longtemps sur le terrain. Il en résultera un meilleur retour sur investissement et, selon le cas d’utilisation, une plus grande satisfaction client.
  • Atténuation des risques – Pour réduire au minimum la propagation de nouvelles escroqueries sur les prêts, une banque doit être en mesure d’accéder à des données en temps réel sur les demandes de prêt et les rapports de solvabilité, et de mettre à jour en permanence son modèle d’indication des tentatives de fraude afin d’empêcher une nouvelle tentative possible avant la conclusion de la transaction.
  • Villes intelligentes – Une application de ville intelligente telle que la gestion du trafic nécessite l’analyse en temps réel de données provenant de sources comme les applications de routage basées sur les véhicules, les flux de médias sociaux, les caméras de circulation, les stations météorologiques, les rapports de police, les calendriers d’événements et plus encore. L’analyse de ces données qui en résulte doit être immédiatement utilisée pour mettre à jour le modèle de flux de trafic existant, afin que des recommandations d’itinéraires optimaux puissent être envoyées aux véhicules connectés.

Le développement de ces applications sur des bases de données sur disque est impossible car elles reposent sur des processus d’extraction, de transformation et de chargement (ETL) pour déplacer les données d’une base de données de traitement transactionnel en ligne (OLTP) vers une base de données de traitement analytique en ligne (OLAP). Cela implique un délai qui rend les données obsolètes avant même que l’analyse ne commence. La réponse est une plateforme IoT basée sur des applications open source pour collecter, analyser et gérer toutes les données en temps réel de manière rentable.

Le rôle de l’informatique in-memory

Une plateforme informatique moderne in-memory (IMC) réunit plusieurs fonctionnalités IMC en une expérience unifiée pour simplifier le déploiement et la gestion. Cependant, les capacités IMC suivantes ne sont pas disponibles sur toutes les plateformes IMC, il est donc important de comprendre les exigences de l’application lors de l’évaluation des solutions.

  • Les grilles de données in-memory et les bases de données in-memory sont déployées sur un cluster informatique dans un environnement sur site, en Cloud ou hybride. Les grilles de données in-memory s’intègrent facilement entre les couches de données et les couches applicatives d’applications existantes sans extraire et remplacer la base de données existante. Les bases de données in-memory sont utilisées pour de nouvelles applications ou lors de la réarchitecture d’une application existante. Dans les deux cas, le cluster IMC est mis à l’échelle simplement par ajout de nœuds et toute la mémoire et la puissance CPU du cluster sont disponibles pour traitement.
  • HTAP (traitement hybride transactionnel/analytique) ou HOAP (traitement hybride opérationnel/analytique) est la capacité d’utiliser une seule base de données pour le traitement simultané de transactions et d’analyses – même lorsque des algorithmes de machine learning ou d’apprentissage profond en temps réel sont utilisés à grande échelle. Cette architecture réduit considérablement le coût et la complexité de l’architecture du système pour les cas d’utilisation d’IoT.
  • Une architecture centrée sur la mémoire permet aux utilisateurs d’équilibrer les coûts d’infrastructure et les performances des applications en conservant l’ensemble des données opérationnelles sur disque tout en ne conservant en mémoire qu’un sous-ensemble de données définies par l’utilisateur. Cette architecture, souvent appelée « magasin persistant », peut faire partie d’un magasin de disques distribué conforme aux normes ACID et ANSI-99 SQL déployé sur des disques en rotation, des lecteurs à semi-conducteurs (SSD), Flash, 3D XPoint ou toute autre mémoire de stockage. Cette architecture permet également un traitement immédiat des données après un redémarrage sans attendre que toutes les données soient rechargées en mémoire.
  • Un cadre d’apprentissage continu peut être déployé à l’aide de bibliothèques de machine learning (ML) et de deep learning (DL) intégrées et entièrement distribuées qui ont été optimisées pour un traitement massivement parallèle. Cela permet à chaque algorithme ML ou DL de s’exécuter localement par rapport aux données résidant en mémoire sur chaque nœud du cluster IMC. Cela permet la mise à jour continue des données sans dégradation des performances, même à l’échelle du pétaoctet.

Construire la plateforme IoT avec des solutions Open Source

Pour faciliter le développement et le déploiement de nouvelles applications IoT, les fournisseurs ou les projets open source collaborent souvent afin de garantir la cohérence et la facilité de déploiement des applications. Prenons l’exemple de l’open source « IoT Stack » :

  • Apache® Ignite™ – Plateforme informatique in-memory pour le traitement des données en temps réel et à grande échelle, avec une fonction de stockage permanente et des bibliothèques de machine learning et d’apprentissage profond.
  • Apache® Kafka® – Plateforme de diffusion en continu pour la publication et l’abonnement à des flux d’enregistrements, le stockage durable de flux d’enregistrements et le traitement de flux d’enregistrements au fur et à mesure de leur apparition.
  • Apache® Spark™ – Un moteur d’analyse unifié pour le traitement de données à grande échelle.
  • Kubernetes® – Un système pour automatiser le déploiement, la mise à l’échelle et la gestion des applications conteneurisées sur un cluster de serveurs.

Les fournisseurs de solutions construites à partir de ces projets open source ainsi que les projets eux-mêmes travaillent pour assurer une intégration simple et native entre eux. Comme il s’agit de solutions matures, elles offrent l’une des voies les plus rentables pour déployer des applications IoT à grande échelle.

Le succès des projets Internet des objets dépend souvent du déploiement d’une plateforme rentable pour le développement et le déploiement d’applications capables de collecter et d’analyser simultanément et à grande échelle des données provenant de multiples sources de diffusion en continu. Pour de nombreuses organisations, une plateforme IoT optimisée par l’informatique in-memory basée sur des solutions open source constitue la bonne réponse. Aujourd’hui, il est essentiel que les décideurs informatiques commencent à élaborer une stratégie d’infrastructure IoT afin de positionner leur organisation pour sa réussite future.

Nikita Ivanov, CTO et co-fondateur de GridGain Systems

Nikita Ivanov, fondateur et CTO de GridGain Systems, a dirigé GridGain dans le développement de technologies avancées et distribuées de traitement des données in-memory. Nikita a plus de 20 ans d’expérience dans le développement d’applications logicielles, la construction de plateformes HPC et middleware et la contribution aux efforts d’autres startups et entreprises de renom, y compris Adaptec, Visa et BEA Systems. En 1996, il a été un pionnier dans l’utilisation de la technologie Java pour le développement de middleware côté serveur tout en travaillant pour l’un des plus grands intégrateurs de systèmes européens. Nikita est un membre actif de la communauté middleware Java et un contributeur à la spécification Java. Il est également un conférencier international sollicité avec plus de 50 conférences lors de divers événements de développeurs au cours des 5 dernières années.

 

 

 

A voir

L’ERP, la colonne vertébrale des entreprises modernes

La bonne gestion des processus de l’entreprise est incontestablement un sujet passionnant....