Comment l’edge computing va bouleverser le monde de l’IT

4


0

Ces dernières années, l’Edge Computing est passé au premier plan, car les organisations cherchent à surmonter les problèmes de latence qui peuvent entraver les déploiements du Cloud Computing.

Il est manifestement appelé à se développer massivement. Le marché mondial de l’Edge Computing est estimé à environ 4 milliards de dollars en 2020 et il devrait atteindre 17,8 milliards de dollars d’ici 2026, selon le cabinet d’études StrategyR.

Pourquoi choisir l’Edge Computing et à quel moment ?

Alors, pourquoi les DSI doivent-ils s’intéresser à l’Edge Computing ? Pour dire les choses simplement, lorsque les sociétés mettent à l’échelle leur puissance de calcul, cela entraîne la concentration de cette puissance. Celle-ci exerce une pression sur la capacité des réseaux, ce qui crée des problèmes en termes d’architecture d’infrastructure.

L’Edge Computing permet de surmonter ces problèmes. Il place la puissance de traitement à proximité de la « périphérie » (ou « edge » en anglais) d’un réseau afin que les données puissent être traitées localement, au lieu d’être transmises sur un réseau étendu. Cela diffère du Cloud Computing où les données sont acheminées vers un emplacement central. Au contraire, l’Edge Computing localise les données, ce qui réduit la durée de leur transfert et accélère les temps de réponse.

Ce dernier point est important. Par exemple, les voitures sans conducteur ne peuvent pas attendre des millisecondes pour envoyer des données à un datacenter distant avant de décider s’il convient de s’arrêter à un feu rouge. Les systèmes de surveillance cardiaque doivent maintenir une connexion avec les appareils qui enregistrent l’activité cardiaque d’un patient pour savoir s’il est stable ou en détresse. Les systèmes de point de vente doivent traiter les transactions par carte même si la connexion avec le siège social est hors ligne ou médiocre. S’il y a une fuite de gaz dans une usine et qu’aucune connexion réseau n’est disponible, cette pollution passera-t-elle inaperçue ?

Renvoyer les données vers le Cloud ne serait pas pratique : il y aurait trop de latence et pas suffisamment de bande passante pour envoyer toutes les données à temps. Tout retard dans le traitement et la prise de décision pourrait avoir des conséquences potentiellement dévastatrices.

Facteurs à prendre en compte

Si votre organisation doit surmonter des problèmes de latence et de bande passante, la solution pourrait bien être d’amener l’informatique à la périphérie. Néanmoins, plusieurs points sont à prendre en considération.

Tout d’abord, ni votre Cloud ni votre datacenter centralisé ne deviendront pour autant redondants du jour au lendemain. L’Edge Computing est une technologie complémentaire qui déploie ses atouts lorsqu’elle est utilisée au plus près des données qu’elle doit traiter.

Sécurité : elle est un facteur déterminant dans le déploiement de l’Edge Computing. Les données sont collectées et traitées à proximité des capteurs qui les créent et peuvent être vulnérables au piratage. Une forte sécurité de bout en bout est nécessaire, du capteur au datacenter, pour atténuer les menaces de sécurité.

Interopérabilité : elle est essentielle, car le déploiement de l’Edge Computing diffère en termes de capteurs, d’appareils et de connectivité. Les capteurs des ateliers ont des besoins très différents de ceux des systèmes de surveillance cardiaque utilisés dans les hôpitaux. Les organisations ont besoin d’un fournisseur d’Edge Computing qui peut les aider non seulement à implémenter des capteurs de points de terminaison, mais aussi à les connecter au Cloud et à les sécuriser.

Support : les datacenters situés en périphérie se trouvent sur des sites plus diversifiés géographiquement, ce qui complique la maintenance. Les systèmes de gestion qui prennent en charge l’Edge Computing doivent être hautement automatisés et orchestrés.

Relever les défis et exploiter une installation d’Edge Computing

L’informatique à la périphérie consiste à mettre en place des capteurs, des appareils et des serveurs sur des sites distants. Elle doit faire partie intégrante de l’infrastructure IT d’une organisation.

Les fonctionnalités nécessaires à la périphérie sont semblables à celles d’une infrastructure IT traditionnelle. Mais ce n’est pas tout : cette infrastructure doit parfois être renforcée, car elle peut être placée sur des sites exposés aux éléments. Il se peut que les appareils et les systèmes doivent être renforcés ou qu’ils nécessitent un conditionnement spécial. Les systèmes doivent être dotés d’une sécurité physique.

Les applications Edge, même si elles sont stratégiques, sont situées à distance. Cela signifie que le besoin de fiabilité est plus important et que la planification de la maintenance doit être spécialisée.

L’infrastructure en périphérie ne dispose pas toujours d’une connexion directe au réseau de l’entreprise et peut devoir utiliser une connectivité tierce, telle que la 5G. Les capteurs Edge peuvent être situés dans des endroits où la connectivité n’est pas fiable. Les applications situées en périphérie doivent continuer à s’exécuter même en l’absence de connexion au réseau principal.

Modifier l’architecture du système pour l’adapter à l’Edge Computing

Avec l’Edge Computing, il est nécessaire de créer une architecture du système pour répondre aux exigences des utilisateurs et des applications. Les DSI doivent connaître les parties du système qui sont exécutées dans le Cloud et lesquelles le sont en périphérie. Il y a donc plusieurs questions à prendre en compte lors de la conception d’une architecture adaptée à l’Edge Computing.

Temps de réponse des données : à quelle vitesse les données doivent-elles être analysées à la source pour la prise de décisions ? Les contrôles des machines et les systèmes doivent toujours se trouver en périphérie ; pour tout le reste, ce qui compte, ce sont les temps de réponse. Lorsque la périphérie s’éloigne des ressources informatiques, les temps de réponse/d’analyse des données ralentissent.

Connectivité et transfert de données : quelles sont les données à traiter de manière centralisée et quelles sont celles qui doivent l’être en périphérie ? Si la connectivité et la bande passante sont limitées, le traitement doit se faire davantage en périphérie. Si la bande passante est fiable et rapide, ce traitement peut être effectué de manière centralisée dans le Cloud.

Cybersécurité et réglementation : lors de la conception d’une architecture de système qui intègre des ressources d’Edge Computing, les DSI doivent s’assurer que cette architecture respecte les pratiques d’excellence en matière de cybersécurité ainsi que les réglementations qui régissent les données là où elles se trouvent. Les DSI doivent également mettre en œuvre une politique de vérification systématique pour l’ensemble des systèmes et appareils en périphérie, avec une approche de contrôle d’accès basée sur le principe du moindre privilège.

Comment l’IA peut-elle aider en périphérie ?

Les progrès en intelligence artificielle sont considérables, et le Cloud lui a fourni un immense jeu de données dont elle peut apprendre et qu’elle peut utiliser pour que les organisations prennent de meilleures décisions. Lorsque les ressources informatiques se rapprochent de la périphérie, il est logique que l’IA s’y rende également, car c’est là que se trouvent les données. En d’autres termes, il n’est pas logique que des données telles que des données vidéo ou audio en streaming soient envoyées dans le Cloud et en reviennent pour chaque point de terminaison ou situation.

Ce que font les fournisseurs pour donner aux organisations accès au Edge Computing

Le passage à l’Edge Computing a amené les fournisseurs à repenser leurs approches. Dell, par exemple, a lancé ses nœuds satellites VxRail pour s’attaquer à ce que Michael Dell appelle « la nouvelle frontière ». Ces nœuds étendent les avantages du datacenter principal pour traiter la plupart des cas d’utilisation en périphérie. Cela signifie que la périphérie dispose des mêmes fonctionnalités de gestion, de sécurité et d’automatisation que le datacenter principal.

Avec les transformations numériques en cours dans les entreprises, le développement des charges applicatives en dehors des datacenters traditionnels et la prolifération des réseaux 5G, il existe un besoin immédiat de trouver une solution d’infrastructure à faible encombrement, à moindre coût et facile à gérer. Avec une architecture standardisée telle que VxRail, les silos IT que l’on trouve généralement sont considérablement réduits, et les architectures involontaires (ou prolifération) appartiennent au passé.

Dell a aidé des milliers d’organisations à moderniser leur infrastructure et à déployer des solutions Edge essentielles à leurs activités.

En savoir plus sur les solutions Dell Technologies et VMware APEX Cloud Services – Cloud-as-a-service | Dell Technologies France