Livre blanc

Transformation de l'arête

L'architecture de votre infrastructure pour la performance et la fiabilité

Alors que les tendances commerciales et technologiques continuent à remodeler la façon dont l'informatique se situe à la périphérie, de nombreuses entreprises cherchent le meilleur moyen de sélectionner, de mettre en œuvre et de capitaliser les opportunités que les stratégies edge computing à l'épreuve du temps offrent aujourd'hui.

Ce white paper offre un regard plus approfondi sur edge computing et définit l'évolution qui a lieu aujourd'hui sur edge computing tout en démontrant comment les solutions de nouvelle génération peuvent aider les industries à exploiter les nouvelles opportunités offertes par la transformation de la périphérie.

Résumé

De nombreuses entreprises se tournent vers leurs systèmes edge computing pour améliorer la manière dont elles collectent et traitent les données résultant de la croissance explosive des dispositifs connectés à Internet. Pourtant, pour la plupart des professionnels de la technologie opérationnelle (OT) qui sont depuis longtemps responsables des systèmes informatiques de pointe dans leurs organisations, l'évolution de la périphérie peut sembler être une cible mouvante.

Alors que les tendances commerciales et technologiques continuent à remodeler la façon dont l'informatique se situe à la périphérie, de nombreuses entreprises cherchent le meilleur moyen de sélectionner, de mettre en œuvre et de capitaliser les opportunités que les stratégies edge computing offrent aujourd'hui.

Ce white paper offre un regard plus approfondi sur edge computing et met en évidence divers exemples, secteurs et cas d'utilisation où il apporte le plus de bénéfices. Il décrit également l'évolution qui a lieu aujourd'hui sur edge computing tout en démontrant comment les solutions de nouvelle génération peuvent aider les organisations à exploiter les nouvelles possibilités offertes par la transformation de la périphérie, aujourd'hui et demain.

Bienvenue au nouveau bord

Aujourd'hui, de nombreuses opérations et processus critiques ont lieu à la périphérie du réseau d'une organisation, comme les machines sans pilote, les systèmes de sécurité publique, les systèmes de transport et la production d'énergie. Ces opérations, et les équipements sur lesquels elles reposent, sont connectés à un nombre croissant de dispositifs d'Internet des objets (IoT), qui devrait dépasser les 20,4 milliards de points finaux d'ici 2020.1

Ces capteurs et dispositifs collectent des données en temps réel qui peuvent être utilisées pour rationaliser les cycles de production, améliorer la qualité des produits ou des services, ou réduire les temps de réponse. Par conséquent, une meilleure gestion des données de pointe peut aider l'ensemble de l'entreprise à améliorer les processus critiques, à réduire les coûts et à acquérir un avantage concurrentiel significatif. 

1Partenaire, The Need for Real-Time Insights Offers Market Opportunities in Edge Computing, "Forecast : Internet of Things - Endpoints and sociated Services Worldwide, 2016", 24 février 2017.

Pourtant, il est plus difficile qu'il n'y paraît de récolter ces avantages, surtout lorsqu'on tente de traiter et de gérer des données de pointe par le biais d'applications centralisées basées sur cloud ou de centres de données sur place. Si ces modèles informatiques ont leurs avantages, ils ne sont pas particulièrement adaptés aux environnements de support où le personnel informatique est limité, la connectivité est mauvaise ou coûteuse, et les opérations sont particulièrement sensibles au facteur temps. Toutes ces conditions se trouvent généralement à la limite.

Edge computing connaît aujourd'hui des changements importants, apportant de nouvelles pressions ainsi que de nouvelles opportunités qui, ensemble, entraînent une transformation rapide de ce qui se passe à la périphérie.

Le potentiel de l'avantage

Pour surmonter ces défis inhérents, de nombreuses organisations ont commencé à repenser leurs infrastructures edge computing , qui ont généralement une connectivité limitée ou nulle avec un site data center et/ou cloud distant. Les données de pointe peuvent être traitées directement au point d'origine, ou être envoyées à un dispositif de mise en réseau de passerelle ou à un serveur intermédiaire. Mais dans les deux cas, l'utilité des données est souvent limitée par l'échelle et la capacité restreinte du matériel - parfois vieux de 30 ans - qui constitue la plupart des infrastructures de pointe.

Edge computing connaît aujourd'hui des changements importants, à commencer par une utilisation accrue. Cette évolution offre de nouvelles pressions ainsi que de nouvelles opportunités qui, ensemble, entraînent une transformation rapide de ce qui se passe à la périphérie.

Pour les organisations qui exploitent ces possibilités, les bénéfices peuvent être énormes. Par exemple, les applications liées à l'analyse, aux feux de circulation intelligents, aux communications entre véhicules, à la production d'énergie et aux équipements de fabrication bénéficient d'une infrastructure edge computing améliorée qui traite et utilise plus efficacement les données en continu provenant des dispositifs et des capteurs de l'IdO. Dans ces cas, ces applications peuvent réacheminer le trafic, améliorer la maintenance prédictive pour prévenir les défauts et optimiser la production.

Avantages pour les professionnels de l'OT

Les professionnels de l'OT ont beaucoup à faire : En plus de maintenir la chaîne de montage, l'approvisionnement en eau ou les trains à l'heure, ils sont maintenant chargés de mettre à jour leurs systèmes d'IA pour tirer parti de l'évolution de la situation.

Une approche de technologie et de service pour optimiser l'infrastructure de pointe peut grandement simplifier ce défi et apporter des avantages significatifs aux professionnels de l'OT et à leurs organisations. Ces avantages sont notamment les suivants :

  • Atténuation des risques : L'absence de temps d'arrêt imprévu dans leurs systèmes d'AI aide les organisations à éviter les perturbations qui résultent de pannes de système, même brèves.
  • Efficacité opérationnelle : La surveillance proactive, l'automatisation et une meilleure visibilité de chaque composant de leurs systèmes d'IA permettent aux professionnels de l'OT d'apporter rapidement des améliorations opérationnelles, ce qui leur permet de gagner du temps et de l'argent.
  • Un coût total de possessionréduit : l'intégration de tous les matériels, logiciels et services nécessaires pour gérer les applications d'IA dans une solution unique et unifiée se traduit par le coût total de possession le plus bas pour une solution de pointe à haute disponibilité.
  • L'autonomisation de l'OT : La simplification de la gestion des architectures de pointe contribue à réduire la dépendance des professionnels de l'OT vis-à-vis des départements informatiques et leur permet de prendre l'initiative de déployer des technologies dans leur sphère d'influence - à l'IIoT et au-delà.  

L'évolution des exigences de edge computing

Les systèmes de pointe sont généralement déployés dans des endroits éloignés au-delà du site data center typique, ou par définition, jusqu'à la limite des réseaux informatiques. La simplicité est essentielle à la périphérie, mais il en va de même pour des éléments tels que la facilité d'entretien et d'utilisation. Comme les personnes talentueuses se font de plus en plus rares, les environnements de pointe ne peuvent souvent se permettre de faire appel qu'à des professionnels de la télématique - et non de l'informatique - de sorte que si quelque chose tourne mal, l'idée de faire venir quelqu'un pour le réparer n'est pas envisageable du point de vue du temps ou du coût. Le personnel d'intervention n'est pas forcément spécialisé en informatique, mais il est toujours capable de réparer le produit et de le rendre opérationnel rapidement.

De nombreuses nouvelles applications de pointe contiennent une quantité importante de données ou transmettent des données en continu vers d'autres endroits, ce qui rend l'intégrité des données extrêmement importante. Toute défaillance pourrait entraîner une rupture du flux de données, ce qui poserait plusieurs problèmes aux processus existants ou aux efforts de mise en conformité. Par exemple, dans une exploitation laitière, si un système tombe en panne alors que le lait circule sur une chaîne de production, les agriculteurs peuvent ne pas être en mesure de collecter les données requises pour la conformité, ce qui augmente le risque en cas de rappel éventuel.

Les applications à la limite ne sont généralement pas mises à jour très souvent. Cela signifie que les entreprises ont besoin d'une technologie avec un modèle de service et des outils qui leur permettent de déployer le système et essentiellement de le laisser tranquille pendant très longtemps.

Nouvelles tendances, complications et opportunités

Les organisations qui se trouvent aujourd'hui à la pointe de l'informatique peuvent penser que leur approche actuelle est suffisante - pour l'instant. Cependant, de nombreuses tendances et évolutions technologiques se produisent, qui les obligeront à modifier leur façon de penser et d'agir à propos de edge computing:

  • Évolution du dispositif : L'augmentation des volumes fera baisser les coûts unitaires, ce qui rendra les appareils IdO moins chers, plus performants et standardisés. Par exemple, les contrôleurs logiques programmables (PLC) deviennent déjà plus intelligents, basés sur des normes ouvertes et beaucoup plus rentables.
  • L'OT va évoluer : Le rôle de l'OT va continuer à évoluer parce que les départements informatiques sont déjà trop sollicités, et que l'avantage n'est tout simplement pas une priorité pour eux. L'OT assumera davantage de responsabilités pour les technologies qui leur sont essentielles, telles que edge computing.
  • Augmenter l'automatisation basée sur les machines : Les technologies émergentes telles que l'analyse en temps réel et l'intelligence artificielle augmenteront la criticité des données de pointe. L'automatisation deviendra de plus en plus rapide et beaucoup plus performante, dépassant même les limites des capacités humaines. Par exemple, les chemins de fer peuvent désormais traiter les données de pointe pour permettre de voyager à 300 km/h en toute sécurité.
  • Nouveaux fournisseurs et nouveaux modèles commerciaux : Les nouvelles solutions technologiques, telles que l'IA, l'apprentissage machine et l'analyse avancée, continueront à favoriser l'innovation, l'agilité et l'efficacité du capital. Les organisations doivent envisager des partenariats avec les fournisseurs, les technologies et les solutions les mieux adaptées à leurs stratégies à long terme.

Il est clair que pour opérer à la limite, il faudra continuer à penser et à agir différemment. Ces tendances doivent être soigneusement évaluées par toute organisation déployant une stratégie edge computing .

Les solutions actuelles ne sont pas à la hauteur

Il est largement reconnu que les systèmes actuels basés sur les technologies de pointe ont besoin de nouvelles technologies habilitantes pour répondre à l'évolution de la demande. Toutefois, l'offre de ces technologies est en retard sur les besoins.

Il existe des technologies de l'informatique et des communications qui s'adressent au secteur de l'automatisation industrielle (IA). Toutefois, elles ont tendance à se concentrer sur les besoins des utilisateurs finaux de l'IA depuis des décennies, plutôt que sur les pressions spécifiques à la périphérie (telles que la nécessité d'effectuer une maintenance prédictive ou de s'intégrer à l'analyse des données de grande taille) qui animent le secteur de l'IA aujourd'hui. En tant que telles, elles représentent une combinaison sous-optimale de capacités et de lacunes.

Voici quelques exemples de ces technologies :

  • Lesordinateurs de réseau IA des fournisseurs de centres de données traditionnels, tels que les passerelles Edge de Dell pour l'IdO, peuvent collecter des données provenant de capteurs ou de dispositifs en périphérie et les envoyer à un data center ou à un cloud public. Ils sont moins chers que d'autres catégories de solutions en périphérie, mais ne s'adaptent pas bien à l'échelle (par opposition à l'extrapolation), et n'offrent pas une disponibilité continue ou une simplicité opérationnelle - deux éléments essentiels en périphérie.
  • Lesplates-formes hyper-convergentes, telles que les systèmes de pointe convergents de Hewlett Packard Enterprise, intègrent des capacités de capture, de contrôle, de calcul et de stockage des données dans un seul appareil matériel. Elles mettent l'accent sur la simplicité opérationnelle et peuvent effectuer des analyses en temps réel à la périphérie, mais au sacrifice d'une disponibilité continue et d'un prix abordable.
  • Lessolutions de haute disponibilité, telles que vSphere de VMware, s'appuient sur la virtualisation pour offrir des niveaux de disponibilité plus élevés à un coût acceptable, mais sacrifient la simplicité opérationnelle en exigeant des compétences de niveau informatique. Beaucoup d'entre elles ne disposent pas non plus de la puissance de calcul et des performances requises pour la synthèse et l'analyse de données en temps réel.

Il est clair que les systèmes de contrôle industriel vieux de 30 ans qui sont encore la norme dans de nombreux secteurs de la fabrication et de l'informatique industrielle ont besoin d'une mise à niveau substantielle pour passer à l'Internet industriel des objets, aux nuages envahissants et/ou à l'informatique du brouillard. Toutefois, une approche de remplacement ne fonctionnera pas. Les défis auxquels ces entreprises sont confrontées pendant leur transition vers la périphérie comprennent la poursuite de la collecte de données à partir de leurs systèmes legacy , l'extension du cycle de vie de ces systèmes lorsque cela est possible, et l'ajout progressif de capacités.

En outre, toutes les entreprises ne doivent pas nécessairement se déplacer sur le continuum de la bordure. Ce sont leurs besoins commerciaux qui détermineront le degré de transformation de la périphérie dont elles auront besoin. Cependant, pour qu'une organisation puisse tirer le maximum d'avantages de l'évolution de la périphérie, une nouvelle approche technologique est nécessaire.

La solution idéale

Pour pallier ces lacunes, une solution idéale répondrait aux besoins des entreprises en matière de calcul haute performance fiable et évolutif. En outre, elle apporterait ces avantages à court terme, répondrait aux exigences actuelles et s'adapterait à une infrastructure de pointe en évolution.

Plus précisément, les attributs essentiels d'un passage à la périphérie comprennent

  • Lasimplicité opérationnelle qui permet un fonctionnement de faible à zéro, la facilité d'entretien et d'utilisation - tous ces éléments sont essentiels puisque les ressources informatiques sont rares en périphérie ou sur le terrain.
  • Uneproduction ininterrompue , sansinterruption imprévue, et la garantie de l'intégrité des données, puisque les nouvelles applications de pointe contiennent de gros volumes de données ou transmettent des données en continu vers des sites distants (comme le site cloud).
  • Descapacités de virtualisation et de fiabilité qui permettent aux fabricants et aux organisations d'IA de déployer des systèmes et des bases de données critiques hautement disponibles - et pourtant très efficaces.
  • Lesconceptions d'interopérabilité qui tirent parti des normes actuelles (par exemple, les systèmes d'exploitation) ainsi que des normes émergentes qui permettront aux dispositifs et aux systèmes de fonctionner les uns avec les autres.
  • Lacybersécurité, y compris la protection intégrée de tous les composants du système edge computing , des données qu'ils traitent et de leurs communications entre eux et avec l'extérieur.

Un exemple d'architecture et de prestation optimisées

Aujourd'hui, les principaux fournisseurs de technologies proposent une nouvelle approche innovante en matière d'infrastructure de pointe qui intègre tous les attributs décrits ci-dessus. De plus, cette solution est complète - une plate-forme de calcul complète et clé en main qui permet aux entreprises d'IA de mettre à jour des systèmes vieillissants, de virtualiser des applications de contrôle industriel et d'accroître l'efficacité opérationnelle.

Cette nouvelle approche de pointe se compose de trois éléments essentiels :

  • Une plateforme informatique sans contact : Une plate-forme informatique industrielle automatisée, entièrement intégrée et autoprotégée qui réduit le besoin de support informatique tout en augmentant l'efficacité des opérateurs et en réduisant les risques d'interruption de service.
  • Infrastructure périphérique définie par logiciel : Une interface unique vers une pile complète d'applications essentielles, notamment le calcul, le stockage et la mise en réseau virtualisés, la cybersécurité, les passerelles IdO, les VPN, les routeurs, l'analyse et l'intelligence artificielle.
  • Un service géré proactif : Une approche révolutionnaire pour déployer, surveiller et maintenir des solutions et des infrastructures de pointe. Contrairement au service réactif d'hier, un tel service géré de manière proactive peut être facilement supervisé par des professionnels de l'OT, exécuté par le système lui-même et soutenu par un seul fournisseur de services basé localement.

La combinaison de ces trois éléments - une plate-forme informatique sans contact, une infrastructure de pointe définie par logiciel et un service géré proactif - crée une nouvelle solution d'infrastructure optimisée pour les organisations de pointe.

Les principaux avantages de la solution optimisée sont les suivants :

  • Il est idéal pour exécuter rapidement et de manière fiable des applications industrielles critiques dans des endroits éloignés, avec des ressources informatiques limitées ou inexistantes.
  • Il augmente l'efficacité opérationnelle grâce à un logiciel de virtualisation préinstallé et à des outils de configuration et de gestion intuitifs et conviviaux.
  • Il est facile à déployer et peut être installé rapidement par les utilisateurs, ce qui réduit le temps nécessaire à la mise en place et au fonctionnement des applications critiques.
  • Il réduit la charge des TI grâce à des capacités d'autosurveillance et d'autoprotection qui le rendent idéal pour les installations sans personnel.
  • Il permet d'éviter de manière prédictive les temps d'arrêt imprévus, grâce à des systèmes redondants sur site soutenus par un service géré cloud.
  • Il supporte de multiples écosystèmes - un large éventail d'architectures et d'applications, sans modification.

Une telle plate-forme de pointe complète répond aux exigences essentielles de l'environnement de pointe actuel (voir la section "Les solutions actuelles ne sont pas à la hauteur"), notamment la simplicité opérationnelle, la virtualisation, la production ininterrompue et l'interopérabilité.

À propos de Stratus

Stratus permet de simplifier le fonctionnement des applications critiques de l'entreprise 24 heures sur 24, 7 jours sur 7 et 365 jours par an. Stratus' permet de prévenir de manière proactive les cas d'arrêt imprévu, tant sur le site data center qu'à la périphérie, et nos services garantissent que tout problème est résolu avant que les clients n'en aient besoin. Depuis plus de 35 ans, les entreprises du classement mondial Fortune 500 et les petites et moyennes entreprises dans un large éventail de secteurs d'activité à travers le monde font confiance à Stratus pour une disponibilité continue et simple d'utilisation.

Pour plus d'informations, veuillez consulter le site www.stratus.com ou suivre sur Twitter @StratusAlwaysOn.

Actifs connexes

Haut de page