Il y a quelques jours, sur son blog, Sunil Potti expliquait comment deux tendances fortes, la consumérisation informatique et l’explosion du cloud computing, poussent peu à peu les directions informatiques à changer non seulement la manière dont elles font les choses, mais surtout la nature de ce qu’elles font. Pour résumer, il expliquait comment ces directions passent progressivement d’une stratégie de mise à disposition d’applications à une stratégie de mise à disposition de services.

A votre service
Avant de discuter de mise à disposition de services, nous devrions peut-être définir ce que nous entendons par « service ». Si vous êtes déjà adepte des services cloud computing pour vos emails, vos photos, vos sauvegardes, le suivi de vos clients, vous savez déjà intuitivement ce dont il s’agit, sans pour autant penser à coller des mots dessus.

En clair, par « mise à disposition de services », on entend le concept suivant : les directions informatiques ne gèrent plus les applications, les périphériques qui y accèdent et l’infrastructure sur laquelle ils s’exécutent. Mais elles doivent toujours s’assurer que quels que soient l’endroit où s’exécutent ces nouveaux services (au sein d’un datacenter, sur le site d’un prestataire de services hébergés en mode SaaS, au sein d’un nuage IaaS) et le périphérique utilisé pour y accéder (ordinateur portable d’entreprise, tablette, Smartphone), les performances, la disponibilité et la sécurité demeurent garanties.

Afin que ces services soient délivrés de façon réellement efficace, une nouvelle approche de conception des réseaux est nécessaire. Ce qui exige une nouvelle génération de plates-formes, dotées de nouvelles fonctionnalités ne se limitant pas à l’optimisation et à la répartition des charges Web.

Le profil des réseaux de demain
Avec un tel chemin à parcourir (depuis votre datacenter ou celui d’un fournisseur de services en nuage, ou les deux, jusqu’à une quantité infinie de périphériques de différents types, répartis dans le monde entier et parfois même à 12 000 mètres d’altitude), la structure hiérarchique des réseaux traditionnels peut s’avérer source de gigantesques goulots d’étranglement. Plusieurs réseaux disparates doivent pouvoir être reliés entre eux à l’aide d’une architecture qui associe les réseaux de l’entreprise et du fournisseur de services pour n’en faire en apparence plus qu’un. Une fois cette architecture en place, les directions informatiques peuvent contrôler et gérer la mise à disposition des informations et mettre en œuvre leurs stratégies de niveaux de service au profit de l’ensemble de leurs ressources.

C’est parti pour une nouvelle plate-forme !
La dernière chose que souhaitent les directions informatiques, c’est bien de consentir des investissements matériels supplémentaires pour bâtir une nouvelle infrastructure. Elles ont déjà clarifié la situation dans le domaine des serveurs, en procédant quasiment toutes à une consolidation massive. La même chose doit désormais s’appliquer aux réseaux. Ce qu’il faut, ce n’est pas uniquement un accès transparent au réseau, mais également une véritable consolidation de l’infrastructure, sans perte de performance ou de disponibilité. Et exactement comme la consolidation des serveurs avait favorisé l’apparition de nouveaux types de serveurs, la consolidation des réseaux exige un nouveau type de périphériques réseau.

Ca ne concerne pas que les applications
La mise à disposition de services abolissant les frontières traditionnelles et ouvrant de nouveaux horizons, le réseau se doit désormais de prendre en charge de nouveaux types de données, d’intégrer de nouvelles pièces du puzzle et d’offrir une visibilité plus étendue. Les nouvelles capacités ne doivent pas concerner uniquement les applications, mais également les données et les postes de travail, le contrôle, la visualisation et la gestion des performances et de la disponibilité.

Citrix délivre une infrastructure complète de mise à disposition de services
Afin de répondre à tous ces défis, Citrix propose des solutions répondant parfaitement aux besoins des trois principaux domaines d’évolution : une nouvelle plate-forme pour une consolidation sans compromis, la capacité à créer une architecture générale et de nouvelles fonctionnalités résolument orientées vers les services.

Mais le réseau de nouvelle génération ne doit pas impliquer la prolifération des appliances. Les entreprises comme les fournisseurs de services doivent être capables d’associer les fonctionnalités dont ils ont besoin avec la consolidation qu’ils souhaitent, pour en définitive prendre efficacement en charge de multiples applications, localisations et utilisateurs. Et ils doivent pouvoir le faire sans perte de performance ou de sécurité. Une nouvelle « porte d’entrée » est donc indispensable aux datacenters virtuels.

La solution ? Une nouvelle plate-forme, NetScaler SDX. NetScaler SDX associe la puissance des appliances matérielles NetScaler MPX au formidable potentiel de consolidation offert par les appliances virtuelles. NetScaler SDX héberge de multiples instances complètes de NetScaler (et non des versions allégées) au sein d’un composant unique. Chaque instance NetScaler peut servir une communauté d’utilisateurs, ou une application, ou un client, avec ses propres stratégies et une isolation totale. Aucune application, aucun utilisateur ne peut compromettre les performances ou la sécurité des autres. Et toutes les instances bénéficient de la puissance et de l’accélération offertes par l’appliance matérielle.

En fait, NetScaler SDX va bien au delà de la simple virtualisation logicielle, en s’appuyant sur la technologie de virtualisation matérielle Intel SR-IOV, qui permet à chaque instance de réagir comme si elle avait sa propre carte réseau dédiée, bénéficiant ainsi de performances optimales avec une isolation totale.

NetScaler SDX, MPX et VPX sont améliorés par de nouvelles fonctionnalités de mise en réseau qui permettent de faire apparaître les nuages hors site comme une extension naturelle du réseau de l’entreprise. Une architecture générale basée sur le tunneling des couches 2 et 3, la gestion globale du trafic et l’optimisation WAN garantit la transparence nécessaire à la conception de nuages hybrides couvrant plusieurs sites. De plus, Citrix OpenCloud Access garantit la même visualisation fédérée pour les identités et les permissions des utilisateurs, permettant à ces derniers de s’identifier puis de sélectionner leurs applications (même hébergées en mode SaaS) à partir d’une vitrine unique, et à leur direction informatique de créer et de supprimer avec facilité les applications et les services, peu importe leur lieu d’exécution.

Etant donné les flux générés par ces nouveaux services, il devient primordial de protéger et d’optimiser les données, tout autant que les applications. Comme nous l’avons annoncé récemment, la technologie NetScaler DataStream garantit la répartition de charges, l’optimisation et la sécurité, afin de faciliter l’extension de la couche des bases de données. Il en va de même pour la mise à disposition de postes de travail et d’applications Windows. NetScaler rend les environnements XenDesktop et XenApp plus rentables en hébergeant le service d’interface web et en effectuant les vérifications d’état pour garantir la mise à disposition des postes de travail et des applications Windows.

Rassembler les pièces du puzzle
Passer des contrôleurs de mise à disposition d’applications à la mise à disposition de services implique d’apporter de nombreux changements au réseau, aux contrôleurs eux-mêmes et aux fonctionnalités qu’ils délivrent. Les directions informatiques peuvent relever le défi en accompagnant, plutôt qu’en freinant, cette évolution, et en laissant leurs utilisateurs, leur entreprise et leurs clients tracer la route. Citrix est le partenaire qui les aidera, en rassemblant pour eux toutes les pièces du puzzle.