2
F O N T A I N E c o n s u l t a n t s When IT matters FEV 2013 Par ce titre un peu provocateur, nous posons la question de la distance qu’il existe entre les discours des fournisseurs, de la presse et des analystes de toute sorte, et la réalité vécue dans les grandes entreprises que nous côtoyons. Bien sûr, le Cloud y est présent, ne serait-ce que pour des raisons d’image et d’actions opportunistes. Une tendance est aussi à rebaptiser un peu rapidement un plan d’action de consolidation de datacenter associé avec une virtualisation des serveurs en... « Cloud Privé » ! Certes, ces plans sont souvent nécessaires et profitables, mais ils sont encore assez loin des fondamentaux du Cloud Computing. Nous avons donc cherché à comprendre les freins qui se cachent derrière l’adoption encore timide des différentes solutions associées au concept de « l’informatique en nuage ». Et comme vous le verrez, ces barrières sont en train de tomber ! Je vous souhaite une très bonne lecture. David GELRUBIN - Président EDITO, PAR DAVID GELRUBIN LA PAROLE À JULIEN RAMAKICHENIN : « LE CLOUD, OPPORTUNITÉ OU INTOX » TÉMOIGNAGE D’AXEL HAENTJENS - ORANGE LE CLOUD : OPPORTUNITÉ OU INTOX ? SOMMAIRE FEV/2013 #20 LA LETTRE FONTAINE CONSULTANTS 2 3 UNE TECHNOLOGIE NÉE POUR DES BESOINS TRÈS PRÉCIS Comme pour de nombreuses autres technologies, il est intéressant de comprendre les gênes des technologies liées au Cloud Computing. À la fin des années 1990, plusieurs acteurs majeurs de l’Internet, notamment Google et Amazon, ont été confrontés à une gestion de plus en plus critique de leurs applications phares, ceci sous la pression de plusieurs contraintes assez contradictoires : une montée en puissance très rapide du nombre ρ d’utilisateurs en ligne, où l’on ne parle plus en milliers, comme pour les systèmes bancaires ou de réservation, mais en centaines de milliers, voire en millions d’utilisateurs simultanés ! la nécessité de garantir un système disponible, ρ mondialement, 24/24 et 7/7, avec un temps de réponse toujours court le besoin de faire évoluer sans cesse les applications ρ phares, de manière réactive, avec une mise en production dynamique, et en évitant bien sûr toute perturbation au niveau de l’usage et de la disponibilité. Ces acteurs ont d’abord joué la banalisation des serveurs et la redondance de ceux-ci, ainsi que celle des bases de données y étant attachées. Avec un faible ratio de mises à jour des données en comparaison des accès en lecture des bases, les applications se prêtaient bien à des systèmes de synchronisation de bases distantes. La grande évolution a été d’imaginer une architecture logicielle rendant l’application totalement neutre des couches matérielles et logicielles nécessaires à son exécution. Dès lors, les applications ne voient que des services stables, ce qui donne toute liberté quant à l’implémentation physique des ressources nécessaires pour l’exécution des requêtes demandées. Il devient ainsi possible de faire évoluer toutes les couches techniques habituelles se trouvant « en dessous » de l’application (serveurs physiques, système d’exploitation, stockage, middleware de tout type...), sans qu’il n’y ait aucun impact ou modification nécessaires pour cette application. Cette couche logicielle est par ailleurs dotée d’une capacité de router les requêtes sur un réseau de manière intelligente et sécurisée : les ressources physiques apparaissent alors comme « virtuelles » au programme appelant, qui n’est plus concerné par les ressources physiques qui exécutent réellement les traitements. Si l’on imagine un monde où toutes les applications sont écrites de cette manière, on peut imaginer en regard un monde où des centaines de milliers, voire des millions de serveurs, sont répartis dans des datacenters à travers le globe. Pour Google seulement, le nombre — tenu secret ! — de serveurs en janvier 2012 a été estimé à 1.8 million, avec une projection à 2.3 millions début 2013, serveurs répartis dans une quarantaine de datacenters dans le monde ! Google a conçu et fait développer ses serveurs directement en Asie, à l’image d’Amazon et de Facebook. Cette puissance installée, si considérable qu’elle en est difficilement concevable, est à même de prendre en charge les applications clientes les plus intensives sans la moindre perturbation, et ceci tout en faisant en permanence des changements sur les applications et l’infrastructure. Le concept de Cloud vient de la mise à disposition selon différents modèles, de toute cette architecture mise au point dans un premier temps par les pure players du Web, et reprise dans un second temps par les acteurs majeurs de l’industrie informatique comme Microsoft, IBM, HP ou encore Orange. Le modèle publié par le Syntec numérique montre bien la « montée en service » des différentes offres Cloud, allant de l’Infrastructure as a Service (IaaS), au Software as a Service (SaaS) en passant par les Platform as a Service (PaaS). DES ACTEURS NOMBREUX ET TRÈS DIVERSIFIÉS En continuité avec l’approche historique, on peut noter des positionnements très différents des acteurs sur ce marché : Google a choisi historiquement le domaine du SaaS ρ avec son offre de messagerie en premier (Gmail), qui s’est étendue progressivement via les Google Apps collaboratives (Agenda, Drive/Documents, etc.). Bien sûr, Microsoft et IBM ont suivi, avec des offres SaaS dérivées de leurs produits historiques, Office et Lotus Notes, et on peut noter dans ce marché l’arrivée d’Orange avec Business Together. Le domaine du SaaS s’est déjà étendu au-delà des outils personnels, attaquant des domaines applicatifs qui étaient la « chasse gardée » des éditeurs de progiciel. Ces derniers doivent s’adapter... ou périr. L’exemple le plus significatif est celui de Salesforce, mettant à mal les éditeurs traditionnels du CRM. Si bien qu’on peut noter maintenant des offres SaaS chez SAP (OnDemand), SAGE, Oracle (On Demand, Netsuite)... même si ces offres sont souvent positionnées sur les marchés plutôt PME et mid-market, ou réservées au B2B, tant pour des raisons techniques que marketing. Amazon a été le précurseur des offres IaaS : dès 2006, ρ Amazon Web Services (AWS) a commencé à offrir des services d’infrastructure IT « élastiques » aux entreprises sous la forme de services web. L’offre Amazon est aujourd’hui très riche et s’étend aux middlewares applicatifs, couvrant les différentes formes de stockage (dont des bases NoSQL ou des espaces pour le Big Data), le calcul distribué, la gestion d’identité, la recherche... Amazon est concurrencé dans ce marché par les équipementiers historiques (IBM, HP), les opérateurs (SFR, Orange), les hébergeurs plus classiques (OVH), et les initiatives plus récentes de Cloud souverains (Cloudwatt et Numergy en France). Dans le domaine du PaaS, qui permet aux projets de ρ développement logiciel de disposer d’environnements d’exécution à la demande, on retrouve tous les grands : Google (App Engine), Microsoft (Windows Azure), Salesforce (Force.com), ou encore Facebook (Developers). À noter que, sous l’initiative de VMWare, Cloud Foundry fournit un socle PaaS en open source, utilisable sur différentes infrastructures. Le CLOUD : OPPORTUNITÉ OU INTOX ? 4 Un datacenter Google De l’informatique interne et l’hébergement, vers les services Cloud (schéma extrait du Livre blanc « Sécurité du Cloud Computing » — Syntec Numérique) Informatique bergeur laaS public PaaS public SaaS public L'entreprise a le contrôle Domaine de responsabilité partagé identifié Le fournisseur de service a le contrôle Applications Serveur Stockage Réseau Données Machine virtuelle Applications Serveur Stockage Réseau Données Machine virtuelle Applications Serveur Stockage Réseau Données Machine virtuelle Applications Serveur Stockage Réseau Données Machine virtuelle Applications Serveur Stockage Réseau Données Machine virtuelle Retrouvez nos lettres sur www.fontaine-consultants.fr

FONTAINE CONSULTANTS - LETTRE 20 : LE CLOUD

Embed Size (px)

DESCRIPTION

Par ce titre un peu provocateur, nous posons la question de la distance qu’il existe entre les discours des fournisseurs, de la presse et des analystes de toute sorte, et la réalité vécue dans les grandes entreprises que nous côtoyons. Bien sûr, le Cloud y est présent, ne serait-ce que pour des raisons d’image et d’actions opportunistes. Une tendance est aussi à rebaptiser un peu rapidement un plan d’action de consolidation de datacenter associé avec une virtualisation des serveurs en... « Cloud Privé » ! Certes, ces plans sont souvent nécessaires et profitables, mais ils sont encore assez loin des fondamentaux du Cloud Computing. Nous avons donc cherché à comprendre les freins qui se cachent derrière l’adoption encore timide des différentes solutions associées au concept de « l’informatique en nuage ». Et comme vous le verrez, ces barrières sont en train de tomber ! Je vous souhaite une très bonne lecture. David GELRUBIN - Président de Fontaine Consultants

Citation preview

Page 1: FONTAINE CONSULTANTS - LETTRE 20 : LE CLOUD

F O

N T

A I

N E

c o

n s

u l

t a

n t

s

Whe

n IT

mat

ters

FEV

2013

Par ce titre un peu provocateur, nous posons la question de la distance qu’il existe entre les discours des fournisseurs, de la presse et des analystes de toute sorte, et la réalité vécue dans les grandes entreprises que nous côtoyons.

Bien sûr, le Cloud y est présent, ne serait-ce que pour des raisons d’image et d’actions opportunistes.Une tendance est aussi à rebaptiser un peu rapidement un plan d’action de consolidation de datacenter associé avec une virtualisation des serveurs en... « Cloud Privé » ! Certes, ces plans sont souvent nécessaires et profitables, mais ils sont encore assez loin des fondamentaux du Cloud Computing.Nous avons donc cherché à comprendre les freins qui se cachent derrière l’adoption encore timide des différentes solutions associées au concept de « l’informatique en nuage ».Et comme vous le verrez, ces barrières sont en train de tomber !Je vous souhaite une très bonne lecture.

David GELRUBIN - Président

EDITO, PAR DAVID GELRUBIN

LA PAROLE À JULIEN RAMAKICHENIN : « LE CLOUD, OPPORTUNITÉ OU INTOX »

TÉMOIGNAGE D’AXEL HAENTJENS - ORANGE

LE C

LOU

D :

OPP

ORT

UN

ITÉ

OU

INTO

X ?

SOM

MA

IRE

FE

V/2

013

#2

0LA

LE

TTR

E FO

NTA

INE

CO

NS

ULT

AN

TS

2 3

UNE TECHNOLOGIE NÉE POUR DES BESOINS TRÈS PRÉCISComme pour de nombreuses autres technologies, il est intéressant de comprendre les gênes des technologies liées au Cloud Computing. À la fin des années 1990, plusieurs acteurs majeurs de l’Internet, notamment Google et Amazon, ont été confrontés à une gestion de plus en plus critique de leurs applications phares, ceci sous la pression de plusieurs contraintes assez contradictoires :

une montée en puissance très rapide du nombre ρd’utilisateurs en ligne, où l’on ne parle plus en milliers, comme pour les systèmes bancaires ou de réservation, mais en centaines de milliers, voire en millions d’utilisateurs simultanés !la nécessité de garantir un système disponible, ρmondialement, 24/24 et 7/7, avec un temps de réponse toujours courtle besoin de faire évoluer sans cesse les applications ρphares, de manière réactive, avec une mise en production dynamique, et en évitant bien sûr toute perturbation au niveau de l’usage et de la disponibilité.

Ces acteurs ont d’abord joué la banalisation des serveurs et la redondance de ceux-ci, ainsi que celle des bases de données y étant attachées. Avec un faible ratio de mises à jour des données en comparaison des accès en lecture des bases, les applications se prêtaient bien à des systèmes de synchronisation de bases distantes.La grande évolution a été d’imaginer une architecture logicielle rendant l’application totalement neutre des couches

matérielles et logicielles nécessaires à son exécution. Dès lors, les applications ne voient que des services stables, ce qui donne toute liberté quant à l’implémentation physique des ressources nécessaires pour l’exécution des requêtes demandées. Il devient ainsi possible de faire évoluer toutes les couches techniques habituelles se trouvant « en dessous » de l’application (serveurs physiques, système d’exploitation, stockage, middleware de tout type...), sans qu’il n’y ait aucun impact ou modification nécessaires pour cette application. Cette couche logicielle est par ailleurs dotée d’une capacité de router les requêtes sur un réseau de manière intelligente et sécurisée : les ressources physiques apparaissent alors comme « virtuelles » au programme appelant, qui n’est plus concerné par les ressources physiques qui exécutent réellement les traitements. Si l’on imagine un monde où toutes les applications sont écrites de cette manière, on peut imaginer en regard un monde où des centaines de milliers, voire des millions de serveurs, sont répartis dans des datacenters à travers le globe. Pour Google seulement, le nombre — tenu secret ! — de serveurs en janvier 2012 a été estimé à 1.8 million, avec une projection à 2.3 millions début 2013, serveurs répartis dans une quarantaine de datacenters dans le monde ! Google a conçu et fait développer ses serveurs directement en Asie, à l’image d’Amazon et de Facebook. Cette puissance installée, si considérable qu’elle en est difficilement concevable, est à même de prendre en charge les applications clientes les plus intensives sans la moindre perturbation, et ceci tout en faisant en permanence des changements sur les applications et l’infrastructure.Le concept de Cloud vient de la mise à disposition selon différents modèles, de toute cette architecture mise au point dans un premier temps par les pure players du Web, et reprise dans un second temps par les acteurs majeurs de l’industrie informatique comme Microsoft, IBM, HP ou encore Orange. Le modèle publié par le Syntec numérique montre bien la « montée en service » des différentes offres Cloud, allant de l’Infrastructure as a Service (IaaS), au Software as a Service (SaaS) en passant par les Platform as a Service (PaaS).

DES ACTEURS NOMBREUX ET TRÈS DIVERSIFIÉSEn continuité avec l’approche historique, on peut noter des positionnements très différents des acteurs sur ce marché :

Google a choisi historiquement le domaine du SaaS ρavec son offre de messagerie en premier (Gmail), qui s’est étendue progressivement via les Google Apps collaboratives (Agenda, Drive/Documents, etc.). Bien sûr, Microsoft et IBM ont suivi, avec des offres SaaS dérivées de leurs produits historiques, Office et Lotus Notes, et on peut noter dans ce marché l’arrivée d’Orange avec Business Together. Le domaine du SaaS s’est déjà étendu

au-delà des outils personnels, attaquant des domaines applicatifs qui étaient la « chasse gardée » des éditeurs de progiciel. Ces derniers doivent s’adapter... ou périr. L’exemple le plus significatif est celui de Salesforce, mettant à mal les éditeurs traditionnels du CRM. Si bien qu’on peut noter maintenant des offres SaaS chez SAP (OnDemand), SAGE, Oracle (On Demand, Netsuite)... même si ces offres sont souvent positionnées sur les marchés plutôt PME et mid-market, ou réservées au B2B, tant pour des raisons techniques que marketing.

Amazon a été le précurseur des offres IaaS : dès 2006, ρAmazon Web Services (AWS) a commencé à offrir des services d’infrastructure IT « élastiques » aux entreprises sous la forme de services web. L’offre Amazon est aujourd’hui très riche et s’étend aux middlewares applicatifs, couvrant les différentes formes de stockage (dont des bases NoSQL ou des espaces pour le Big Data), le calcul distribué, la gestion d’identité, la recherche... Amazon est concurrencé dans ce marché par les équipementiers historiques (IBM, HP), les opérateurs (SFR, Orange), les hébergeurs plus classiques (OVH), et les initiatives plus récentes de Cloud souverains (Cloudwatt et Numergy en France).

Dans le domaine du PaaS, qui permet aux projets de ρdéveloppement logiciel de disposer d’environnements d’exécution à la demande, on retrouve tous les grands : Google (App Engine), Microsoft (Windows Azure), Salesforce (Force.com), ou encore Facebook (Developers). À noter que, sous l’initiative de VMWare, Cloud Foundry fournit un socle PaaS en open source, utilisable sur différentes infrastructures.

Le CLOUD : OPPORTUNITÉ OU INTOX ?

4

Un datacenter Google De l’informatique interne et l’hébergement,vers les services Cloud

(schéma extrait du Livre blanc « Sécurité du Cloud Computing » — Syntec Numérique)

7

LE LIVRE BLANC SÉCURITÉ DU CLOUD COMPUTING

LES PROBLÉMATIQUES SÉCURITAIRES ASSOCIÉES AU CLOUD COMPUTING

La « sécurité » est souvent citée comme le frein principal à l’adoption des services Cloud. Qu’en est-il réellement ?L’accès aux données hébergées dans le Cloud présente en général un haut niveau de sécurité en raison des mécanismes d’authentification mis en place par les fournisseurs de service. Ces mécanismes peuvent d’ailleurs êtrerenforcés par les solutions Corporate clients, de gestion d’identités, qui sont alors placées en amont d’un lien uniqueavec le fournisseur de solutions Cloud ; notons cependant que certains fournisseurs seulement acceptent une tellearchitecture. Les entreprises clientes doivent toutefois considérer les points suivants :

- Quels types d’informations sont accessibles dans le Cloud ? Qui peut y accéder et comment sont-elles isoléesdes éléments non sécurisés ?- Qui dispose de droits pour envoyer et recevoir des données sensibles en dehors du périmètre de l’entreprise ?- Quels sont les mécanismes de sécurité qui garantissent la confidentialité des données de l’entreprise au sein ducloud public ?- Comment les données sensibles doivent-elles être envoyées et comment sont-elles accessibles? En clair ou encryptant certaines d’entre elles ?

D’autres problèmes spécifiques au Cloud restent posés, notamment : - Difficulté d’obtenir que certaines données restent localisées dans un pays désigné, le Cloud ne connaît pas de frontières ! Il faut alors être prêt à ce que le fournisseur doive se conformer à des réglementations comme laDirective Européenne de Protection des Données ou le USA Patriot Act, qui peuvent autoriser les autorités localesà prendre connaissance des données (cette possibilité est toutefois largement théorique)- Impossibilité d’assurer la traçabilité des données, par exemple en vue des certifications SAS 70, Sarbanes Oxleyou autres, qui doivent garantir que nul n’a pu modifier des données sans qu’il en reste une trace. A noter : certains prestataires de services Cloud sont d’ores et déjà certifiés SAS 70 (type II).

Ces problèmes peuvent être en partie contournés par des architectures applicatives adaptées (encryption ou occultation de la propriété des données, et ségrégation des données contractuellement auditables).

Informatique Hébergeur laaS public PaaS public SaaS public

L'entreprise a le contrôle

Domaine de responsabilité partagé identifié

Le fournisseur de service a le contrôle

Applications

Serveur

Stockage

Réseau

Données

Machine virtuelle

Applications

Serveur

Stockage

Réseau

Données

Machine virtuelle

Applications

Serveur

Stockage

Réseau

Données

Machine virtuelle

Applications

Serveur

Stockage

Réseau

Données

Machine virtuelle

Applications

Serveur

Stockage

Réseau

Données

Machine virtuelle

Qui a le contrôle ?

Retrouvez nos lettres sur www.fontaine-consultants.fr

Page 2: FONTAINE CONSULTANTS - LETTRE 20 : LE CLOUD

Des opportunités considérables, mais...Grâce à cette « commoditisation » de l’IT, les opportunités sont nombreuses (on ne rappellera ici que les titres des avantages du Cloud Computing) : coût extrêmement bas, flexibilité, scalabilité et même élasticité, gestion « on demand », déploiement immédiat sur de très grands volumes, disponibilité, logique purement « opex » (« you pay just what you need !»). Tous ces arguments, et bien d’autres, sont avancés en permanence par les acteurs — anciens ou nouveaux — du Cloud. Malgré toutes ses promesses, ce marché peine pourtant à faire son chemin dans les grandes entreprises.Certains diront que cela provient de la frilosité légendaire des DSI pour les nouvelles technologies! Mais les freins sont bien réels et demandent une attention particulière si une entreprise veut profiter du « graal » Cloud.Alors quels sont ces freins et les moyens de les gérer ?

Le poids de l’existantComme le disent nombre de managers IT aguerris, « Comme l’informatique serait agréable si l’on ne devait pas gérer le passé ! ». Utiliser une plate-forme PaaS, bien sûr, mais les applications existantes n’ont pas été conçues selon ces critères, ou de manière plus claire, l’application fait des requêtes à son environnement selon des interfaces spécifiques au système d’exploitation et aux middleware utilisés, et non selon les interfaces spécifiques à un environnement Cloud. Comme toujours, la migration est très coûteuse, et quel sens cela a-t-il pour des applications conçues en COBOL ou même en C ? Une approche pourrait donc être de mettre dans le Cloud des applications qui s’y prêtent naturellement, comme des front-ends Web ou des portails : là, le frein réside dans les difficultés à surmonter pour échanger des données et des services entre un monde Cloud d’une part, et un monde « legacy » d’autre part. Dans un autre domaine, celui des outils personnels comme la messagerie, changer l’ergonomie de l’application phare de dizaines de milliers d’utilisateurs, ou encore reprendre les historiques individuels (messages, carnet d’adresse...) pour basculer dans le Cloud, plombent nettement les économies potentielles ! En revanche, oui, la question se pose nécessairement pour des applications nouvelles ou des services innovants non encore déployés.

La dépendance vis-à-vis du fournisseur CloudCette dépendance s’exprime différemment selon que l’on est dans des modes IaaS, PaaS ou encore SaaS. Si l’on prend ce dernier paradigme, la dépendance vis-à-vis d’un fournisseur tel que Salesforce opérant ma solution dans le Cloud, n’est-elle pas encore supérieure à celle que j’avais déjà avec des éditeurs de logiciels traditionnels, qui était pourtant déjà difficilement supportable ? La gestion de la réversibilité contractuelle, qui est une évidence dans ce cas, ne suffit pas. Il faut anticiper la mise au point d’un véritable scénario de migration en sachant ré-exporter les données principales

5 6 7 8

De toute manière, le choix d’une plate-forme PaaS est un choix engageant dans la mesure où les applications sont bien sûr liées aux API et aux outils environnants : la question devient moins une question de réversibilité contractuelle qu’une question aussi vieille que l’histoire de l’informatique liée à la portabilité des applications !

La nécessité d’outils d’administration puissantsL’avantage d’une solution Cloud est par définition de ne pas à avoir à s’occuper de la solution technique, souvent complexe, qui héberge son application ou son infrastructure... en fait jusqu’au jour où surgit un problème, même si celui-ci n’est pas majeur. Comme l’explique bien un DSI : « Tant que la confiance vis-à-vis de mon fournisseur règne, il n’y a pas pas de souci. Mais si à la suite d’un incident, il arrive que le fournisseur ne soit pas à même de diagnostiquer rapidement et de trouver une solution, alors la confiance disparaît et la vie commune devient impossible ». Ce qui veut dire que les outils d’administration doivent exister et être puissants : outils pour le client, pilotant les indicateurs de son exploitation et l’avertissant rapidement en cas de problèmes, et outils encore plus puissants pour le fournisseur Cloud lui permettant de garantir la qualité de service délivrée et d’intervenir très rapidement en cas de problème. L’existence de ces outils est à notre avis l’élément le plus différenciant des offres actuelles, sachant que, souvent, l’outil c’est... un interlocuteur dédié pour traiter vos problèmes : ce qui est clairement insuffisant !

La protection des donnéesLa protection des données dans le Cloud est un serpent de mer, mais un serpent qui a la vie coriace et qui mérite qu’on traite le problème : d’abord, il peut être intellectuellement gênant pour une entreprise de mettre ses données chez un acteur comme Google dont le business model repose principalement sur l’audience et la connaissance des habitudes de consommation des internautes dont il a la confiance ! Pour répondre à ces interrogations, Google a mis en place un hébergement européen pour Engine ainsi que des garanties contractuelles fortes. Il en est de même pour la plupart des grands acteurs historiques.Plus gênant est le Patriot Act, qui laisse planer une menace potentiellement grave dans la protection des données Cloud hébergées par une société de droit américain. La parade est aujourd’hui possible avec de plus en plus d’initiatives de Clouds dits souverains comme Numergy ou CloudWatt, ainsi que des solutions Cloud dédiées aux grandes entreprises par des acteurs européens comme Orange, Bull ou encore ATOS pour citer des Français.

En conclusion, un avenir brillant !Comme toujours, il y a un décalage entre la vision de l’industrie et celle du marché, toujours plus lent à adopter des solutions innovantes que dans les rêves des marketeurs de l’innovation. Ce rapide tour d’horizon montre que les freins réels sont en train de disparaître, et nous le pensons, oui, 2013 va être l’année du Cloud dans les grandes entreprises!

Julien est intervenu à plusieurs reprises dans le domaine

de la stratégie, de la gouvernance, ou de l’architecture des infrastructures auprès des clients de Fontaine Consultants.

Que ce soit dans l’élaboration d’une stratégie de services IT ou la construction d’un programme de transformation des infrastructures et de la production IT, la question du Cloud s’est systématiquement posée. En effet, le Cloud Computing impacte autant le catalogue de services, que les processus et l’organisation

IT pour les mettre à disposition, en assurer la promotion et le

support.

JULIEN RAMAkIChENINCONSULTANT SÉNIOR,FONTAINE CONSULTANTS

hébergées par le fournisseur SaaS dans des structures de fichiers structurés, si possible normalisées. Certes, cela requiert un investissement, mais cette démarche a différents intérêts au-delà de la simple indépendance, tels que l’archivage légal ou la reprise d’activité. Il est d’ailleurs probable que l’on verra, dans le futur, des acteurs se positionner dans ce créneau de la mobilité des données vis-à-vis des fournisseurs Cloud.La dépendance vis-à-vis des fournisseurs de plate-formes est de nature différente. Il y a d’abord le choix du langage. Dans le cas de Java, plusieurs solutions existent : Amazon Elastic Beanstalk qui bénéficie de la puissante infrastructure EC2 ; CloudBees qui offre des fonctionnalités uniques d’intégration continue ; Google App Engine, la plate-forme la plus ancienne et la plus mature ; les plates-formes open source OpenShift (RedHat) ou Cloud Foundry, ou encore Heroku et Windows Azure. Le choix sera à faire entre des plates-formes propriétaires, mais souvent efficaces car liées à des offres Cloud IaaS, ou des plates-formes plus ouvertes mais peut-être moins performantes.

.

TÉMOIGNAGE « LE CLOUD, ON Y CROIT ! » PAR AXEL HAENTJENS

Le CLOUD : OPPORTUNITÉ OU INTOX ?

Le métier d’Orange de grand opérateur international de télé-communications témoigne des mêmes qualités que celles requises pour un opérateur de services Cloud : des services sécurisés accessibles mondialement, de la continuité business quels que soient les aléas géopolitiques ou liés aux catastrophes naturelles, des interlocuteurs disponibles et compétents... C’est la relation de confiance élaborée avec nos grands clients qui fait qu’ils nous demandent naturellement d’opérer leur Virtual Private ‘Cloud’ en continuité de leur VP ‘N.Concrètement, cet investissement dans le Cloud a permis de :• rendre le réseau lui-même Cloud Enabled, supportant des offres de type SaaS ; c’est le cas avec la plate-forme Business VPN Galerie qui permet d’offrir un ensemble de solutions partenaires à tous les clients VPN d’Orange à travers leur VPN ou un accès Internet, offre qui rencontre déjà un grand succès• offrir, dès à présent,  tous  les services de communication unifiée (messagerie, téléphonie, web ou audio-conférence, partage de données...) en mode Cloud c’est la gamme Business Together as a Service. C’est aussi le cas de l’offre de centres d’appel qui est disponible en mode Cloud avec l’offre Flexible Contact Center• créer avec Flexible Computing une offre mondiale de IaaS et dePaaS développée avec les meilleurs partenaires dans le domaine du cloud (VMware, EMC, Cisco, NetApp, Citrix, HP…)Ces trois gammes d’offres sont déployées au cœur de notre réseau, bénéficiant ainsi de la sécurité et de la performance d’un grand opérateur, et respectant la conformité au droit français, l’un des plus contraignants en matière de protection des clients.

AXEL hAENTJENSVICE PRÉSIDENTCLOUD COMPUTING ORANGE BUSINESS SERVICES

Porteur de l’objectif d’un CA Cloud de 500 M€ en 2015, il contribue à la vision stratégique du business du Cloud Computing pour Orange Business Services, arbitre les décisions technologiques clés et le choix des partenaires, et assure la cohérence de la roadmap de lancement des produits et services Cloud.Avant cette fonction, Axel a occupé différents postes de Directeur de la Stratégie, du Marketing et de la Communication dans les sociétés du Groupe FT Orange entre 1995 et 2011. Avant de rejoindre France Telecom, Axel a exercé des fonctions de management au sein d’une start-up chez SG2, ainsi que chez SEGIN. Axel a commencé sa carrière comme Consultant en Stratégie chez SEMA Group.Axel Haentjens est de nationalité française et diplômé de l’École Centrale de Paris.