Existe-t-elle une architecture numérique des datacenters ?

21 septembre 2018by Didier GauërArchitecture et inspirations1

facebookdata6-640x385.jpg

La typologie des bâtiments des datacenters est relativement variée.
Elle est en partie liée à l’histoire très opportuniste et très fulgurante de leur déploiement.

L’histoire foncière des premiers centres de données

Les premiers datacenters s’installaient souvent au cœur des villes, dans les anciens bâtiments des centrales téléphoniques ou de l’industrie électronique.
Citons par exemple les locaux d’Orange à Paris, les tours d’anciens sièges de AT&T ou de l’ancien locaux de  NY Telephone company  et de Verizon à New York, de même les centres à Hillsboro près de Portland et à Santa Clara.

Cette première génération urbaine et périurbaine exploitait les caractéristiques des bâtiments bâtis à l’origine pour supporter de lourdes charges.
Ils bénéficiaient des conditions déjà existantes de sécurité et de connectivité.
L’histoire foncière des grands datacenters de cette première génération était ainsi liée à la transformation d’anciens bâtiments urbains.

Deuxième génération, l’âge des « boîtes à chaussures ».

   

Le déploiement rapide de la technologie cloud  dans la dernière décennie, aiguise l’appétit des investisseurs immobiliers qui y voient un potentiel rapide du retour sur investissement.
Démarre la période de  la « boîte à chaussures » pour rentabiliser vite cette charge liée à la construction neuve. Les fonds, comme Digital reality, CoreSite ou Equinix, financent dans une logique “quick winn” une architecture-entrepôt. Le but principal est manifestement le ROI rapide.
Cette architecture insipide se trouve encore dans les premiers datacenters de Google à Oregon ou chez Amazon Web Services au nord de Virginie.
Aujourd’hui, 23 centres y sont répertoriés près du hub d’Ashburn et de Sterling avec une capacité de 500MW.

Un début d’effort d’intégration dans l’environnement

Dans la récente période, commence un début d’intégration architecturale et paysagère avec les datacenters de Facebook et d’Apple à Prineville, d’Adobe à Hillsboro, de Coresite à Santa Clara ou d’Equinix à Dallas.

En France on peut citer l’effort du site d’Orange à Val-de-Reuil.
Toutefois, de nombreux centres ‘boite-entrepôt’ se trouvent concentrés sur la plaine au nord de Paris, le long de l’autoroute A1. Citons la Courneuve avec le Datacenter d’Interxion , juste en face de petits pavillons de banlieue. D’autres centres se trouvent à Vitry, aux Ulis, à Aubervilliers et à Saint-Denis.

 PAR7_courneuve-2  

Pourquoi une telle polarisation métropolitaine ?
Foxtail european datacenter
Foxtail european datacenter

Un datacenter du point de vue d’un investisseur est un produit immobilier à haute rentabilité financière dont la localisation est au cœur de sa valeur.
Les datacenters ne sont pas construits dans des espaces isolés, car ils ont besoin de se connecter aux fibres rapides et puissantes.
Il doivent aussi bénéficier de la proximité d’un important bassin d’utilisateurs et, si possible, de conditions climatiques favorables.
Ils sont aussi actuellement fortement structurés autour des hubs de l’Internet et des réseaux de fibres.

La situation en Europe

Les quatre principaux pôles européens de concentration des datacenters sont à Frankfort, Londres, Amsterdam et Paris.
Aux États-Unis à la Silicon Valley, au nord de la Virginie, près de Washington et près de New York.
La ville comme Santa Clara dénombre plus de 50 sites de stockage de données.
Cette densité d’infrastructure explique pourquoi désormais Amazon se réoriente vers l’état d’Oregon.
On constate aussi pour les géants américain un double système d’exploitation : des datacenters européens proche des utilisateurs pour les contenus à partage immédiat et  un archivage pour d’autres datas sur des serveurs aux États-Unis.

tahoreno datacenter

Rares sont de grands datacenters se situant en zone rurale. Sauf à être connectés par la fibre privée rapide, pour compenser l’éloignement physique. C’est par exemple le cas de Facebook à Oregon.
Un datacenter isolé comme Taho-Reno n’est pas du tout représentatif du phénomène global des implantations.

Voilà plutôt donc une nouvelle pierre à l’édifice de la course à la concentration péri-urbaine et à la désertification rurale.

 

Impact écologique des datacenters

Les datacenters représenteront les plus importants postes de consommation électrique de notre siècle.
En parlant des réseaux numériques et du virtuel, on oublie parfois qu’il s’agit aussi des infrastructures physiques dont l’impact écologique n’est pas neutre.

MicrogridAvec le flux de données qui augmente de 25% chaque année, la consommation énergétique des datacenters est un sujet fondamental, dont on ne parle pas suffisamment.

En 2013, le secteur informatique (réseaux, matériel et datacenters) consommait environ 7% de l’électricité mondiale, les prévisions parlent de plus de 50% à l’horizon de 2030.
Ces infrastructures sont majoritairement intégrées dans les cercles d’échanges des villes, dont ils modifient sensiblement la consommation de l’énergie.
Certaines acteurs cherchent à devenir  énergétiquement autonomes.
Les Big TECH investissent ainsi dans les filiales énergétiques (Apple Energy, Microsoft avec Microgrid investment Accelerator ou encore Facebook).

L’architecture de l’infrastructure numérique, entre le mythe et la réalité

Il n’y a pas réellement une architecture de l’industrie numérique comme existait une architecture de l’électricité et du ferroviaire.
Pour les datacenters en tout cas, la rapidité de développement de l’Internet a favorisé, des choix d’implantation très opportunistes et parfois mal anticipés.
Avec comme principal objectif, la rapidité de mise en oeuvre et la rentabilité de la construction. Voilà une vision donc purement économique et technologique.

La « Smart city » est -elle porteuse d’un potentiel de renouvellement de l’architecture y compris de ces «  objets-datacenters » ?

Il n’est pas simple d’y répondre.
Il faut sans doute distinguer deux logiques dans la mise en œuvre de l’habitat augmenté et de la ville intelligente :

  • l’intégration dans les villes existantes,
  • la création de villes nouvelles.

La Smart city est caractérisée par l’intégration d’une logique d’analyse comportementale et informatique appliquée à l’urbanisme. C’est donc une infrastructure totalement invisible.
Il s’agit avant tout des outils mathématiques orientés vers la prévision, la prédiction et la prescription à partir de données et de calcul.

Ajoutons à cela ensuite la démultiplication des dispositifs de capteurs pour le projet de la ville ‘augmentée’. Un projet (ou un mythe) de la ville intelligente reste avant tout un projet 100% technologique, lorsqu’il s’agit de son intégration au sein d’une ville existante.

La partie visible, physique, de cette technologie liée au numérique sont des infrastructures sans architecture remarquable, réparties en zone urbaine ou péri-urbaine.

Les perspectives d’apparition de nouveaux espaces et de nouveaux usages

Une autre logique urbanistique et architecturale émergera (ou pas) dans des projets de création de villes augmentées. A l’image du projet de création de quartier Quayside à Toronto. Nous consacrons un article complet au sujet.
Un changement important viendra aussi de la gestion améliorée des flux de trafic. La disparition des parkings et des grandes routes encombrées  modifierait sensiblement les espaces de la ville. Si l’apparition massive de l’usage des véhicules personnels  au 20 ème siècle a éclaté la ville en zones spécialisées, nous pouvons espérer qu’un phénomène inverse se produise en partie.
La façon d’organiser les espaces pourrait donc radicalement changer. Elle pourra apporter de nouveaux usages, qui se développeront dans de nouveaux lieux de vie.
Notons toutefois, que le principal projet de l’architecture augmentée à l’échelle d’un nouveau quartier, se trouve dans les mains d’une filiale de Google (Sidewalk lab).
Nous avons consacré un autre article sur ce sujet, qui mérite une sérieuse réflexion.

Quelles nouvelles pistes se dessinent autour de la construction des datacenters à l’avenir ?

Nous avons en Europe des villes anciennes et denses. Ceci implique une certaine façon de réfléchir à l’intégration de l’intelligence numérique dans les villes.
Il faudra raisonner surtout en terme de transformation de la ville, plus qu’en terme d’une reconstruction totale à l’américain ou à la chinoise.

Un second point à noter : l’éclatement des infrastructures.

qarnot_modele de chauffageIl est question de la création de petits datacenters relais « edge data centers » qui vont démultiplier la connectivité en zone dense.
Il est donc possible de raisonner plus en terme d’éclatement de l’infrastructure centrale dans les espaces où se concentrent des usages (par exemple pour favoriser les véhicules autonomes).
De même, la puissance de calcul pourra être délocalisée dans certains objets numériques. Il s’agit de la délocalisation des serveurs dans les bâtiments au travers des infrastructures comme des chaudières numériques (ex. la chaudière de Stimergy) ou encore les radiateurs (ex.Qarnot computing).

chaudière stimergyLe sujet est  donc l’intégration massive de la donnée vers l’intérieur des bâtiments collectifs.
Au même titre que l’énergie qui peut être coproduite par les bâtiments à énergie positive à l’échelle unitaire.

Un parfait exemple est la technologie Stimergy qui permet d’installer les serveurs informatiques dans les chaufferies de bâtiments. Grâce à cette architecture distribuée sur des sites éclatés le système permet de fournir des services nécessaires à la sauvegarde, réplication de données dans le Cloud et au calcul.
En récupérant ensuite la chaleur produite par le datacenter, on utilise cette énergie pour alimenter la chaudière numérique.

Mais, est-il possible de se détacher du monopole des Big Tech?

Cette question se pose pour la mise en place de projets de Smart city, comme elle se pose à chaque entreprise et chaque collectivité européenne.
Un premier pas consiste à se réapproprier la structure de l’Internet en pratiquant l’auto-hébergement. Des solutions de cloud en pair à pair émergent et elles sont tout à fait opérationnelles.

owncloud foundationÀ titre d’anecdote, notre agence, qui a eu toujours une culture un peu geek, est passée à l’action.
Nous avons déjà adopté  le logiciel open source Owncloud pour la prise en main de la protection de nos datas. Nous avons créé notre propre plateforme d’échange de données avec une messagerie partagée. Cette solution d’auto-hébergement nous permet de piloter les échanges avec un maximum d’autonomie.
CozyCloudIl et SlapOs représentent une alternative à Owncloud.
Ce n’est pas simple à mettre en place. Il faut de la compétence réseau et une dose de volonté, mais cela fonctionne parfaitement. Si une agence indépendante, comme la nôtre, peut le faire, une collectivité ou un quartier aura encore plus de moyens pour réussir.

Il faudra envisager une autre façon de créer des villes augmentées, évitant de donner les clés aux GAFAM.

Cela signifie aussi de s’abstenir à fabriquer les villes nouvelles, sous forme de ghettos technologiques, autour de nos villes anciennes.

Les plus grands utilisateurs de réseaux numériques sont actuellement les banques et la finance. Il sera difficile de les sortir des infrastructures Gafam mondiales. Toutefois, la société civile et les collectivités ont parfaitement la possibilité de développer des solutions avec des data centers lowtech, gérés localement et en open source . Il faut favoriser la distribution éclatée des serveurs dans les bâtiments tertiaires et collectifs.

Il faut également que nos territoires soient capables de mener une réflexion sur une pratique numérique plus raisonnée et moins monopolistique. Sans tomber dans des utopies hautement centralisatrices.  Comme ces mirages proposés comme l’unique alternative par les consortiums industriels, que ce soit Bouygues ou Google ou Vinci.

En conclusion :

Il semble fondamental pour l’Europe de se pencher sur la notion de bâtiment intelligent et de centres de data distribués, avant de s’attaquer à la construction de villes nouvelles ‘intelligentes’ pilotées par un data centre unique.
Un prestataire industriel ou informatique proposera toujours un modèle économique centralisé, car sa rentabilité dépend de la maîtrise hollistique de tous les flux. En cas de dysfonctionnement de ses services, la ville sera dans une totale dépendance et aura du mal à trouver une alternative.

Didier Gauër

Architecte DPLG depuis 1986 et fondateur de l'agence d'architecture Zebrand’co, Didier est spécialisé en architecture des établissements d'enseignement supérieur. Sa passion : concevoir des environnements et espaces pour favoriser le bien-être des étudiants et l'innovation pédagogique des enseignants. Education#Architecture.

Leave a Reply

Your email address will not be published. Required fields are marked *