juin 2016

Comment éviter les goulets d’étranglement dans le traitement des big data ?

Lors du Big Data Seminar de LCL, nous avons eu un aperçu des processeurs, DRAM et SSD de dernière génération.

Ils ont aussi été largement testés et des explications ont été données sur la manière de les configurer pour obtenir les meilleurs résultats dans le traitement des big data.

 

Alfredo Bonafede de HPE HPE a exposé l’enjeu : d’ici 2020, 40 zettaoctets (ou 40 billions de Go) de données seront disponibles en ligne. Nous serons confrontés à des possibilités et des défis sans précédent. Cette gigantesque quantité de données doit être mieux sécurisée, mais aussi mieux utilisée. Aujourd’hui, seule une fraction des données disponibles est utilisée pour dégager des connaissances significatives. Mais si l’on est par exemple en mesure de débarrasser les banques de données médicales de toutes les données sensibles au respect de la vie privée, de nombreuses conclusions intéressantes pourraient en être tirées.
HPE recommande aux entreprises qui souhaite envisager les big data de revoir totalement l’architecture de leurs serveurs. Les applications de traitement des données ont besoin de serveurs ultrarapides avec une puissance de calcul phénoménale, tandis que les données peuvent sans problème être stockées sur des serveurs qui ne soient pas parmi les plus performants. Une répartition intelligente du local serveur peut donc générer des économies substantielles.
Raphael Monten d'Intel est venu présenter la dernière version du processeur Xeon E5. Il offre surtout de meilleures performances grâce à un cryptage plus rapide. Élément intéressant pour les entreprises qui travaillent avec des applications cloud, le nouveau processeur permet une bien meilleure orchestration des ressources du serveur : il est possible de savoir directement combien de CPU et de mémoire consomment les différentes applications cloud, et grâce à ces paramètres sur la performance, d’équilibrer plus efficacement les serveurs.
Intel a également présenté sa dernière gamme de supports de stockage : les flash drives ultrarapides de dernière génération.

Ces nouveaux SSD ont immédiatement été passés au crible par Wannes De Smet, chercheur IT du Sizing Servers Lab.Il a fait travailler les modèles dernier-cri d’Intel avec une charge de travail réaliste, comme on devrait en rencontrer dans une entreprise belge, et a comparé les prestations avec celles d’un SSD plus modeste au prix plus démocratique par Go.
Un premier test, agrémenté d’une bonne portion de big data, a livré un résultat surprenant : les différences de performance sont restées étonnamment limitées. La raison ? Le traitement des big data ne requiert pas de prestations intensives du disque. Dans le deuxième test, les SSD ont été utilisés sur une base de données transactionnelle classique et les différences se sont révélées significatives. Dans ce cas-ci, le prix supplémentaire par Go en valait clairement la peine.

Adrien Viaud deKingston Technology a exposé plus en détail l’amélioration de l’intégrité des données, des prestations et de la bande passante (et la plus faible consommation énergétique) de la DDR4 DRAM. Il a également expliqué quelles configurations mènent aux meilleures performances et donc comment parvenir à une capacité et une vitesse optimales des serveurs.

Johan De Gelas, qui est à la tête du Sizing Servers Lab, a en outre testé certaines de ces configurations avec une véritable charge de travail big data. Le CPU s’est avéré le principal goulet d’étranglement, suivi par la mémoire, tandis que le stockage semblait le moins problématique. Il est donc recommandé, pour les entreprises qui travaillent avec des big data, d’investir essentiellement dans des processeurs rapides, et ensuite dans la DRAM. Sizing Servers a en outre partagé quelques meilleures pratiques sur la configuration la plus efficace des serveurs.
Cette configuration optimale est environ 35 % plus rapide qu’une configuration standard out-of-the-box.

Le dernier orateur de la journée était notre Managing Director Laurens van Reijen.
Il a exposé sa vision du centre de données de demain. Alors qu’un centre de données comme LCL forme déjà aujourd’hui un écosystème hyperconnecté avec les entreprises, les fournisseurs réseau et les intégrateurs de systèmes, la connectivité augmentera encore dans le futur : les grands centres de données collaboreront aussi plus étroitement afin d’utiliser le cloud à l’extrême. La sécurité des données de chaque client reste bien sûr la principale préoccupation d’un centre de données digne de ce nom.

 

 

LCL, votre partenaire en data center outsourcing