Cloud

Transition du Legacy vers le Mainstream

Posted by brain in Cloud on 28 octobre 2017 with No Comments

Bonjour à tous, il y a quelques jours lors de la publication du point sur Digital Network en 2017 que je vous invite à lire si vous ne l’avez pas déjà fait, j’ai notamment eu l’occasion de vous expliquer la transition métier que nous avons effectuée au cours des 4 dernières années, du métier de DSP (Datacenter Service Provider) à celui de MSP (Managed Services Provider).
 
Comme tous les acteurs des écosystèmes Cloud & Datacenter, nous avons à gérer du Legacy (pour ceux d’entre vous qui ne sont pas familiers avec ce concept, il s’agit de l’ensemble des infrastructures et des systèmes encore utilisés pour des raisons de criticités historiques malgré leur obsolescence technologique) qui impacte souvent directement la “dette technologique” de l’entreprise, (ce qui peut avoir comme conséquence notamment de ralentir l’innovation).
 
Par exemple, nous sommes obligés de maintenir certains systèmes clients reposant sur des versions qui ne sont plus supportées depuis près de 10 ans : ces systèmes n’étant pas compatibles avec les outils modernes nous obligent, à notre tour, à maintenir des systèmes internes permettant leur explication et leur supervision également obsolètes, etc.
 
Il y a déjà quelques temps, nous avons pris la décision de ne pas prolonger les contrats mutualisés existants pour ces mêmes raisons, où certaines infrastructures font encore tourner du php4 ou du php3 avec des versions de MySQL 3 & 4.
 
Afin de pouvoir vous proposer les meilleurs services possibles que ce soit en terme de qualité, de redondance, de performances ou de prix, nous allons accélérer cette transition avec pour objectif d’avoir migré 100% du Legacy vers le Mainstream d’ici fin 2018 à la fois sur les infrastructures et systèmes clients, ainsi que sur l’interne.
 
Il y a un peu plus d’un an, nous avons du opérer, afin de prolonger ce Legacy, une migration de nos infrastructures historiques situées sur le site France Sud Digital Dimmension, vers TDF Realtor, notamment à cause des projets de type Capex dans lesquels les clients sont propriétaires de leurs propres infrastructures.
 
L’exploitation de ces dernières, qui pour la plupart reposent sur du matériel ancien est extrêmement lourde, car la plupart d’entre vous ne sont pas outillés, que ce soit techniquement ou humainement pour fonctionner de la sorte : nous nous sommes donc retrouvés pour ne pas vous laisser dans l’embarras technique à sortir de nos prérogatives et à devoir réparer votre propre hardware souvent à nos frais, notre modèle de fonctionnement n’étant pas adapté à ce métier.
 
Nous avons déjà arrêté il y a maintenant un an l’ouverture de nouveaux projets de type CAPEX : nous pouvons vous accompagner dans cette problématique pour trouver le bon acteur, prendre en charge le full management de votre projet, assurer la maîtrise d’ouvrage, mais nous ne souhaitons plus être nous même fournisseur de ces services. Nous avons donc pris la décision de ne pas reconduire ce type de contrat.
 
Beaucoup d’entre vous ont alors décidé de migrer sur nos offres full managées qu’il s’agisse de serveurs dédiés ou de Cloud (Public & Private), mais vous restez quelques uns à avoir continué sur l’ancien modèle. Nous avons prolongé cette activité aussi loin que possible, afin d’accompagner jusqu’à la fin de vie de son infrastructure Legacy notre plus ancien client, que nous accompagnons maintenant depuis 1999 !
 
L’arrêt du Legacy ne concerne pas que le housing, mais également les systèmes trop anciens qui ne sont plus maintenus par les éditeurs. Là aussi (et nombre d’entre vous ont déjà commencé), nous allons vous proposer des migrations des systèmes obsolètes vers les nouveaux systèmes.
 
Le site lui même de Realtor est concerné par cette migration : avec des performances supérieures de 30 à 180% à ces systèmes au sein de nos nouvelles installations, ainsi qu’un catalogue de services intégrés bien plus important, même les PRA seront migrés petit à petit. Cette opération nous permettra également de récupérer plus de 3000 adresses IP pour nos nouvelles infrastructures.
 
Enfin ce sont nos propres outils internes qui seront migrés afin de permettre une unification des outils et procédures utilisées pour l’ensemble des clients : vous pourrez ainsi tous profiter de l’ensemble des innovations permettant une qualité de service toujours meilleure (monitoring, gestion du support, exploitation, bot, intelligence artificielle, etc.)
 
Christophe Casalegno
Founder & CETO (Chief Executive & Technologies Officer).
You can follow me on : Twitter | Facebook | Linkedin | Telegram

Support infogérance Plesk & Cpanel

Posted by brain in Cloud on 6 août 2016 with No Comments

Bonjour à tous,
 
Nous sommes heureux de vous annoncer que nous supportons désormais dans le cadre de l’infogérance, les 2 plus grands standard mondiaux en terme de panel d’hébergement : Plesk et Cpanel.
 
Il est donc maintenant possible de commander un serveur cloud intégrant l’une ou l’autre des solutions tout en bénéficiant du support et de l’infogérance Digital Netcom en 24/7.
 

Christophe Casalegno
https://twitter.com/Brain0verride

Prochaine sortie des offres d’externalisation globales.

Posted by brain in Cloud on 23 juillet 2016 with No Comments

Depuis environ 1 an et demi toutes nos forces sont concentrées sur notre pôle de R&D : nouvelles plateforme de cloud, nouveaux réseaux, nouveaux datacenters, nouveaux partenaires, nouveaux services, nouveaux produits. TDF, Proxmox, OVH, Citrix, CloudFlare, Zimbra : quelques noms parmi beaucoup d’autres que vous nous avez entendu évoquer dans le cadre de la création de nouveaux produits, de la signature de nouveaux accords, etc.

Au delà d’étendre simplement notre offre, chacun de ces choix, chacun de ces accords fait partie d’une stratégie précise mise en place dans le cadre de notre future offre d’externalisation globale de système d’information. Si la fusion de nos normes DCN (Digital Certified Network) et DCD (Digital Certified Datacenter) vers la norme DCI (Digital Certified Infrastructure) nous a permis nous a permis de d’étendre notre plateforme de cloud NetCloud au travers du réseau d’interconnexion unique d’OVH via l’interconnexion des infrastructures dans un même réseau privé en full 10 Gb/s entre Roubaix, Strasbourg, Gravelines et BeauHarnois (Canada), le contrat cadre de 3 ans signé avec TDF va nous permettre de répondre à une contrainte extrêmement délicate dans ce métier : le service de proximité.

Nous serons ainsi capables, d’ici le mois de septembre (l’infrastructure est actuellement en cours de validation) d’accéder au réseau TERAWAY de TDF : 5 000 Km de fibre noire, plus de 17 Tb/s de capacité, le tout livrant 30 POP fibres en France dont les 4 datacenters « ProxiCenters » de TDF. C’est d’ailleurs dans le fleuron de la « flotte » des Datacenters TDF : le site de Realtor situé à Aix-en-Provence, que nous avons décidé d’implanter le cœur de notre nouvelle infrastructure pour la zone France Sud.

Vous aurez notamment remarqué la réapparition de la rubrique Datacenter housing (en cours de refonte pour s’adapter à nos nouvelles lignes de produits et de services), qui découle directement de ce partenariat.

Dans le même temps Digital Netcom Limited, la structure Irlandaise opérant la marque Digital Netcom sur la zone Europe anglophone, dispose désormais d’un réseau unique en Irlande reliant les villes de Dublin, Limerick, Galway et Cork, le tout connecté à la plus importante fibre optique à ce jour reliant l’Europe aux USA.

Réussir une externalisation de système d’information en apportant à la fois une baisse des coûts mais également une amélioration de la productivité repose en effet avant tout sur la capacité des infrastructures réseaux et datacenters à répondre aux besoins des clients, mais ce n’est pas tout :

Si nous disposons historiquement de fortes compétences dans les domaines linux et serveurs, nous manquions cruellement de solutions pour l’externalisation des postes de travail ainsi que pour les systèmes d’information internes des entreprises. Nous avons donc pris du temps pour rattraper notre retard tout en apportant ce qui manque cruellement à ce type d’offre actuellement : la haute disponibilité, la stabilité et la sécurité, notamment pour des éléments clefs tel que l’externalisation des postes de travails et des applications clientes (au travers de nos nouvelles solutions Citrix XenApp et XenDesktop) ainsi que de l’externalisation complète de messagerie au travers de notre nouvelle ligne de produits Zimbra. Nos travaux sont terminés à 90% et nous commençons déjà à nous occuper de projets d’externalisation globale en ce moment même.

 

Christophe Casalegno
https://twitter.com/Brain0verride

Ubuntu Linux 16.04 LTS Xenial Xerus disponible sur les offres Digital Netcom

Posted by brain in Cloud on 24 avril 2016 with No Comments

Après l’annonce de Canonical indiquant la sortie de la dernière version d’Ubuntu, nous avons intégré la distribution Ubuntu Linux server 16.04 LTS Xenial Xerus sur l’ensemble de nos plateformes : cloud public, cloud privé and VPS.
 
A noter qu’il s’agit d’une version LTS (Long Term Support) et qu’à ce titre elle sera maintenue par Canonical durant 5 ans ce qui en fait un choix judicieux pour les projets à long terme.
 
Ubuntu
 
Cette 6ème version LTS pour Ubuntu est également la première version à être supportée sur mainframe.
 
Cette version comporte de nombreuses améliorations tel que snap qui permet des mises à jours plus rapide et plus simples (moins de dépendances) ou encore LXD qui permet d’envisager des solutions de cloud computing ultra-rapides et ultra-denses.

Digital Netcom déploie les premiers datacenters distribués quantiques

Posted by brain in Cloud on 1 avril 2016 with No Comments

Nos équipes sont fières d’annoncer le déploiement du premier datacenter quantique distribué.
 
Après plus de 3 ans de recherches, les équipes de nos laboratoires ont pu décoder les mystères de l’intrication quantique. Rappelons que d’après les principales théories de la physique quantique, 2 objets intriqués, même s’ils sont séparés par une grande distance, sont considérés comme un seul système global. Or nos équipes ont réussi à expliquer puis à exploiter ce phénomène :
 
Il existe au niveau quantique une dimension tellement repliée sur elle même qu’elle reste imperceptible à notre échelle, mais pas à l’échelle des particules élémentaires. Pour simplifier, imaginons une feuille de papier (c’est à dire un univers à 2 dimensions). Sur cette feuille, vous pouvez dessiner 2 points qui peuvent être physiquement très éloignés l’un de l’autre (en fonction de la taille de la feuille). Pourtant, il suffit de rajouter une dimension, en pliant la feuille, ou de manière à en faire un cylindre aplati pour faire retrouver ces 2 points en contact l’un avec l’autre ou à très courte distance l’un de l’autre.
 
C’est exactement la même chose qui se passe à l’échelle quantique : Les 2 particules intriquées ne « communiquent » nullement par magie : elles sont en contact au travers d’une dimension microscopique. Il restait à savoir comment contrôler cette dimension de manière à pouvoir l’utiliser de manière à mettre au point un réseau sans aucune latence.
 
quantic datacenter
 
Depuis maintenant plus de 6 mois, nous déployons des micro-datacenter de 2m3 partout dans le monde : chaque microdatacenter est de niveau TIER4 et intègre : une double alimentation électrique, un système refroidissement passif effectué via la coque extérieure du Datacenter qui est elle même constituée d’un matériau quasi indestructible, ainsi qu’une interconnexion quantique à la fois interne et avec les autres micro-datacenter déployés dans le monde.
 
Concernant le stockage, nous avons résolu le problème de la plupart des solutions en virtualisant totalement les contrôleurs de stockage : grâce à notre système de communication quantique breveté, l’ensemble des stockages situés dans l’ensemble des microdatacenters déployés peuvent fonctionner comme un stockage distribué et répliqué global, sans aucune latence, et extensible à volonté. Dans les modèles actuels, ce sont les derniers SSD Samsung de 15 To qui ont été utilisés, ce qui permet de stocker dans nos baies de disques 2U à communication quantique 96 SSD 2 pouces et demi, soit 1440 To pour 2U. C’est sur cette solution que repose désormais nos solutions de cloud public et de cloud privé.
 
L’ensemble des bus de communication entre la mémoire, le processeur et les autres composants ont également été remplacés par une interface virtuelle quantique, ce qui permet d’éviter tout type de goulot d’étranglement. Seul problème pour l’instant : le protocole de routage quantique permettant de relier les différents composants et microdatacenters entre eux ne fonctionne qu’avec IPv6.
 
Actuellement les modèles déployés sont équipés de 28.800 to de stockage SSD, et de 960 processeurs Intel de dernière génération pour 240 To de RAM et devraient être prochainement disponibles à la vente au tarif de 6,9 millions d’euro par unité.
 
NB : ceci est un poisson.

Testez gratuitement notre nouvelle offre de Cloud Haute disponibilité Netcloud

Posted by brain in Cloud on 25 février 2016 with No Comments

Digital Netcom vous propose de tester gratuitement pendant 10 jours sa nouvelle plateforme de cloud Netcloud v3 haute disponibilité et hautes performances. Les principales nouveautés :

Triple redondance des hyperviseurs

– L’ensemble des connexions et interconnexions passent en full 10 Gb/s
– Données de production sont stockées sur des baies de disques ZFS à 2 têtes maître / esclave
– Un snapshot global au niveau du stockage est effectué toutes les heures
– Une sauvegarde globale est effectuée toutes les 24H00 sur le même site
– Une sauvegarde intégrale des VM est effectuée toutes les 24H00 sur un second datacenter.
30 Gb/s en entrée sur chaque unité de cloud
750 Mb/s de transit internet intégralement provisionné (upgradable à 10 gb/s à la volée)
Réseau privé entre vos VM de 1 à 10 Gb/s
Anti-DDOS à mitigation dynamique inclus pour tous l’ensemble des clients
– Temps moyen d’intervention sur incident 24/7 : < 7 minutes
– Performances en écriture moyenne entre 200 et 300 Mo /seconde
1,5 To de trafic inclus

– Possibilité de choisir une géolocalisation en France, en Irlande et en UK


Vous pouvez cliquer sur le schéma pour l’agrandir

Infrastructure Netcloud v3

Infrastructure Netcloud v3

Réception et déballage des nouvelles unités de Cloud

Posted by brain in Cloud on 26 avril 2014 with No Comments

Déballage et vérification des nouvelles unités de Cloud Supermicro : toujours par paires : 2 x 32 cœurs physiques par machine sur la base de processeurs AMD Opteron, 2 x 256 Go de RAM, 2 x 12 disques de 2 To et 4×512 Go SSD Samsung 840 Pro utilisés avec la technologie Cachecade 2.0 de LSI et 2×2 ports 10 Gb/s dédiés à la réplication.

Ces prototypes seront montés toujours sous Proxmox mais avec une tentative d’implémentation de CephFS au lieu de DRBD. Si les tests sont concluants, les 12 autres unités similaires seront installées sur la base de ce nouveau socle.

MariaDB 10 disponible sur le Cloud Digital Network

Posted by brain in Cloud on 1 avril 2014 with No Comments

MariaDB

MariaDB, la solution SGBD alternative à MySQL crée par Michael Widenius (le fondateur de MySQL) vient d’arriver en version 10 et est dès à présent disponible sur le Cloud DNS.
 
MariaDB a commencé à s’imposer en devenant le nouveau SGBD standard installé sur les distributions Linux telles que Fedora, Mageia, Opensuse et plus récemment Redhat. Sa quasi-totale compatibilité avec MySQL lui a notamment permis de s’imposer et de remplacer ce dernier, dans de grands projets tels que Wikipedia ou Google.
 
Pour un comparatif rapide entre MySQL 5.6 et MariaDB 10 vous pouvez consulter le lien suivant : Comparatif Mysql vs MariaDB

Back to Top

Follow us on Twitter to receive updates regarding network issues, discounts and more.
2018 © Digital Network. Powered by Wordpress. Theme by Serifly.

%d blogueurs aiment cette page :