MooseFS, un système de fichiers distribués

July 30, 2010

MooseFSUn billet un peu technique dans le calme de l’été pour vous parler de MooseFS. MooseFS est un système de fichiers répartis à tolérance de panne. Il vous permet de déployer assez facilement un espace de stockage réseau, répartit sur plusieurs serveurs.

Cette répartition permet de gérer la disponibilité des données, lors des montées en charge ou lors d’incident technique sur un serveur. L’atout principal de MooseFS, au delà du fait qu’il s’agisse d’un logiciel libre, est sa simplicité de mise en œuvre. Lire la suite »


100 milliards d’objets stockés sur Amazon S3

March 14, 2010

amazon-web-servicesLe service de stockage d’Amazon vient de passer un cap important, 100 milliards d’objets stockés ! En quelques années ce service s’est imposé comme une référence dans le monde du stockage Clouds. Beaucoup de sociétés l’utilisent pour gérer leur croissance. Notamment les sociétés éditrices de service web ou SaaS.

Lire la suite »


LucasFilm, DreamWorks, la haute volumétrie pour le cinéma

June 25, 2009

lucasfilmLors d’un récent billet j’avais déjà évoqué en quoi l’augmentation de puissance des composants informatique permettait de créer des vidéos impossibles il y a encore quelques années. Ici nous changeons de dimension puisqu’il s’agit de deux leaders sur le marché de la création des effets spéciaux pour le cinéma et/ou les films d’animation comme : Star Wars, Terminator and Indiana Jones, Shrek, etc …
Lire la suite »


Elastic MapReduce : Un nouveau service dans les Clouds d’Amazon

April 28, 2009

amazon-web-services-mapreduceDécidément ils sont très actifs chez Amazon web services, en trois ans ils auront mis en place un système de service distribués trés complet (Cloud EC2, SimpleDB, Storage S3, Queue Service SQS). Le dernier en date concerne MapReduce, j’avais d’ailleurs déjà évoqué cette possibilité il y a un peu plus d’un an à la fin de cette note. Mais au fait ça sert à quoi MapReduce

Lire la suite »


Le traitement des hautes volumétries appliqué à la vidéo

April 24, 2009

canon-5d-mkiiLa gestion des volumes de données de plus en plus importants permet de créer des architectures mais aussi des productions artistiques impressionnantes. C’est le cas de la vidéo que vous pourrez découvrir dans ce post. En effet depuis une dizaine d’année la taille des capteurs numériques, leurs sensibilités ainsi que leur fréquences d’enregistrement n’ont cessés d’augmenter.
Lire la suite »


CloudFront : Amazon lance son service de CDN (Content Delivery Network)

November 18, 2008

On me pose souvent la question du coût des solutions de CDN Akamai pour gérer la disponibilité d’un site. Et en général le problème majeur avec cet acteur vient des frais de fonctionnement et de mise en service. En effet au delà de l’engagement contractuel sur la durée la mise en place d’une solution Akamai est relativement coûteuse pour des “petits” acteurs.

Cette annonce d’Amazon est donc une très bonne nouvelle pour le segment des sites de taille moyenne, trop petits pour négocier avec Akamai et gérant déjà un trafic suffisamment important pour être obligé de mettre en place des solutions de cache distribués, des CDN.

Concernant l’offre d’Amazon, elle ne m’étonne pas beaucoup et elle vient compléter les autres produits de la gamme. Pour les tarifs vous trouverez tout sur le site, mais voici un premier aperçu : Lire la suite »


A l’intérieur du DataCenter Microsoft Windows Azure

October 30, 2008

Vous l’avez peut-être déjà lu, Microsoft ouvre également sa plate forme de Clouds Computing. A cette occasion le service de presse de Microsoft a autorisé la BBC a visiter son nouveau centre de données. Rien de spécial dans cette visite, c’est un datacenter comme les autres, il faut néanmoins souligner l’impressionnante quantité de stockage.
Puisque au dire de Mike Manos (Directeur en charge des centres de données chez Microsoft) ce centre est capable de stoker des billions (=des milliers de milliards) de photos.
Lire la suite »


Facebook héberge plus de 10 milliards de photos !

October 15, 2008

Avec plus de 10 000 serveurs, FaceBook continue sa progression. Aujourd’hui nous apprenons (via ce post) que le site gère plus de 10 milliards de photos ! Après le passage du cap des 100 millions d’utilisateurs actifs dans le monde (en Aout dernier) c’est un nouveau record qui vient d’être battu. Dans cette note nous apprenons également que le site gère désormais :

  • Plus d’un pétaoctet de stockage pour les photos.
  • La livraison de 15 milliards d’images par jour.
  • Et tous les jours plus de 2.3 téraoctets de photos sont téléchargées sur le site. Lire la suite »

Copan System : Stocker 896 To dans une baie ultra dense

October 8, 2008

Avec la numérisation totale des échanges la sauvegarde des données devient de plus en plus importante. Dans certains cas c’est même une obligation légale, mais les volumétries explosent et les solutions développées en interne sont de moins en moins rentables et adaptées. Il existe de nombreuses solutions de stockage mais celles de COPAN sont sans nul doute les plus denses.

En effet cette solution permet de stocker 896To dans une baie ! Et en plus de la densité de la solution, COPAN intègrent des mécanismes d’économies d’énergie permettant d’arrêter les disques quand ils ne sont pas utilisés. Du coup c’est plus de 85% d’économie électrique et donc des dégagements calorifiques moins importants. C’est très utile car en général ces baies sont utilisées lors des sauvegardes puis en pause pendant plusieurs heures. Lire la suite »


Infrastructure Google et systèmes distribués (BigTable, MapReduce, GFS)

April 28, 2008

Lors du dernier Symposium dédié au calcul haute densité Jeff Dean de Google a présenté une partie des éléments techniques qui sont à la base de Google.

On peut (re)-découvrir dans cette présentation, l’architecture technique (à base de PC/ type carte mère). Mais surtout Jeff détaille l’architecture distribué, en présentant notamment : GFS, BigTable, MapReduce.

Google: Current Systems and Future Directions Google Design

Dans la seconde partie vous trouverez des détails sur les futures évolutions de Google. En terme d’automatisation mais également de quelle manière ils souhaitent gérer la distribution des données entre leurs datacenters dans le futur. Lire la suite »