40
FlashInformatique.epfl.ch p/a EPFL - Domaine IT - Station 8 - CH 1015 Lausanne - tél. +41 21 69 322 11 7 3.12.2013 tout public public averti expert Actualités DIT-info 2 Dernier numéro du FI J.-C. Berney 3 Forum IT d'automne 19 Du HP 2116 au BlueGene/P Musée Bolo 22 FlashiPhone F. Roulet 24 Coup d'oeil sur Cyclope F. Roulet 37 Disparition d'un compagnon de route A. Raposo de Barbosa 38 Qui a tué le FI ? J. Dousson 40 Analyse La méthode HERMES V. Rezzonico 9 Sauvegarde sur disque P. Beaud 12 Sauvegarde avec Atempo L. Kling 15 L'EPFL et les superordinateurs V. Keller & A. Raposo de Barbosa 20 Linux, IPv6 et la sécurité M. Ouwehand 23 Comment l’iPad a changé l’informatique L. Kling 26 MUlti-SYstem OPtimisation HES-SO Valais-Wallis 29 Comment faire ? Le courrier du lecteur 17 Installer Linux avec GRUB B. Barras 18 Algorithme de calcul d'une racine carrée B. Barras 32 Logiciel libre KrISS et Leed R Grolimund & I. Milhit 4 pages 3, 37 et 38 Le FI c'est FINI !

Flash informatique 2013 - no 7

  • Upload
    epfl

  • View
    232

  • Download
    8

Embed Size (px)

DESCRIPTION

Journal informatique de l'Ecole Polytechnique Fédérale de Lausanne du 3 décembre 2013

Citation preview

Page 1: Flash informatique 2013 - no 7

FlashInformatique.epfl.ch

p/a EPFL - Domaine IT - Station 8 - CH 1015 Lausanne - tél. +41 21 69 322 11

7 3.12.2013

tout public public averti expert

ActualitésDIT-info 2

Dernier numéro du FI J.-C. Berney 3

Forum IT d'automne 19

Du HP 2116 au BlueGene/P Musée Bolo 22

FlashiPhone F. Roulet 24

Coup d'oeil sur Cyclope F. Roulet 37

Disparition d'un compagnon de route A. Raposo de Barbosa 38

Qui a tué le FI ? J. Dousson 40

AnalyseLa méthode HERMES V. Rezzonico 9

Sauvegarde sur disque P. Beaud 12

Sauvegarde avec Atempo L. Kling 15

L'EPFL et les superordinateurs V. Keller & A. Raposo de Barbosa 20

Linux, IPv6 et la sécurité M. Ouwehand 23

Comment l’iPad a changé l’informatique L. Kling 26

MUlti-SYstem OPtimisation HES-SO Valais-Wallis 29

Comment faire ?Le courrier du lecteur 17

Installer Linux avec GRUB B. Barras 18

Algorithme de calcul d'une racine carrée B. Barras 32

Logiciel libreKrISS et Leed R Grolimund & I. Milhit 4

pages 3, 37 et 38

Le FIc'estFINI !

Page 2: Flash informatique 2013 - no 7

3 DÉCEMBRE 2013 - N° 7flash informatique222

ImpressumRevue consacrée aux technologies de l’information, éditée par le Domaine IT de l’EPFL (DIT). Les articles n’engagent que leurs auteurs, sauf ceux qui concernent de façon évidente des prestations officielles (sous la responsabilité du DIT ou d’autres entités). Toute reproduction, même par-tielle, n’est autorisée qu’avec l’accord de la rédaction et des auteurs.

Rédacteur en chef a.i.:Appoline Raposo de Barbosa, [email protected] en page & graphisme: Appoline Raposo de BarbosaComité de rédaction:Jean-Daniel Bonjour, Sébastien Ferrara, Patrice Fumasoli, Florence Hagen, Laurent Kling, Michel Naguib, Julia Paolini, François Roulet, Christophe Salzmann & Predrag Viceic

Impression: Atelier de Reprographie EPFLTirage: 4000 exemplairesAdresse Web: flashinformatique.epfl.chAdresse: Domaine IT EPFLStation 8, CH-1015 LausanneTéléphone: +41 21 69 32246 & 32247Abonnement au fi par e-mail à: [email protected]

Actualités

DIT-info

Tristesse

Quelle tristesse, jeudi 14 novembre 2013, notre collègue Michel Mengis nous a quit-tés après une longue maladie, il n'avait que quarante ans.Après sa formation en Génie Civil, Michel a travaillé au laboratoire LEMA (Laboratory of Electromagnetics and Acoustics) avant de venir au DIT en 2004 pour prendre en mains le projet Poséidon. Pendant ces années il a fait preuve de créativité en prenant diverses initiatives, bien trop pour toutes les énumérer. Il a mis en place Poséidon, a sélectionné l'équipe et durant de lon-gues années a assumé la gestion du projet. Michel a inventé les Journées Poséidon, devenues incontournables dans la vie académique des étudiants de l'EPFL. Dès le début il a développé divers outils pour faciliter l'installation des portables des étu-diants. Le projet Poséidon n’aurait jamais pris une telle dimen-sion sans ses constantes idées d’évolution. Michel a aussi travaillé avec d'autres groupes du DIT, comme le DIT-EX pour créer un client de restauration pour le système de sauvegarde central, ainsi qu'avec des laboratoires de l'EPFL, par exemple pour la création d'un environnement isolé et sé-curisé destiné à faire passer des examens de mathématiques aux étudiants. Dans le cadre de l'adaptation à Octave du livre du professeur Quarteroni, il a aussi œuvré pour la promotion des logiciels libres dans l'enseignement à l'EPFL. Il a établi des contacts avec nos partenaires – universités et écoles, construc-teurs et vendeurs, Framasoft.Passionné d'informatique, Michel ne comptait pas son temps pour faire profiter les autres de ses compétences. Il s’engageait toujours à fond dans ce qu’il faisait, c’était son caractère.Michel laisse un grand vide au DIT, et en particulier dans l'équipe Poséidon. Il restera en nous.

Krassimir [email protected], Domaine IT

Nouveau à la DIT-GE

Stéphane Recrosio est entré en fonction le 1er novembre 2013 au CSIN (Coordination des sys-tèmes d’information). Au bénéfice d’un master in Computer Science & Economics et de nom-breuses certifications, il a travaillé dans plusieurs grandes entreprises internationales et dans différents secteurs de l’industrie. Il a 14 ans d’expérience dans la gestion des services informatiques selon les bonnes pratiques ITIL. Il a également une solide expérience en gestion de projet. Il va prendre la respon-sabilité du projet d’implémentation des processus ITIL à l’EPFL. Cette implémentation a déjà commencé en s’appuyant sur des ressources internes et une entreprise de consultants externe. Son engagement va accélérer la mise en place des processus ITIL de base au DIT avant d’étendre son périmètre à d’autres secteurs du système d’information de l’EPFL. Nous lui souhaitons bienvenue et plein succès dans ce projet très stratégique pour l’EPFL.

[email protected], Domaine IT

Communications Unifiées

Comme nous vous l’annoncions en juillet dernier dans le FI 4, flashinformatique.epfl.ch/spip.php?article2656, le softphone Jab-ber est désomais disponible pour tous les membres de L’EPFL, via le formulaire de la page: je veux mon Jabber, uc.epfl.ch/je-veux-mon-jabber.

[email protected], Domaine IT

Page 3: Flash informatique 2013 - no 7

33 DÉCEMBRE 2013 - N° 7

Dernier numéro duFlash [email protected], EPFL - Directeur du Domaine IT

Actualités

Chers lecteurs,

La nouvelle stratégie IT de l’EPFL, à partir de laquelle a été conçu un nouveau projet de communication, a notamment pour mission d’améliorer la coopération entre les différentes cellules informatiques de l’École et de créer une gouvernance IT dont la focale est orientée vers les services fournis aux utilisa-teurs. Il est donc important de repenser le concept global du Flash informatique pour que les articles concordent avec cette nouvelle vision. Il est également important de tirer parti des différents moyens de communication à disposition aujourd’hui.Ainsi ce 295ème numéro du Flash informatique après 28 années de loyaux services, sera donc le dernier sous cette forme. Tous les articles en relation avec les services informatiques de l’École feront désor-mais partie d’une rubrique IT dans le Flash de l’École. Le but étant de couvrir l’actualité de l’ensemble des systèmes informatiques de l’École en fournissant des articles suffisamment vulgarisés pour un public relativement étendu.

Dans le cadre d’une communication interne efficace, nous souhaiterions également renforcer notre visibilité sur internet par le biais d’un nouveau catalogue de services en ligne. Ce catalogue représen-tera la vitrine de l’informatique à l’EPFL et permettra un accès très facile et convivial à toutes les infor-mations nécessaires pour les utilisateurs. Cela ira des descriptions de services très basiques jusqu’à des articles plus techniques qui pourront être retrouvés plus facilement et par là même toucheront une plus grande audience.Afin de donner à l’information IT plus de réactivité et de visibilité, un canal d’actualité va être mis en place. Son but sera de rendre aussi transparentes que possible l’évolution des projets IT, les communi-cations relatives aux services IT, la sécurité et les directives officielles.Le canal d’actualité et le catalogue de services constitueront la colonne vertébrale du futur IS Portal, un portail dynamique, en constante évolution et doté d’une dimension communautaire grâce à une FAQ. Référencé dans la barre de navigation du site Web de l’EPFL, le IS Portal deviendra LA référence pour toutes les questions IT à l’EPFL.

Rien ne remplace la communication directe au travers d’évènements qui rassemblent physiquement des personnes intéressées par un même sujet. C’est pourquoi, l’actuel Forum IT qui était principale-ment orienté sur les aspects d’infrastructure informatique du DIT va s’ouvrir à l’ensemble du système d’information (SI). Ce meeting s’adresse à tous les spécialistes IT (labos, instituts, facultés et services centraux) et le but sera d’y présenter les nouveaux projets IS et divers projets en cours.Nous espérons ainsi à travers toutes ces modifications apportées par la nouvelle vice-présidence pour les systèmes d’informations (VPSI), en collaboration avec le DIT et toutes les cellules informatiques, accompagner tous les publics de l’EPFL à travers les différentes étapes de ces changements structurels.

Il y a toujours un peu de nostalgie à annoncer la fin d’une époque. Je profite de ce dernier numéro du Flash informatique (sous cette forme) pour remercier chaleureusement les lecteurs pour leur fidélité, les auteurs pour toutes leurs contributions, le comité de rédaction pour son excellent travail et son engagement au cours de toutes ces années et enfin, et plus particulièrement, Jacqueline Dousson et Appoline Raposo de Barbosa sans qui ce journal n’aurait jamais atteint 295 numéros !

Tous les articles du Flash informatique constituent une base historique extrêmement riche qui sera précieusement conservée comme référence. n

Page 4: Flash informatique 2013 - no 7

flash informatique444 3 DÉCEMBRE 2013 - N° 7

Gérez vos flux librement grâce à KrISS et [email protected], EPFL, bibliothécaire & [email protected], HEG Genève, filière Information documentaire, assistant d’enseignement en informatique documentaire

Google Reader closed, but it doesn’t mean that RSS is dead. This article presents two free online self-hosted solutions to get rid of commercial third-party dependency.

Ce n’est pas parce que Google Reader a fermé que le RSS est mort. Cet article présente deux logiciels en ligne libres à héberger pour sortir de la dépendance vis-à-vis d’un prestataire commercial.

Fiche descriptive

KrISS & Leed

Domaine Lecture et gestion de flux RSS

Licence KrISS copyleft

langue KrISS français- anglais

version KrISS 8

Licence Leed CC BY-NC-SA (?)

langue Leed français

version Leed 1.1

Autres alternatives libres Tiny Tiny RSS FreshRSS Selfoss miniflux Aeres

Alternatives non libres Feedly The Old Reader Digg Reader

Sites Web Projet et téléchargement pour KrISS: https://github.com/tontof/kriss_feed Projet et téléchargement pour Leed: projet.idleman.fr/leed/

Plates-formes supportées Web

Google ferme un service

Le 13 mars Google annonçait succinctement sur son blog [1] la fermeture de son agrégateur de flux RSS en ligne Google Rea-der. Relativement attentionné, le géant du Web rappelait qu’il est assez simple d’exporter une copie de ses données grâce à Google Takeout, afin de continuer à utiliser cette technologie RSS bien pratique pour se tenir informé, mais avec un autre outil. Les réac-

Logiciel libre

tions d’une partie des utilisateurs ont révélé, ou du moins rappelé:z qu’il y a un public, peut-être minoritaire, mais significatif, qui

se sert de cette technologie;z que Google Reader répondait efficacement à une demande;z que la dépendance à un service Web proposé par un tiers peut

poser problème.Pour comprendre ces trois points, il n’est pas inutile de rappeler le fonctionnement des flux RSS et les différents outils qui per-mettent de s’en servir.

Qu’est-ce que le RSS ?

Le RSS est une technologie qui dispense l’utilisateur de visiter un site Web pour savoir s’il y a des nouveautés. L’information vient à l’utilisateur via la mise à jour du flux RSS. Grâce aux flux RSS, il est donc possible et assez facile de suivre l’actualité de plusieurs dizaines, voire centaines, de sites Web.L’acronyme RSS a tour à tour signifié RDF Site Summary, Rich Site Summary et Really Simple Syndication. Car plusieurs formats se sont succédé et côtoyés depuis l’invention initiale du RSS chez Netscape en 1999. Sans entrer dans les détails, il est intéressant de relever que le format RSS 1.0 est basé sur le langage RDF, alors que RSS 2.0 et ATOM sont des formats XML.Le RSS transmet donc des données structurées (contrairement à l’e-mail, par exemple), ce qui en facilite la réutilisation et le mélange avec des données provenant de sources différentes. Un podcast & est un flux RSS contenant un lien vers un fichier mul-timédia (son ou vidéo).

Les outils pour lire des flux RSS

Il est possible de lire les flux RSS avec un client de messagerie (Outlook, Mail, etc.), un navigateur Web (Firefox, Internet Explo-rer, etc.) ou un agrégateur en ligne (Google Reader, Feedly, etc.) ou installé sur votre ordinateur (RSS Owl, Vienna, etc.). La lecture des flux dans Chrome nécessite une extension, car il n’embarque pas une feuille de style spécifique pour l’affichage des flux RSS (fonctionnalité présente dans tous les principaux navigateurs). Les agrégateurs se distinguent des autres outils par la richesse de leurs fonctionnalités de gestion (classement, tags, favoris, par-tage, etc.).La lecture de flux RSS n’est pas un problème. Les outils sont nom-breux et variés. De plus, les lecteurs de flux lisent tous les for-mats de RSS existants. Mais Google Reader était le plus utilisé, car accessible de partout et offrait le plus large panel de fonctionna-lités. Google Reader était tellement utilisé que presque toutes les applications de lecture de flux RSS sur smartphone proposaient un accès à ce service. À cela, il faut encore ajouter que Google archivait les flux, ce qui permettait d’avoir accès aux anciennes

Page 5: Flash informatique 2013 - no 7

553 DÉCEMBRE 2013 - N° 7

Gérez vos flux librement grâce à KrISS et Leed

actualités d’un site Web. Même à celles disparues du site Web d’origine avant de s’abonner au flux RSS!Alors, quel outil choisir maintenant que Google Reader n’existe plus?

Les agrégateurs hébergés Google Reader-like: Feedly, Digg Reader...Les articles sur ce sujet ont fleuri, voire pullulé. Beaucoup d’entre eux proposaient des solutions qui n’étaient pas en ligne (pas d’ac-cès de partout), incapables donc de remplacer Google Reader. Si aucune solution ne propose (encore) toutes les fonctionnalités de ce dernier (voir fig. 1), les développeurs de Feedly ont tout fait pour que la transition depuis Google Reader soit simple: il faut un login Google pour créer un compte et l’import des flux n’est possible que depuis Google Reader (via Google Takeout).C’est sans doute pour cela que le nombre d’utilisateurs Feedly serait passé de 4 à 7 millions dans les deux mois qui ont suivi l’annonce de Google [3].Par contre, si vous n’aviez pas de compte Google, vous deviez en créer un et l’ajout des flux était fastidieux. Mais il y avait pire que les problèmes d’import: Feedly ne proposait pas d’export des flux ! Sous la pression des utilisateurs, Feedly a ajouté les fonctionnali-tés d’import et d’export des flux (sous la forme d’un fichier OPML, le standard en la matière) au cours de l’été 2013.S’il est certain que Feedly est un bon lecteur Web de flux RSS, qu’il dispose d’applications pour iOS et Android, qu’il permet de classer, taguer et sauver des articles pour une lecture ultérieure, d’autres outils comme Digg Reader ou The Old Reader offrent des fonctionnalités similaires.Il n’en demeure pas moins que tous ces outils ont le même pro-blème de confidentialité et de pérennité que Google Reader.Alors, pourquoi ne pas s’attaquer à ces deux problèmes en héber-geant vous-même votre agrégateur de flux RSS?

Les agrégateurs auto-hébergeables hébergés: KrISS et LeedPour héberger soi-même son agrégateur, il est nécessaire d’avoir accès à un serveur: il est également utile de posséder quelques connaissances informatiques (ou un-e ami-e qui les a).Il existe plusieurs options [4] parmi lesquelles Leed et KrISS que nous allons présenter dans la suite de cet article. Tiny Tiny RSS est

également intéressant, mais la compatibilité n’est pour l’instant garantie qu’avec Firefox et Chrome [5]. Il n’en reste pas moins que Framanews, le nouveau service de gestion de flux RSS hébergé par Framasoft, est basé sur Tiny Tiny RSS.

KrISS

Comme le dit son développeur, Christophe Moulin, alias Tontof, «KrISS feed is a simple and smart (or stupid) feed reader» [6]. KrISS est un agrégateur de flux libre sans base de données, déve-loppé en PHP et actuellement en version 8. La principale nouveau-té de cette version est de proposer une interface en français (et non plus seulement en anglais). Une autre fonctionnalité nouvelle tout à fait intéressante est le fait que KrISS enregistre tous les jours un fichier OPML & d’export de vos flux RSS: vous disposez donc d’une sauvegarde récente de vos flux dans votre répertoire. Enfin, cette version a intégré la gestion de plug-ins, mais cette fonctionnalité n’est pas encore complètement implémentée et il est nécessaire de coder en php pour en ajouter d’autres.

InstallationPour installer KrISS, il faut un serveur PHP et c’est tout.L’installation de KrISS est très simple. Récupérez le fichier index.php depuis la page Github du projet: https://github.com/tontof/kriss_feed (consulté le 7 novembre 2013) et chargez-la sur un serveur Web. Assurez-vous d’avoir les droits en écriture sur le répertoire dans lequel vous le placez. Ouvrez ensuite dans votre navigateur la page correspondant à ce fichier.

fig. 2 – page d’installation de KrISS

Choisissez un nom d’utilisateur et un mot de passe (fig. 2) et cli-quez sur le bouton Installer KrISS feed. Si tout se passe bien, une page vous indique que votre lecteur de flux est bien configuré. Cliquez sur le bouton Continuer et connectez-vous.

Google Reader Feeldy The Old Reader Digg Reader KrISS Leed

Archivage des flux

Classement/tags () 1 () 1 () 1

favoris () 2

partage

recherche 3

Import/export OPML

stabilité – ~

pérennité ? ? ? () ()1 classement, mais pas de tags2 pas de favori à proprement parler, mais fonction save for later3 disponible dans la version pro uniquement

fig. 1 – tableau comparatif de Google Reader et quelques-uns de ses remplaçants potentiels (basé sur [2] et complété par les auteurs)

Page 6: Flash informatique 2013 - no 7

6666 flash informatique66 3 DÉCEMBRE 2013 - N° 7flash informatique

Gérez vos flux librement grâce à KrISS et Leed

ConfigurationVous avez la possibilité d’ajouter des flux en masse en important un fichier OPML. Vous pouvez également ajouter des flux un à un par la suite (voir section Utilisation). La page de configuration est très complète. Dans la rubrique informations principales, vous pouvez notamment changer le titre de la page (affecte la balise <title>), choisir la visibilité de votre lecteur de flux (publique, protégée ou privée) et une url de Shaarli.Dans les préférences, vous pouvez configurer le nombre d’articles maximum par flux, quelques options d’affichage, et choisir le type et la fréquence des mises à jour. Il est en effet possible de choisir une mise à jour de flux au moyen de JavaScript, ce qui facilite grandement l’usage de KrISS dans le contexte d’un serveur sur lequel vous n’avez pas les droits d’administration. Mais la gestion de la mise à jour des flux au moyen d’un cron (tâche planifiée), comme c’est habituellement le cas, est également possible.Les préférences du menu principal et du menu de pagination per-mettent personnaliser le menu principal, ainsi que la navigation (fig. 3).

fig. 3 – menu principal et menu de pagination de KrISS

L’apparence de l’interface est gérée par un simple fichier CSS. Il est donc possible de l’adapter à vos goûts soit par vous-même, soit en téléchargeant un fichier user.css disponible sur https://github.com/tontof/kriss_feed/tree/master/style (consulté le 3 novembre 2013) et en le déposant dans le dossier inc créé lors de l’instal-lation. Là encore, il faut que vous ayez les droits d’écriture sur le dossier inc.Un des styles proposés imite l’interface de Google Reader. De quoi avoir un environnement familier malgré le changement d’outil...

Utilisation

fig. 4 – interface de KrISS sur ordinateur

L’utilisation de KrISS est identique à celle de n’importe quel agré-gateur de flux. Les flux auxquels vous êtes abonnés sont présentés sur la droite (fig. 4). Ceux-ci peuvent être regroupés dans des dos-siers et le même flux peut être affiché dans des dossiers différents. Les flux en gras comportent des articles non lus (leur nombre est

également en général indiqué). Le nombre total d’articles non lus est affiché au sommet de la liste. Au centre de la page sont affichés les articles du flux sélectionné avec en gras les articles non lus. Il est possible d’afficher uniquement les flux non lus, ce qui en facilite la lecture. Pour afficher le contenu d’un article, cli-quez sur le bouton + tout à droite. KrISS considérera automati-quement cet article comme lu. En plus de pouvoir le lire, vous pouvez le partager (vous devez pour cela avoir configuré le lien de partage), le marquer comme non lu et le conserver. Cette dernière option permet de conserver des articles au-delà de la limite impo-sée par la limite d’articles conservés pour chaque flux.KrISS s’adapte à l’équipement (fig. 5) sur lequel vous le consultez (c’est ce qu’on appelle le responsive webdesign ou RWD &). Que vous soyez sur un smartphone, une tablette ou un ordinateur, la lecture est agréable grâce à un design adapté.Lors de la consultation d’articles sur un appareil doté d’un clavier physique, il est possible de naviguer entièrement au clavier, ce que permettait également Google Reader et est assez apprécié.

fig. 5 – interface de KrISS sur smartphone (à gauche) et tablette (à droite)

LimitationsSi KrISS permet de conserver un article dans les favoris, il ne s’agit pas pour autant d’un archivage. Le jour où l’article sur le site Web où il a été publié n’est plus accessible, alors l’accès à cet article va fatalement disparaître. Il faut avoir en tête que pour l’auteur du logiciel, les fonctionnalités de favoris et d’archivages peuvent être remplies par d’autres logiciels, respectivement Shaarli & pour les favoris et, par exemple, Poche & pour l’archivage.Par ailleurs, KrISS est très rigoureux du point de vue de l’accep-tation d’un flux lors de l’ajout et de la mise à jour. En effet, les flux qui ne sont pas valides ne sont pas pris en compte par KrISS. C’est certes louable de respecter scrupuleusement les standards Web, mais concrètement cela peut vous empêcher de suivre cer-taines sources. À l’usage, on est surpris de constater le nombre de sources sur le Web dont le flux n’est pas valide [7].

Leed

Leed est également un agrégateur de flux écrit en PHP. Il est déve-loppé par Valentin Carruesco, alias Idleman et plusieurs contri-buteurs (projet.idleman.fr/leed/?page=Contact%20&%20Credits).

InstallationPour installer Leed, les prérequis sont un serveur Apache, PHP 5.3 et MySQL. Après avoir téléchargé Leed depuis projet.idleman.fr/leed/?page=T%C3%A9l%C3%A9chargement, et décompressé le

Page 7: Flash informatique 2013 - no 7

773 DÉCEMBRE 2013 - N° 7

Gérez vos flux librement grâce à KrISS et Leed

fichier sur un serveur, il faut vous attribuer les droits en écriture sur le répertoire dans lequel sont les fichiers.Avant l’installation proprement dite de Leed, vous devez créer la base de données qui contiendra le contenu de vos flux.

fig. 6 – page d’installation de Leed

Ouvrez ensuite la page d’installation dans votre navigateur (fig. 6). L’url est du type votre.nomdedomaine.ch/repertoire/install.php. Suivez les instructions. Souvenez-vous d’indiquer le nom de la base de données MySQL que vous venez de créer dans le champ Nom de base MySQL. Ne vous souciez pas trop des options que vous choisissez. Vous pourrez les modifier après l’installation. Une fois la page d’installation remplie, cliquez sur le bouton Lancez l’installation. Il se peut que vous rencontriez un problème lors de l’installation, si les droits d’écriture n’ont pas été correctement attribués. Dans ce cas, modifiez les droits et relancez l’installation.

fig. 7 – installation de Leed terminée

Lorsque l’installation est terminée, la page présentée dans la figure 7 s’affiche. Elle contient notamment les informations né-cessaires à la mise en place de la mise à jour automatisée des flux. Cette étape n’est pas obligatoire et vous pouvez vous en tenir à une mise à jour manuelle. Pour terminer l’installation et accéder à votre application, cliquez sur le lien ici en bas de la page.

ConfigurationLe panneau de configuration de Leed se trouve dans Gestion > Préférences. Vous y retrouvez une grande partie de la page d’installation vue précédemment. Vous pouvez entre autres per-sonnaliser l’affichage des flux et des articles qu’ils contiennent (notamment l’affichage complet ou partiel de l’article).Sous Gestion > Bookmarklet, vous pouvez également ajouter un lien aux favoris de votre navigateur pour ajouter facilement un flux à Leed.La création des dossiers et l’ajout des flux un par un se fait sous Gestion > Gestion des flux. Si vous souhaitez ajouter des flux en masse, passez par Gestion > Import et choisissez un fichier OPML.Vous pouvez également ajouter des plug-ins à Leed. Vous les trou-vez sur le Leed Market: https://github.com/ldleman/Leed-market/.C’est également dans le menu de gestion (Gestion > Shaarli) que vous pouvez indiquer à Leed l’URL de votre Shaarli pour y partager les articles que vous jugez intéressants.

Utilisation

fig. 8 – interface de Leed sur ordinateur

Leed (fig. 8) est très simple à utiliser. Si vous avez choisi un affichage complet des articles, il vous suffit de sélectionner un flux pour accéder au contenu des articles. Si vous avez choisi un affichage partiel, vous accédez à l’article complet (sur le site d’ori-gine) en cliquant sur le titre.Pour ajouter un article à vos favoris, cliquez sur la petite étoile à côté à de la date de publication. Vous pourrez ainsi accéder rapi-dement à cet article par l’onglet Favoris. Notez que Leed aussi a un design responsive. Il s’adapte donc à tous les équipements (fig. 9). Enfin, une navigation au clavier est également possible.

Page 8: Flash informatique 2013 - no 7

8888 flash informatique88 3 DÉCEMBRE 2013 - N° 7flash informatique

GLOSSAIRE &KISS (Keep It Simple and Stupid): principe

d'ingénierie ayant pour objectif de déve-lopper des systèmes simples, robustes et utiles.

OPML (Outline Processor Markup Lan-guage): un fichier OPML est un fichier XML décrivant une collection de flux RSS par leur titre et leur url. Il peut également décrire la façon dont les flux sont classés.

Poche: logiciel libre équivalent à Pocket (Read it later) qui permet d'enregistrer

un article trouvé sur le Web afin de le lire plus tard, ou hors-connexion. L'intérêt de Poche, c'est qu'il peut être auto-hé-bergé.

Podcast: flux RSS embarquant un lien vers un fichier multimédia (il n'inclut pas le fi-chier multimédia!). Le fichier multimédia peut être un fichier son (podcast audio), un fichier vidéo (podcast vidéo) ou, plus rarement et beaucoup moins connu, un diaporama avec du son (podcast enrichi, fichier .m4a).

RWD (Responsive webdesign): terme inventé par Ethan Marcotte pour décrire

le design d'un site Web qui s'adapte à tous les écrans sur lesquels il est affiché (smartphone, tablette, ordinateur, etc.). concrètement, les éléments de la page se réorganisent en fonction de la taille de l'écran pour toujours offrir une lisibi-lité maximale.

Shaarli: logiciel libre offrant des fonctionna-lités proches de Delicious ou Diigo, mais de manière minimale. Il est utilisé pour enregistrer des signets et pour les orga-niser à l'aide de tags. C'est également un logiciel à héberger soi-même, et qui ne nécessite pas de base de données.

Gérez vos flux librement grâce à KrISS et Leed

Figure 9: Interface de Leed sur smartphone (à gauche) et tablette (à droite)

Limitations Si vous étiez habitués à taguer des articles dans Google Reader, c’est une fonctionnalité qui vous manquera dans Leed. Le par-tage des articles n’est possible qu’à l’aide de Shaarli, ce qui peut constituer une vraie limite selon les canaux de diffusion qui sont les vôtres.

Conclusion

Mais alors, que choisir ? KrISS ou Leed ?Ces deux logiciels n’offrent pas exactement les mêmes fonc-tionnalités. Ainsi, si vous avez besoin de fonctions de partage, c’est KrISS qu’il vous faut, notamment parce que vous pouvez configurer d’autres services que Shaarli. Par contre, si vous avez besoin de fonctions de gestion de vos flux (classement, recherche), c’est Leed que vous choisirez.Le choix peut-être également déterminé par le type d’installa-tion. KrISS est à cet égard particulièrement simple, notamment lorsqu’il est question de faire des sauvegardes de son logiciel ou de le mettre à jour. À l’inverse, le fait que Leed utilise une base de données MySQL rend le logiciel un peu plus robuste.Mais n’oubliez pas que KrISS et Leed ne sont pas les seuls agréga-teurs de flux libres à héberger soi-même. Nous les avons choisis, car ce sont ceux qui nous paraissent les plus intéressants actuelle-ment. Leur intérêt réside notamment dans le fait que ces logiciels se cantonnent aux fonctionnalités de base d’un agrégateur, en conformité avec la philosophie KISS &.Quel que soit votre choix, nous espérons que cet article vous aura permis de réaliser qu’il n’est pas très compliqué d’héberger soi-même son agrégateur de flux. Et que cela élimine les risques liés

à la disparition d’un outil comme Google Reader. Et si c’est arrivé chez Google, dites-vous bien que cela arrivera ailleurs !

Références

[1] HÖLZLE, Urs. A second spring of cleaning. Google: official blog [en ligne]. 13 mars 2013. [Consulté le 3 novembre 2013]. Disponible à l’adresse: googleblog.blogspot.fr/2013/03/a-se-cond-spring-of-cleaning.html.

[2] COURRIER, Serge. Fin de Google Reader ? Quelle alterna-tive pour les professionnels v3.0. [en ligne]. 3 octobre 2013. [Consulté le 6 novembre 2013]. Disponible à l’adresse: www.slideshare.net/serge.courrier/fin-de-google-reader-quelle-alternative-pour-les-professionnels.

[3] POGUE, David. Google’s Aggregator Gives Way to an Heir. The New York Times [en ligne]. New York, 8 mai 2013. [Consul-té le 9 août 2013]. Disponible à l’adresse: www.nytimes.com/2013/05/09/technology/personaltech/three-ways-feed-ly-outdoes-the-vanishing-google-reader.html.

[4] SAUVAGE, Sébastien. Arrêtez de pleurer Google Reader: Hé-bergez un lecteur RSS chez vous. Les trucs qui m’énervent [en ligne]. 15 mars 2013. [Consulté le 3 novembre 2013]. Disponible à l’adresse: sebsauvage.net/rhaa/index.php?2013/03/15/17/15/39-arretez-de-pleurer-google-rea-der-hebergez-un-lecteur-rss-chez-vous.

[5] LANG, Jean-Philippe. Compatible Browsers. Tiny Tiny RSS [en ligne]. 21 juillet 2013. [Consulté le 9 août 2013]. Dispo-nible à l’adresse: tt-rss.org/redmine/projects/tt-rss/wiki/Com-patibleBrowsers.

[6] MOULIN, Christophe. tontof/kriss_feed. Github [en ligne]. 5 octobre 2013. [Consulté le 3 novembre 2013]. Disponible à l’adresse: https://github.com/tontof/kriss_feed.

[7] MOULIN, Christophe. Votre avis nous intéresse - Tontof. Ton-tof [en ligne]. 27 avril 2013. [Consulté le 7 novembre 2013]. Disponible à l’adresse: tontof.net/?2013/04/27/13/44/27-votre-avis-nous-interesse.

Article du FI-EPFL 2013 sous licence CC BY-SA 3.0 /

R. Grolimund & I. Milhit

Page 9: Flash informatique 2013 - no 7

93 DÉCEMBRE 2013 - N° 7

Methods and standards are not a necessary evil. When well applied and implemented, they allow an IT organization to- be more efficient- avoid repeating mistakes when executing recur-

ring tasks- have an organization-wide standard, which can

go beyond the scope of the single organization.HERMES is the project management method for IT, services, products and organization. HERMES is de-veloped by the Swiss Government and freely avail-able on its website, www.hermes.admin.ch.

Les méthodes et les standards ne sont pas un mal nécessaire. Quand bien appliqués, ils permettent aux organisations IT d’- être plus efficaces- éviter de répéter des erreurs quand les tâches

sont récurrentes- avoir un standard interne mais qui peut aussi

sortir du périmètre de l’organisation.HERMES est la méthode de gestion de projets pour l’informatique, les prestations, les produits et l’orga-nisation. HERMES est développée par la Confédéra-tion et accessible sur son site internet, www.hermes.admin.ch.

Introduction à la méthode HERMES

Selon HERMES, le projet peut être vu sous différents angles: vue temporelle, partenaires et hiérarchique.

Vue temporelle

Initialisation Conception Réalisation Déploiement

Le déroulement du projet est séparé en phases, qui structurent le cycle de vie du projet. Les phases dans HERMES sont:Initialisation: cette phase démarre avec le mandat d’initialisa-

tion du projet, qui est le OK officiel pour le démarrage d’une étude, et se termine avec le mandat de projet. A ce point, les ressources nécessaires au projet sont établies assez clairement, avec bien sûr une marge d’incertitude.

Conception: l’étude menée lors de la phase précédente est dé-taillée et, dans le cas d’achat d’un cluster de calcul, le dos-sier d’appel d’offres est rédigé. Cette phase inclut toute la procédure d’appel d’offres et se termine avec la signature du contrat avec le fournisseurs.

La méthode HERMES appliquée à l'achat des clusters de [email protected], EPFL -coordinatrice HPC

Analyse

Réalisation: le cluster est livré et testé.Déploiement: la machine est mise en service et ensuite ouverte

aux utilisateurs. Cette phase se termine avec la clôture du pro-jet et la dissolution de l’équipe de projet.

La vue des partenaires

Utilisateur

ExploitantProducteur

Dans HERMES, on attribue des rôles à un ou plusieurs partenaires du projet: utilisateur, producteur ou exploitant.Utilisateur: le client final du projet,Producteur: le fournisseur,Exploitant: celui qui s’occupe de l’intégration du système dans le

paysage IT existant.

La vue hiérarchique

Pilotage

Conduite

Exécution

Les niveaux hiérarchiques règlent les responsabilités dans le pro-jet. Les trois niveaux hiérarchiques sont:Pilotage: ce niveau est responsable des décisions de libération

des phases ainsi que de la mise en service. Le mandant a droit de véto sur le projet. Dans le HPC à l’EPFL, ce niveau est repré-senté par le CoPil HPC (comité de pilotage HPC) et le mandant est son président.

Conduite: comprend le chef de projet qui peut être appuyé par un comité spécialisé, et, pour les plus chanceux, de l’assistance au projet. Dans notre cas, on trouve à ce niveau la coordina-trice HPC en tant que cheffe de projet appuyée par le comité technique HPC Tech.

Exécution: les spécialistes se trouvent à ce niveau, que cela soit le représentant des utilisateurs ou le responsable de l’exploi-tation par exemple.

Page 10: Flash informatique 2013 - no 7

10101010 flash informatique1010 3 DÉCEMBRE 2013 - N° 7flash informatique

Les rôles

En tant qu’humains, nous avons besoin de savoir quelles sont nos responsabilités. Hermes couvre cette partie à travers des rôles. A chaque tâche correspond un rôle responsable de la tâche, la pro-duction de chaque résultat est assurée par un groupe de rôles.Hermes définit les rôles d’une façon standard, qui sont assignés aux parties prenantes lors de l’initialisation. Les rôles minimaux pour un projet Hermes sont:le mandant: responsable de tout ce qui est pilotage,le chef de projet: responsable de la conduite du projet,le spécialiste: responsable de la mise en oeuvre.D’autres rôles sont utilisés si besoin. Dans le cas d’achat d’un clus-ter HPC, plusieurs spécialistes sont nommés:le responsable de l’exploitation: ce rôle est rempli par le res-

ponsable du groupe DIT-EX, Fabien Figueras, qui peut déléguer à un membre de son équipe,

les testeurs: pour exécuter les benchmarks sur la machine, nous choisissons deux testeurs, un du côté de l’exploitant, l’autre du côté utilisateur. Ces testeurs sont chargés de lancer les bench-marks et fournir les résultats pour la rédaction du rapport des tests. Ce rapport est généré automatiquement,

le responsable de la qualité: le rapport de tests est validé par le responsable de la qualité qui peut suggérer au mandant de bloquer le projet si les tests n’ont pas donné de résultats satisfaisants.

Scénarios HERMES

Une nouveauté par rapport aux versions précédentes de HERMES, est l’existence de scénarios, qui aident le chef de projet dans la conduite en indiquant les modules nécessaires à son projet.Auparavant, le chef de projet voulant utiliser HERMES se trouvait face à une méthode qui couvrait tout type de projet, avec donc des rôles et résultats pas forcément nécessaires. Maintenant, le choix des documents à produire et des rôles à affecter est assisté par le choix de scénarios. Voici les scénarios standard dans HERMES 5:Système IT: développer et intégrer un logiciel,Système IT agile: système IT avec pilotage agile du dévelop-

pement,Système IT standard: acheter et intégrer un logiciel,Système IT existant: exécuter une mise à jour d’un logiciel exis-

tant,Infrastructure IT: développer une infrastructure IT sans

modification des processus,Prestation/produit: réalisation d’une prestation ou d’un produit

(organisation d’un évènement ou achat d’une solution Cloud)Prestation/produit agile: comme avant, mais avec pilotage

agile du développement,Organisation: modifier une organisation.Il est possible de créer des scénarios individuels en ajoutant ou supprimant des modules, tâches ou résultats. Il est aussi possible de mettre ces nouveaux scénarios à disposition d’autres utilisa-teurs en les proposant pour validation.Pour notre cas d’achat de cluster de calcul, nous utilisons le scé-nario Infrastructure IT.

Les modules

Les modules contiennent des tâches (par exemple conduire et contrôler les projet) desquelles découlent des résultats (qui sont des documents ou des états comme par exemple produit réalisé). Chaque scénario contient des modules. Le scénario Infrastruc-ture IT comprend les modules suivants:z Pilotage du projet,z Conduite du projet,z Bases du projet,z Exploitation informatique,z Migration informatique,z Test.Comme lors de notre projet nous procédons à un appel d’offres public, il est nécessaire d’ajouter au scénario le module achat. De plus, dans notre cas, nous n’effectuons pas de migration, ce qui nous fait un module de moins.Le module achat n’est utilisé que lorsqu’a lieu une procédure d’appel d’offres public, c’est à dire à partir d’un montant de 230’000 CHF.Une fois choisis les modules nécessaires, la méthode nous propose, lors de chaque phase et dans chacun des modules, des tâches à exécuter. A chaque tâche correspond un rôle de responsable, et un ou plusieurs résultats.

Initialisation Conception Réalisation Déploiement

Pilotage du projet

Conduite du projet

Bases du projet

Exploitation informatique

Test

Achat

Les petits réprésentent les jalons de début et fin de phase. D’autres jalons sont par exemple la mise en service lors du dé-ploiement. Il s’agit de décisions clés lors du déroulement du projet.

Acheter un cluster de calcul, avec HERMES

Passons en revue les tâches principales, par phase.Lors de la phase d’initialisation, les bases du projet sont posées. Une étude préliminaire (besoins des utilisateurs, étude de marché, analyse de l’existant) est rédigée. Souvent, lors de l’achat de ma-chines de calcul, des benchmarks sont tournés sur plusieurs archi-tectures, afin de choisir une variante. Un budget préliminaire est établi sur la base de l’étude. La liste des acteurs dans le projet est rédigée. L’étude avec une proposition sommaire de configuration, une analyse des risques, le budget ainsi qu’un échéancier prélimi-

La méthode HERMES appliquée à l'achat des clusters de calcul

Page 11: Flash informatique 2013 - no 7

11113 DÉCEMBRE 2013 - N° 7

naire sont rassemblés dans le mandat de projet qui est validé par le CoPil HPC. Le mandat de projet validé marque la fin de la phase d’initialisation. A ce point, toutes les parties prenantes savent à quel moment elles vont intervenir dans le projet.La phase de conception contient la procédure d’appel d’offres dans son entier et se termine avec la signature du contrat entre l’EPFL et le fournisseur de la solution HPC. La partie la plus impor-tante est sans doute la rédaction du dossier d’appel d’offres, dans lequel se trouvent les spécifications minimales pour la machine ainsi que les critères d’adjudication. Le tout est extrêmement dé-taillé pour ne pas laisser place à des ambiguïtés.Dans cette phase, nous voyons aussi le début des modules exploi-tation et test. Dans le dossier d’appel d’offres, nous imposons aux vendeurs de nous fournir les résultats de plusieurs benchmarks. Leur description ainsi que la procédure de burn-in (mise sous charge de la machine pour éliminer les éventuels composants défectueux) sont élaborées dans le concept de test et intégrées dans le cahier des charges.Après la publication de l’appel d’offres, il faut attendre un délai légal avant de pouvoir recevoir des dossiers. Une fois les dossiers reçus, on procède à l’ouverture des offres et à leur évaluation. Comme les critères d’adjudication sont très précis (c’est un choix du CoPil HPC), ce travail est énormément facilité. Avant de passer au choix du vendeur, il est de bonne pratique de faire un round de négociations. Ensuite, le HPC Tech donne son préavis au CoPil HPC qui décide qui est le vendeur qui remporte l’appel d’offres. Le ré-sultat est publié. Pendant le délai légal de 20 jours entre la publi-cation et le contrat, nous rencontrons le vendeur pour peaufiner les derniers détails. Ensuite, le contrat est signé. Il ne faut pas négliger que pour des projets de certains montants, plusieurs si-gnatures sont nécessaires pour la publication et le contrat. Il faut bien planifier et prendre les rendez-vous avec les ayants-droit.Dès le contrat signé, nous passons dans la phase de réalisation. Il est conseillé à ce point de recontacter les utilisateurs potentiels et les parties prenantes, déjà pour garder un bon contact avec les utilisateurs finaux tout au long du projet, ensuite, pour préparer le déploiement, par exemple en demandant la collaboration des utilisateurs à l’installation de logiciels spécifiques ou pour faire les derniers arrangements concernant les tests.Le matériel arrive, le fournisseur s’occupe de l’installer dans les racks et procède à l’installation de base. Ensuite, nous passons à l’acceptance de la machine: deux testeurs (un côté exploitation, l’autre côté utilisateurs) reproduisent les résultats des bench-

La méthode HERMES appliquée à l'achat des clusters de calcul

marks promis dans l’offre. Si les résultats ne sont pas satisfaisants, le projet est bloqué tant qu’une solution convenable n’est pas trouvée. Ce cap passé, on met sous stress toute l’infrastructure (acceptation). Si un composant lâche pendant cette phase, il est remplacé et le test repart de zéro.Une fois tous les tests passés, de la formation à la gestion de la machine ainsi que de la documentation nécessaire au manuel d’exploitation fournie aux administrateurs, a lieu la réception de la machine par l’EPFL. Le fournisseur est libéré et les clefs de la machine sont remises à l’EPFL. On passe à la phase de déploie-ment.Lors de la dernière phase, déploiement, les administrateurs du DIT intègrent la machine dans le paysage IT de l’EPFL (authentification LDAP, backup,...) et ils procèdent à l’installation des logiciels de base. La machine est ouverte à un groupe choisi d’utilisateurs pour identifier d’éventuels problèmes dans l’installation. Pendant cette période, ils peuvent profiter de faire tourner des calculs sur toute la machine. Les tests des utilisateurs terminés, la machine est officiellement en service. Le projet se termine avec sa clôture.

Qu’est-ce qui change?

Par rapport au passé avant l’introduction de la méthode, le cadre est mieux fixé dès la phase d’initialisation. Les décisions sont for-malisées et une fois les rôles et les tâches fixés, il ne faut que suivre le courant. Côté lourdeur, plus de documents sont produits, bien sûr. Mais ces documents sont ensuite récupérés lorsqu’il faut justifier l’achat à la direction, au CEPF ou au Contrôle des Finances, chose qui arrive, vu les montants en jeu. Ce n’est donc pas du temps perdu, bien au contraire, cela nous permet d’antici-per les demandes de la hiérarchie.En plus, la méthode HERMES nous force à penser à tous les aspects du projet, que ce soit la durabilité, les risques ou l’alignement sur la stratégie de l’Ecole. Et puisque HERMES est la méthode de ges-tion de projets de la Confédération, nous entrons dans un stan-dard, le même que celui utilisé par d’autres institutions Suisses. n

GLOSSAIRE &Méthode agile: en informatique dénomme un groupe de pra-

tiques qui impliquent au maximum le mandant en reposant sur des cycles de développement très courts.

le comité de rédaction vous souhaite de joyeuses fêtes

de fin d'année

Page 12: Flash informatique 2013 - no 7

flash informatique121212 3 DÉCEMBRE 2013 - N° 7

In the context of a backup server, the configuration of a disk array storage must take into consideration both the essentially sequential nature of a given stream, as well as the concurrency of read and write streams.

Dans le cadre d’utilisation pour un serveur de back-up, la configuration d’une baie de disques doit tenir compte à la fois de la nature séquentielle d’un flux donné, mais aussi de la concurrence de flux en lec-ture et écriture.

Introduction

Dans le cadre du renouvellement de l’infrastructure du service de backup du DIT, nous avons demandé des offres à différents constructeurs. Ces offres devaient comprendre un serveur et son stockage attaché. Le cahier des charges était simple: la baie de disques de stockage devait offrir au minimum 30 TB de volume utile et supporter des charges concurrentes d’écriture et de lec-ture dans un rapport proche de 50 % et pour un débit total d’au moins 600 MB/s, chaque flux étant de type séquentiel. Ce cahier des charges se base sur les spécificités du service de backup, à savoir qu’il fonctionne selon le principe du D2D2T (Disk to Disk to Tape). En d’autres termes, les sauvegardes se font ainsi: les disques des clients sur les disques des serveurs, puis les disques des serveurs sur des bandes magnétiques. Les disques des serveurs servent d’espace tampon à basse latence. La copie sur bande magnétique assure le stockage des données pour l’entiè-reté de la durée de rétention. Notons qu’en condition normale, les sauvegardes des clients, donc les opérations d’écriture sur les disques des serveurs, ont lieu durant la nuit, et les copies sur bandes magnétiques, donc les opérations de lecture sur ces mêmes disques se tiennent durant la journée. Cependant, il arrive que des sauvegardes débordent sur la journée ou que les copies sur bandes n’ont pas pu être terminées avant le démarrage des premières sauvegardes du soir. Nous nous trouvons alors dans un mode mixte d’écriture/lecture, pendant lequel les stockages disques doivent pouvoir balancer leur capacité entre écriture et lecture. Avec 300 MB/s de lecture, nous pouvons déplacer ~12 TB de données des disques vers les lecteurs en 12 h, pendant les-quelles autant de données pourraient être écrites par des sauve-gardes concurrentes. Cela représente ~30% de la capacité de la baie dans la configuration retenue. En sachant que nous visons une rétention sur disque comprise entre cinq et sept jours, ces 12 TB de données représentent au moins une fois et demie le volume moyen d’une journée.

Configuration de stockage pour la sauvegarde sur [email protected], EPFL - Domaine IT, responsable du service de sauvegarde

Analyse

Matériel et Spécifications

Le PowerVault MD3260 est doté de deux contrôleurs. Chaque contrôleur est doté d’un cache en miroir de 2 GB, protégé des coupures de tension par une batterie, assurant ainsi la sécurité des données et la haute disponibilité du stockage. Quatre ports SAS 6Gbps équipent chacun de ces contrôleurs. Le MD3260 est une baie compacte, où les disques sont disposés à l’horizontale par douzaine dans cinq tiroirs. Dans la configuration acquise, la baie comporte soixante disques SAS 10k de 900 GB brut.Ces soixante disques ne sont pas exploitables directement. Il est nécessaire de créer des conteneurs logiques, qui peuvent être soit des disk groups ou groupe RAID, soit des disk pools. À l’intérieur de ces conteneurs, il faut ensuite définir un ou plusieurs virtual disks. Ce sont ces derniers qui seront présentés aux hôtes, les ser-veurs, via le LUN masking.Les disk groups offrent une protection RAID classique avec les niveaux 0, 1, 5, 6 et 10. Le nombre maximum de disques pour les RAID 0, 1 et 10 est de 96, et de 30 pour les RAID 5 et 6.Quant au disk pool, il lui faut un minimum de onze disques pour être défini, mais pas de maximum, si ce n’est le nombre que la baie et ses extensions peuvent supporter physiquement. Dans un disk pool, les données et la redondance sont réparties sur l’ensemble des disques, avec un niveau de protection semblable à un RAID 6. Ses principaux avantages sont la simplicité de configuration et de maintenance, ainsi qu’une reconstruction bien plus rapide qu’en RAID 6, en particulier pour les disques SATA de 3 TB.Les données sont lues ou écrites par stripe, ou bande. Une bande est constituée de segments. Le segment est l’unité minimale avec laquelle le disque virtuel travaille et cette opération se fait sur un disque. Les disques virtuels définis dans un disk group peuvent être configurés avec une taille segment variant de 8 kB à 512 kB, alors que ce segment est de taille fixe de128 kB, dans le cas d’un disque virtuel créé dans un disk pool. La taille de la bande, ou stripe width, est le nombre de segments, donc de disques. Dans le cas des disk groups, cette taille correspond au nombre de disques du groupe RAID. En revanche dans le cas du disk pool, elle est fixée à onze. Il s’ensuit que pour n disques de la bande, l’OS doit fournir n fois la taille de la bande.

Outils et conditions de tests

Le serveur est configuré avec deux processeurs Intel Xeon E5-2650 et de 64 MB de RAM. La connexion au stockage est réalisée par deux cartes PCI-E SAS 6 Gbps, sans contrôleur de stockage. Dell ne propose pas d’outil de multipathing propriétaire, mais uti-lise les outils natifs des OS, en modifiant les paramètres idoines, lors l’installation de leur logiciel sur le serveur.

Page 13: Flash informatique 2013 - no 7

13133 DÉCEMBRE 2013 - N° 7

L’OS installé est RHEL 6. Les LUNs présentés par le MD3260 sont assemblés en RAID 0 par le RAID software du noyau Linux.Les résultats présentés plus loin sont issus de données récoltées par la commande iostat -m -x 1, pendant qu’une ou plu-sieurs commandes dd réalisent des écri-tures ou des lectures. Le lancement des commandes dd se fait par un script shell. Rien de très sophistiqué, c’est fait au plus simple. De plus, dd a le mérite d’être assez rudimentaire, avec relativement peu d’op-tions, et d’offrir un comportement séquen-tiel, proche donc de l’application.

Configuration du stockage et premiers tests

Après quelques tests avec des disk pools, il s’est vite avéré qu’ils ne pouvaient pas répondre au cahier des charges. En effet, dès qu’un flux en écriture survenait, le ou les flux en lecture s’écrou-lait. Comme ce mode n’offre pas d’options de configuration, nous n’avons donc abandonné ce mode que pour revenir aux tradition-nels groupes RAID.Nous avons opté pour des disk groups protégés en RAID 5, qui offrent de meilleures performances en écriture séquentielle que le RAID 6. Nous avons fait des tests avec des groupes de 6+1 et 8+1. Ce choix est basé sur les discussions avec les ingénieurs Dell. Il est entre autres dépendant de compromis entre le nombre de disques virtuels, qui devront être assemblés au niveau OS, et la taille du groupe (plus gros implique un temps de reconstruction plus long). Avec soixante disques, nous avons donc:z 6+1: 7 disques par groupe, ce qui fait 8 disques virtuels et

4 disques de hotspare.z 8+1: 9 disques par groupe, donc 6 disques virtuels et toujours

4 disques de hotspare.

Nous avons pris garde à obtenir un nombre pair de disques vir-tuels, afin de répartir de façon uniforme les entrées/sorties sur les deux contrôleurs en assignant ces disques virtuels en même nombre aux deux contrô-leurs.Les tests n’ont pas montré de très grosses différences entre ces deux configurations. En d’autres termes les contrôleurs arrivent à gérer ces deux configurations sans souf-frir dans l’une plus que dans l’autre. Au final, nous avons opté pour la configuration en 6+1, qui limite doublement les sou-cis inhérents au RAID 5 –la perte d’un se-cond disque lorsque le premier n’a pas été reconstruit est fatale pour le RAID 5 –. En effet, nous limitons le temps de reconstruc-tion, mais aussi la taille du volume, donc l’occurrence d’une erreur non décelable. De plus, un groupe de disques comportant plus de membres présenterait théoriquement

Configuration de stockage pour la sauvegarde sur disque

plus de latence – les têtes de lecture de tous les disques impliqués ne vont pas se positionner simultanément sur le bon secteur–.

Résultats

La figure 1 montre un exemple de la sortie de la commande iostat pour une série de tests d’écriture et de lecture. La séquence mon-trée est un flux d’écriture, puis un flux de lecture, enfin un flux de lecture et d’écriture en simultanée. Nous pouvons constater que dans cet exemple, le débit du flux en lecture s’écroule avec la présence d’un flux d’écriture (voire entre 300 et 350 secondes).Le taux des requêtes de cette même séquence est affiché dans la figure 2. Le test d’écriture pure et de lecture pure montre la péna-lité d’écriture introduite par la protection RAID (suite au calcul de parité, la vérification des écritures nécessite des opérations de lectures supplémentaires). Le rapport entre les taux pour l’écriture et la lecture est d’environ 1:3.5. Cela est inférieur à la pénalité théorique de 1:4. Cette différence provient sans doute des effets combinés du cache et du circuit dédié au calcul de parité sur les contrôleurs. Le graphique montre aussi que, pendant le test d’écri-

0

100

200

300

400

500

600

700

800

900

0 50 100 150 200 250 300 350 400 450

débi

t [M

B/s]

Temps [s]

écriture lecture

fig. 1 – données de débit lecture/écriture d’une séquence de tests dd sur un disque virtuel sur un groupe RAID 5 en 6 + 1, avec un segment de 128 kB

0 50 100 150 200 250 300 350 400 450Temps [s]

0

1000

2000

3000

4000

5000

6000

7000

taux

de

requ

êtes

[–/s

]

écriture lecture

fig. 2 – données du taux de requêtes au niveau OS pour la même séquence que dans la figure 1

Page 14: Flash informatique 2013 - no 7

14141414 flash informatique1414 3 DÉCEMBRE 2013 - N° 7flash informatique

ture/lecture simultanée, l’écriture consomme l’essentiel des capa-cités d’entrée/sortie de la baie: pour une requête d’écriture de l’OS, la baie doit faire plus d’opérations de lecture, diminuant d’autant les ressources pour les requêtes de lecture. Compte tenu de ce que nous pouvons observer ci-dessus, nous pouvons déjà conclure que dans cet état, le service de backup ne pourrait pas être assuré: les écritures des secondes copies sur bandes magnétiques et les opérations de restauration des clients seraient pratiquement impossibles en cas de sauvegardes simul-tanées (écriture sur les disques), vu le débit de lecture si faible. Notons tout de même que nous avons déjà un total des débits écriture et lecture proche des 600 MB/s demandé par le cahier des charges, avec un disque virtuel. Il faut si possible trouver une configuration modifiant la répartition des opérations de lecture et d’écriture.

Configuration de stockage pour la sauvegarde sur disque

Les données présentées sont calculées à partir des médianes des mesures iostat pour deux flux en lecture et huit flux en écriture. Les tests ont été réalisés sur un assemblage en RAID 0 logiciel (MD RAID de Linux) de deux disques virtuels (une paire pour chaque taille de segment).Nous constatons un effet très sensible de la taille des segments. Plus cette taille est grande, plus le débit de lecture aug-mente. Cela est aussi le cas dans la ré-partition des taux de requêtes: dans la figure 4, nous voyons une répartition des taux de requêtes presque identiques pour les lectures et les écritures.Nous avons aussi observé que le débit de lecture ou le taux de requêtes de lecture n’est que très peu dépendant du nombre de flux, que ce soit en lecture ou en écri-

ture. En d’autres termes, la multiplication des flux de lecture ne va pas augmenter le débit de lecture, mais le partager entre les flux. La taille du segment du disque virtuel influence la répartition des ressources entre les opérations de lecture et d’écriture.

Conclusion

La configuration d’un stockage disque dépend fortement de l’ap-plication qui va l’utiliser. Dans le cas d’une application de bac-kup, nous avons des flux qui, pris un à un, sont généralement séquentiels. Dans notre cas de figure, le service de backup du DIT, il faut donc garantir un taux de lecture suffisant sur le stockage disque. En présence d’écritures, il faut limiter les pertes de débits de lecture, afin de pouvoir poursuivre la copie sur les bandes ma-gnétiques dans des conditions suffisamment bonnes. Il est crucial

que les données soient rapidement pro-tégées sur les bandes magnétiques, pour pouvoir purger ces données des disques des serveurs et ne pas bloquer les futures sauvegardes des clients.Nous avons donc cherché les conditions optimales dans ce sens. Nous avons constaté que la taille de segment des disques virtuels montre une influence notoire sur la répartition des taux de requête d’écriture et de lecture. En aug-mentant cette taille, la part réservée aux lectures augmente. Nous avons pu obtenir le rapport souhaité entre écriture et lecture avec des groupes RAID de six disques de données et une taille de seg-ment de 512 kB. n

32 64 128 256 512 1024

Taille des segments des disques virtuels [kB]

0%

10%

20%

30%

40%

50%

60%

% d

ébit

de

lect

ure

Taille des segments du MD RAID Linux [kB]

192 384 768 1536 3072 6144

fig. 3 – variation de rapport du débit de lecture sur le débit total en fonction de la taille du segment des disques virtuels, lors d’écritures et lectures concurrentes

fig. 4 – taux de requêtes de lecture et d’écriture avec une taille de segment de 512 kB

1250 1350 1450 1550 1650 1750 1850 1950Temps [s]

0

500

1000

1500

2000

2500

3000

3500

4000

4500

taux

de

requ

êtes

[–/s

]

écriture lecture

Page 15: Flash informatique 2013 - no 7

153 DÉCEMBRE 2013 - N° 7

How to take out assurance about virtual computer.

Comment être sûrs des backups quand les machines deviennent virtuelles.

L’utilisation des machines virtuelles peut entraîner cette illusion: ces environnements sont immatériels, détacher des contraintes matérielles. En réalité, c’est le contraire, car un serveur de vir-tualisation est capable de fournir un service très élaboré pour un grand nombre de serveurs interconnectés. La sauvegarde des in-formations est cruciale, elle dépasse la logique du contenant pour s’intéresser au contenu accompagné par les interrelations entre les composants. La sauvegarde classique suit ce schéma: ordinateur → serveur de backup → bandesAvec les machines virtuelles (VM, Virtual Machine), on possède un container logique, est-il possible d’imaginer une logique dif-férente ?Au premier abord, le backup de la machine virtuelle complète semble être la solution la plus adéquate. On sauvegarde un conte-nu complet, mais rapidement on se retrouve devant deux écueils:z la taille de la machine, de 8 à 200 Goz comment copier une machine en fonctionnement ?

App

OS invité

App

OS invité

App

OS invité

App

OS invité Consolede service

Hyperviseur de type 1

Architecture x86

Gestion ducluster

CPU Réseau DisqueMémoire

App

OS invité

App

OS invité

Snapshot SauvegardeVM

sauvegarde avec snapshot de VM

Ces deux obstacles sont résolus par une seule technologie, le snapshot. Cette technique consiste à prendre un instantané. Si on combine plusieurs instantanés, la différence entre deux états suc-

Sauvegarde virtuelle avec [email protected], EPFL -STI, coordinateur informatique à la Faculté des Sciences et Techniques de l’Ingénieur

Analyse

cessifs offrira la capacité de sauvegarder uniquement les valeurs modifiées. En cas de désastre, la reconstruction de l’image doit passer par chacune de ces étapes successives. Naturellement la première sauvegarde doit être complète pour pouvoir ensuite cal-culer la différence avec les états suivants. Cette technologie existe également directement intégrée dans le système d’exploitation Microsoft Windows.La seule limitation avec cette méthode est dans le cas d’une machine virtuelle possédant elle même des états successifs (une différence de différence devient difficile à définir). La seule possi-bilité restante est la sauvegarde de la machine complète incluant elle-même ses propres snapshot issues de la virtualisation.Les volumes nécessaires et leurs vitesses d’accès deviennent cru-ciaux pour la sauvegarde. Il est probable qu’une sauvegarde sur bande ne puisse répondre aux besoins de débit. Dans un premier temps, on serait tenté d’oublier un système de backup et de sim-plement sauvegarder ces instantanés sur un espace de fichiers NAS. Cependant un logiciel de backup offre des possibilités sup-plémentaires avec la capacité de sauvegarder les quatre types de données: les fichiers, les bases de données, le disque et finalement la machine virtuelle dans son intégralité. Une solution élégante est de combiner les deux solutions: prendre un serveur de stoc-kage bon marché possédant une grande capacité de stockage, 14.6 To utiles et ajouter un logiciel de backup.

Une sauvegarde virtuelle avec Atempo

Je vous propose de lire l’article de Stéphane Ecuyer dans le FI5/08, flashinformatique.epfl.ch/spip.php?article1420 qui décrit dans le détail la configuration et la gestion d’Atempo, mon propos est uniquement l’apport de la sauvegarde d’un environnement virtuel complet. Atempo offre tous les composants nécessaires à cette réalisation:z un logiciel complet de sauvegarde,z des composants complémentaires permettant de s’interfacer

avec tous les types nécessaires,z la capacité de créer des lecteurs de bandes virtuelles (VTL,

Virtual Tape Library) dans un espace de stockage classique.Cerise sur le gâteau, l’EPFL dispose d’une licence site pour ce logi-ciel. Au premier abord, il paraît saugrenu de vouloir recréer des bandes dans un espace de fichiers de type NAS. Avec des fichiers, on doit mettre en place un mécanisme qui permette de réaliser la rotation de données, il doit être suffisamment robuste pour s’accommoder de changement de volumétrique.Le lecteur de bandes virtuelles VTL crée un espace apparemment très simple en utilisant 50 % de l’espace disponible divisé en 7500 fichiers de 10 Go. Chacun de ses fichiers est en réalité une métaphore d’une bande magnétique, chaque bande virtuelle peut être allouée, utilisée et recyclée. Ces opérations paraissent très

Page 16: Flash informatique 2013 - no 7

16161616 flash informatique1616 3 DÉCEMBRE 2013 - N° 7flash informatique

simples, en réalité la gestion de stock de bandes peut rapidement devenir un cauchemar. Dans un environnement réel, le robot de backup ne peut contenir toutes les bandes, on doit les charger et les décharger régulièrement. En virtuel avec un lecteur VTL, ces contraintes disparaissent uniquement vers un processus logique:1 définir la qualité de service, la rétention maximum en jours,2 créer une sélection,3 définir la sauvegarde et exécuter le processus régulièrement.

1. Atempo, sélection des données à sauvegarder

2. Atempo, définition d’une limite de stockage

3. Atempo, déroulement dans le temps

Le logiciel de sauvegarde prend tout son intérêt quand la volumé-trie, le nombre de machines virtuelles à sauvegarder se modifie. Avec une organisation de type NAS classique, il faudrait s’assu-rer que notre schéma d’organisation soit capable de suivre la modification du volume. Avec un lecteur de bandes virtuelles VTL, l’incrément est la taille d’une bande, si le volume à sauvegarder diminue, les bandes excédentaires seront recyclées, si le volume augmente, un plus grand nombre de bandes sera utilisé.La volumétrie réellement utilisée sera uniquement les bandes utiles, une bande virtuelle recyclée ou vide n’occupe pas de place sur le disque de stockage. Dans ce contexte, la taille de 10 giga-octets d’une bande virtuelle paraît grossière, elle correspond à quasiment la taille minimum d’une machine virtuelle.Le logiciel de sauvegarde Atempo est parfaitement capable de sauvegarder les autres types de données comme une base de données, un ensemble de fichiers ou encore une machine de type Windows (avec la technologie de snapshot de Microsoft).

Atempo, applications supportées

La combinaison de ces différentes technologies permet d’imaginer ce scénario hybride:z utiliser un serveur avec Windows 2008,z réaliser une sauvegarde de type snapshot dans Windows avec

Atempo SRA,z créer une machine virtuelle équivalente (vide),z rétablir la sauvegarde sur la machine virtuelle.On se retrouve devant un clone parfait, sans avoir dû éteindre la machine initiale, sans même accéder à l’environnement physique du serveur (qui peut être physique ou virtuel).

Atempo, serveur de sauvegarde avec lecteur de bandes virtuel

Sauvegarde virtuelle avec Atempo

Page 17: Flash informatique 2013 - no 7

17173 DÉCEMBRE 2013 - N° 7

La seule précaution consiste à activer la variable TINA_SRA_ENABLE_BCD = yes pour sauver la partition de démarrage pré-sente depuis Windows 7.

Atempo, configuration SRA

Atempo, récupération SRA

Une ceinture de sécurité pour les ma-chines virtuelles

En fonction depuis deux ans à la STI, cette solution Atempo sur un NAS bon marché permet de garantir une sécurité de service élevée en limitant au maximum l’investissement matériel:z un serveur de virtualisation,z un NAS utilisé comme serveur de sauvegarde.Une plus grande qualité de services entraînera une augmentation de l'investissement par la redondance des équipements. Le choix d’héberger sur le serveur NAS le logiciel Atempo ne provoque pas de surcharge. Ceci est possible, car les processeurs modernes pos-sèdent plusieurs cœurs accompagnés d’une mémoire suffisante. Dans le cas utilisé, c’est un serveur HP avec Windows 2008 OEM possédant un processeur E5520 et 6 Go de RAM. Naturellement, il n’est pas utilisé en NAS classique avec des clients externes !Cette condition doit être impérativement respectée (un serveur ne peut pas se sauvegarder lui-même).La capacité du logiciel Atempo à sauvegarder de nombreux types de données permet d’imaginer et de tester de nombreux scénarios de sauvegarde, même ceux plus classiques comme la sauvegarde de fichiers ou celle utilisant les snapshot intégrés dans les OS modernes de Microsoft.J’ai rarement utilisé la fonction de restauration, mais sans cet ange gardien, je me serais retrouvé plusieurs fois dans la situation très périlleuse de sauter dans le vide sans parachute. n

Sauvegarde virtuelle avec Atempo

Le courrier du lecteur

Solution 2 to the maths problem that Manuel Ojan-guren proposed in the FI 4/2013.

Solution 2 au problème posé par Manuel Ojanguren dans le FI 4/2013.

NDR: Monsieur Grégoire Nicollier, mathématicien, professeur à la

Haute Ecole d’Ingénierie du Valais à Sion propose une deu-xième approche à la solution du problème de l’été parue dans le FI5/2013, flashinformatique.epfl.ch/spip.php?article2667 et flashinformatique.epfl.ch/spip.php?article2668. La voici.

Prenons 64 cases (ou une puissance de 2) et alignons-les pour simplifier. Numérotons-les de 0 à 63 et écrivons ces numéros sur 6 bits, de 000000 à 111111, mais en les représentant par des vec-

Comment faire ?

teurs à 6 composantes, de (0,0,0,0,0,0) à (1,1,1,1,1,1). Chaque case est pile ou face. La valeur du jeu est la somme des vecteurs des cases pile, avec l’addition composante par composante modulo 2 (1+1=0). Le premier prisonnier calcule la valeur V du jeu, disons V=(0,1,1,0,0,0). Le directeur de la prison montre par exemple la case C=(1,0,1,1,0,1), la case numéro 45. Le prisonnier doit transformer la valeur du jeu en C pour que son compagnon trouve C en calculant la valeur de la nouvelle dispo-sition. Quand on tourne la pièce d’une case donnée par le vecteur K, la valeur du jeu passe à V+K, que K soit pile ou face, car + = – (où + est l’addition modulo 2 par composante). Mais C = V+(V+C), car V+V=(0,0,0,0,0,0). Le premier prisonnier tourne donc la pièce de la case numéro V + C = (0,1,1,0,0,0)+(1,0,1,1,0,1)=(1,1,0,1,0,1), c’est-à-dire 53. n

Page 18: Flash informatique 2013 - no 7

flash informatique181818 3 DÉCEMBRE 2013 - N° 7

How to reinstall Linux from Linux.

Comment réinstaller Linux depuis Linux.

Introduction

Lorsque vous avez un système qui tourne déjà sous Linux, il arrive que l’on souhaite réinstaller son système d’exploitation avec la même version ou distribution, mais pas obligatoirement. Je vous propose une solution simple et élégante afin de réaliser cela. L’idée est d’utiliser GRUB pour lancer votre nouvel installeur. Il n’est pas nécessaire d’avoir la même version de Linux, il suffit simplement de choisir la distribution que l’on désire installer.

Préparation

Evidemment pour faire cela de manière simple, on utilisera juste le strict minimum requis. Afin de démarrer notre système, la pre-mière chose à faire est d’aller récupérer deux fichiers dont on aura besoin, à savoir notre noyau linux et une image d’un système minimal qui contient un système de fichiers et toutes les instruc-tions nécessaires à son installation. Pour cela, il va falloir trouver notre noyau et notre image pour notre système Linux préféré, et qui reste la principale difficulté pour certaines distributions.

FedoraPour Fedora, on trouvera ces deux éléments dans le dossier isoli-nux de la distribution. Exemple pour la distribution Fedora 19 (64 bits) [1], en fouillant dans le dossier isolinux on trouvera les deux fichiers qui nous intéresse, à savoir:

1. vmlinuz2. initrd.img

RedhatIdem pour Redhat, on trouvera nos deux mêmes fichiers dans le dossier isolinux. On peut également, comme pour Fedora, utiliser une image ISO. Par exemple:

mount -o loop rhel-client-6.4-x86_64-boot.iso /mnt/iso

ls -al /mnt/iso/dr-xr-xr-x 4 root root 2048 Jan 30 2013 .drwxr-xr-x. 18 root root 4096 Sep 2 10:04 ..dr-xr-xr-x 3 root root 2048 Jan 30 2013 imagesdr-xr-xr-x 2 root root 2048 Jan 30 2013 isolinux-r--r--r-- 1 root root 438 Jan 30 2013 TRANS.TBL

On pourra se servir dans le dossier isolinux ou dans le dossier images/pxeboot qui contiennent les deux fichiers dont nous aurons besoin.

Installer Linux avec [email protected], EPFL – Domaine-IT, Responsable Linux

Comment faire ?

UbuntuPour Ubuntu, c’est un peu plus compliqué. Vous devez obligatoire-ment trouvez ces deux fichiers, qui n’ont pas le même nom que ci-dessus, dans un dossier qui fait référence au réseau (net…). Dans le cas contraire, l’installeur ne trouvera jamais ses petits et vous serez bloqué. Par exemple, pour la version 13.10 (64 bits) [2], on trouvera notre bonheur dans le dossier main/installer-amd64/current/images/netboot/ubuntu-installer/amd64 et les deux fichiers dont nous aurons besoin seront:

1. linux2. initrd.gz

Vous pouvez également utiliser l’image ISO qui se nomme mini.iso et qui se trouve dans le dossier main/installer-amd64/cur-rent/images/netboot:

mount -o loop /tmp/mini.iso /mnt/iso

ls -al /mnt/isototal 25188dr-xr-xr-x 4 root root 4096 Oct 15 21:43 .drwxr-xr-x. 18 root root 4096 Sep 2 10:04 .....-r--r--r-- 2 root root 19973188 Oct 15 21:43 initrd.gz...-r--r--r-- 2 root root 5601944 Oct 9 20:59 linux...

où nous retrouvons nos deux fichiers cités précédemment.

Passons à la pratique

Nous devons malheureusement distinguer deux cas de figures. Soit l’on a GRUB version 1 ou GRUB version 2, mais dans les deux cas le résultat sera le même. Commençons par ce qui est commun, il nous faut poser ces deux fichiers dans un répertoire. Choisissons par exemple le répertoire /boot, et utilisons les commandes sui-vantes:

# Fedora 19 (64 bits)

wget -P /boot http://mirror.switch.ch/ftp/mirror/fedora/linux/releases/19/Fedora/x86_64/os/isolinux/vmlinuz

wget -P /boot http://mirror.switch.ch/ftp/mirror/fedora/linux/releases/19/Fedora/x86_64/os/isolinux/initrd.img

GRUB version 1Ensuite nous devons ajouter cette information dans le menu de GRUB, pour faire cela on utilisera la commande suivante:

cat << GRUB >> /boot/grub/grub.conftitle EPFL_Install root (hd0,0) kernel /boot/vmlinuz initrd /boot/initrd.imgGRUB

Page 19: Flash informatique 2013 - no 7

19193 DÉCEMBRE 2013 - N° 7

qui ajouterons 4 lignes dans le fichier /boot/grub/grub.conf. Ici, le /boot se trouve sur le premier disque (hd0) et sur la première partition qui dans la syntaxe de GRUB version 1 s’écrit (hd0,0).

GRUB version 2Pour la seconde version de GRUB, on peut utiliser ceci:

cat << GRUB >> /etc/grub.d/40_custommenuentry 'EPFL_Install' set root='hd0,msdos3' linux /boot/vmlinuz initrd /boot/initrd.imgGRUB

qui ajoutera cinq lignes dans le fichier /etc/grub.d/40_custom. Par contre ici, le /boot se trouve sur le premier disque (hd0) mais sur la troisième partition, qui dans la syntaxe de GRUB version 2 se décrit hd0,msdos3. Il faut encore exécuter la commande suivante:

# Fedora

grub2-mkconfig -o /boot/grub2/grub.cfg

# Ubuntu

grub-mkconfig -o /boot/grub2/grub.cfg

afin de mettre à jour le fichier de configuration de GRUB.

KickstartL’idéal dans ce type d’installation est d’utiliser Kickstart [3] [4] afin d’automatiser tout le processus d’installation. Il ne faudra pas oublier de rajouter les quelques lignes ci-dessus dans le menu de GRUB, ce qui pourra se faire de la manière suivante dans la partie post-installation de Kickstart:

%post#rc.localcat <<EOF > /etc/rc.d/rc.local#!/usr/bin/sh## GRUBwget -P /boot http://mirror.switch.ch/ftp/mirror/fedora/linux/releases/19/Fedora/x86_64/os/isolinux/vmlinuzwget -P /boot http://mirror.switch.ch/ftp/mirror/fedora/linux/releases/19/Fedora/x86_64/os/isolinux/initrd.imgchmod 755 /boot/vmlinuzchmod 600 /boot/initrd.imgcat << GRUB >> /etc/grub.d/40_custommenuentry 'EPFL_Install' set root='hd0,msdos3' linux /boot/vmlinuz initrd /boot/initrd.imgGRUBgrub2-mkconfig -o /boot/grub2/grub.cfg

# On désactive le service puisqu'il vient d'être exécuté/bin/chmod -x /etc/rc.d/rc.localexit 0EOF

# On active le service/bin/chmod +x /etc/rc.d/rc.local%end

Conclusion

Il ne reste plus qu’à redémarrer notre machine et de choisir notre menu d’installation. Il faut savoir que c’est une technique très

utilisée dans l’installation, ou réinstallation, des noeuds dans une ferme de calcul. Si vous êtes méthodique et que vous notez cha-cune des commandes qui modifient votre système dans un fichier kickstart, vous n’aurez alors plus besoin de faire des sauvegardes de votre système. Il suffira simplement de réinstaller votre ma-chine à l’aide de votre fichier kickstart maintenu à jour, et cela ne vous prendra que quelques minutes. C’est une technique que nous avons largement utilisée pour la (re)mise en route de serveur.

Rédérences[1] Fedora 19: mirror.switch.ch/ftp/mirror/fedora/linux/re-

leases/19/Fedora/x86_64/os[2] Ubuntu 13.10: mirror.switch.ch/ftp/mirror/ubuntu/dists/saucy[3] Automatiser votre installation Linux avec Kickstart, FI4/12[4] Personnaliser vos images ISO Linux, FI8/10 n

Installer Linux avec GRUB

Ce Forum IT d’automne sera l’occasion d’avoir une vue d’ensemble sur les systèmes d’informations de l’EPFL, de poser vos questions et d’en débattre en présence de Karl Aberer, Vice-Président des systèmes d’informations qui participera à cette rencontre et ré-pondra à vos questions.

Jeudi 5 décembre 2013 au Forum du Rolex Learning Center

14h00-14h30

Vision et stratégie des systèmes d’information de l’EPFL. K. Aberer, vice-président des systèmes d’infor-mations de l’EPFL.

14h30-14h50

Tout ce que vous avez toujours voulu savoir sur les services. A. Wegmann, responsable du laboratoire de modélisation systémique.

14h50-15h10

Présentation des activités du service Support opéra-tionnel. N. Panchaud, chef de service du support OS.Fonctionnalités du BUS d’entreprise dans ce contexte. Q. Estoppey, ingénieur système Camipro.

15h10-15h30

Quoi de neuf au DIT ? J.-C. Berney, directeur du DIT. Data Centers, l’union fait la force. A. Boisseau, res-ponsable Data Center au DIT. Ça bouge dans la téléphonie fixe. V. De Marinis, chef de projet Communications Unifiées.

15h30-15h50

IS-Academia, l’outil de gestion des études de l’EPFL. L. Ramelet, chef de service.

15h50-16h10

Au cœur de l’infrastructure IT du Blue Brain Project. F. Schürmann, Blue Brain Project’s General Project Manager.

Le Forum sera suivi d’un apéritif auquel vous êtes cordialement invités. Merci de vous inscrire directement au moyen du formu-laire, inform.epfl.ch/?form=Forum_IT, pour nous permettre d’or-ganiser cet événement.

[email protected], responsable de la communication du DIT

Page 20: Flash informatique 2013 - no 7

flash informatique202020 3 DÉCEMBRE 2013 - N° 7

In June 1994, in a paper signed by the honorable Werner Schwarz from Cray Research Switzerland, the Flash informatique described the decision to present two Cray supercomputers in the alleys of the Centre Midi: the Cray XMP/48 and the Cray-2, which have both been decommissioned recently. Twenty years after, IBM offers the BlueGene/P to the Bolo Museum. This is for us the opportunity to come back on the History of scientific computing at EPFL. And, what is prepared for the future.

En Juin 1994, sous la plume de l’excellent Werner Schwarz de Cray Research Suisse, le Flash informa-tique décrivait la décision d’exposer deux superordi-nateurs dans les couloirs du Centre Midi de l’Ecole 1. Il s’agissait alors du Cray XMP/48 en provenance du CERN et du Cray-2 tout juste mis au rebut. Près de vingt ans après, IBM offre le BlueGene/P au Musée Bolo 2. L’occasion de revenir sur l’histoire des ma-chines qui ont fait le Calcul Scientifique à l’EPFL.

Alors, le premier ordinateur au monde, c'est lequel ?

Pour être appelée ordinateur, une machine doit posséder quelques caractéristiques définies dans les années 1950 (1951, selon le Petit Robert): «Un ordinateur est une machine électro-nique de traitement numérique de l’information exécutant à grande vitesse les instructions d’un programme enregistré». Un superordinateur possède lui quelques caractéristiques supplé-mentaires selon le même Petit Robert (définition de 1985): «Un supercalculateur est un ordinateur de très grande puissance de calcul, possédant des temps de cycles d’instructions très courts, des ressources importantes et la possibilité d’effectuer des opéra-tions en parallèle». Sans remonter très loin dans le temps, à l’époque des Pascaline et des machines mécaniques ou électromécaniques développées dans l’arrière-boutique berlinoise des parents de Konrad Zuse en 1937 par ce dernier, et sans rentrer dans le débat stérile de savoir quel était le premier ordinateur (et qui l’a inventé), citons la machine qui est considérée par beaucoup – dont le soussigné – comme l’un des premiers ordinateurs: le Manchester Mark 1 en 1948. Développé à l’Université de Manchester par F.C. Williams et Tom Kilburn sur la base des travaux du mathématicien hon-

L'EPFL et les superordinateurs: trente ans d'[email protected], EPFL, expert applicatif, CADMOS& [email protected], EPFL – Domaine IT, rédacteur a.i.

Analyse

grois John Von Neumann (resté célèbre pour l’architecture qu’il a théorisé et qui est encore à la base des ordinateurs modernes), le Manchester Mark 1 possède toutes les caractéristiques d’un ordinateur moderne. Sa programmation différait puisqu’elle était effectuée par des liaisons physiques et son électronique ne traitait que des entiers.

Manchester Mark 1

En 1947, les laboratoires Bell Labs aux États-Unis présentent le premier transistor. Il faudra attendre huit années pour voir le pre-mier ordinateur fonctionnel débarrassé de ses tubes à vide et rem-placés par des transistors. L’Université de Manchester, encore elle, présente le premier prototype d’un ordinateur moderne: 92 tran-sistors et 550 diodes permettant des instructions à la vitesse pro-digieuse – pour l’époque – de 125 Khz. Ce fut le tournant.Notons que la Suisse n’est pas en reste dans le développement précoce des ordinateurs. Entre 1948 et 1955, Ambros Speiser, alors à l’ETH Zürich (il est ensuite parti fonder le centre de recherche d’IBM Rüschlikon) et son équipe développent le tout premier or-dinateur 100 % helvétique: ERMETH (Elektronische RechenMa-schine der ETH) doté de 2000 tubes à vide, de 6000 diodes et d’une mémoire pesant 1.5 tonne et à la capacité prodigieuse de 27.5 KB. Cette machine importante est aujourd’hui présentée au musée de la communication de Berne.

musée de la communication de Berne – ERMETH

1 dit-archives.epfl.ch/FI94/6-94-page15.html2 flashinformatique.epfl.ch/spip.php?article2708

Page 21: Flash informatique 2013 - no 7

21213 DÉCEMBRE 2013 - N° 7

1965: Seymour Cray, CDC et les superor-dinateurs

Parmi les grands architectes qui sont restés dans l’Histoire du design des ordinateurs, il y a évidemment les Alan Turing, Gene Amdhal ou Richard Grimsdale. Mais celui qui est encore considéré aujourd’hui comme l’inventeur même des superordinateurs c’est un ingénieur brillant travaillant pour Control Data Corporation (CDC): Seymour Cray. Et c’est en 1965 que le monde a pu imagi-ner pour la première fois, la puissance de ce qui est aujourd’hui considéré comme la troisième voie de la recherche scientifique: la simulation numérique. Seymour Cray était un ingénieur électri-cien avec de solides bases mathématiques. De par cette formation idéale, il savait décrire parfaitement les ressources nécessaires aux algorithmes des applications. Et par conséquent, comment il fallait construire une machine qui saurait fournir ces ressources au mieux. Le résultat obtenu, considéré comme le premier supercalculateur du monde, fut le CDC 6600. Une machine parallèle (un proces-seur principal et 10 processeurs périphériques) capable d’atteindre 1 Mflops (entre 2 et 4 fois meilleur que des ordinateurs de taille similaire). Le premier exemplaire de la série fut livré au CERN à Genève le 14 janvier 1965. Malheureusement, dès la fin des années 1960, les finances de CDC n’étant pas au beau fixe, les projets techniques proposés par Sey-mour Cray, dont le successeur du 6600, ont été mis en standby. Seymour a donc décidé de quitter CDC pour fonder en 1972, quelques kilomètres plus loin que son ancien employeur, une nou-velle compagnie: Cray Research Inc. Accompagné de quelques anciens de chez CDC, il a développé le mythique Cray 1 capable d’atteindre la performance hallucinante de 136 MFlops. Le premier exemplaire est installé à Los Alamos National Laboratory en 1976.

Début des superordinateurs à l'EPFL

Le tout premier système installé à l’EPUL, dans le pavillon Rose-neck de l’avenue de Cour à Lausanne, est une Stantec Zebra avec son code simple; c’était en 1958.En 1964, le Centre de calcul électronique de l’EPUL installe un ordinateur IBM 7040 avec un système IBSYS, dans un petit bâti-ment sis à l’avenue de Cour. En 1972, le Centre de Calcul de l’EPFL s’agrandit et construit le nouveau Centre de Calcul pour y accueillir sa première machine Control Data, la CDC Cyber 7326 et son système SCOPE 3.3. Lui succéderont la CDC Cyber 170/720 et son système NOS/BE en 1980 et, en 1983, dans les nouveaux locaux de la première étape du campus d’Ecublens, deux CDC Cyber 170/855 et leur système NOS qui tourneront jusqu’en 1990. Après l’ère CDC, début 1986, l’EPFL entre dans l’ère Cray Re-search avec un Cray 1 S/2000. Le GASOV (groupe d’applications scientifiques sur ordinateurs vectoriels) composé de 35 personnes a été mis en place pour apporter un support aux utilisateurs de ce premier PHP (Processeur à Haute Performance). Aujourd’hui, cette machine, partiellement désossée, est visible à l’entrée des locaux du DIT.

En 1987, les Chambres Fédérales décident d’un crédit extraordi-naire de 40 millions de francs suisses pour garder la Suisse dans la course parmi les leaders mondiaux du calcul scientifique. Ces 40 millions doivent servir à l’achat d’un Cray X-MP/28 à deux processeurs par l’ETH Zürich et d’un exemplaire du tout nou-veau Cray 2 à très grande mémoire (2 GB) par l’EPFL, ces deux machines étaient complémentaires; le GASOV et son homologue zurichois conseillaient les utilisateurs de faire tourner leurs pro-grammes sur l’une ou l’autre des machines selon leur nature. Le Cray 2 est installé en 1988 et fonctionnera pendant cinq années. Aujourd’hui, il est visible avec sa fontaine au Musée Bolo. En avril 1994, une machine massivement parallèle avec ses 128 processeurs et sa performance crête de 19.2 GFlops, un Cray T3D, entre à l’EPFL. Le T3D n’étant pas directement adressable, toutes les opérations doivent transiter par sa machine hôte, soit le Cray YMP M94: Pascal. Il sera mis hors tension en avril 1999.

Ère des IBM BlueGene

Dès le milieu des années 2000, un projet scientifique d’une am-pleur mondiale commence à se faire connaître. Dirigé par un pro-fesseur de l’EPFL, Henry Markram, il vise à simuler rien moins que le fonctionnement d’un cerveau humain. Pour cela, l’équipe du professeur Markram doit disposer de la machine la plus puissante du marché. L’EPFL fait donc l’acquisition du supercalculateur IBM BlueGene/L en 2005. Doté de 8’192 cœurs, la machine atteint une performance de 18.2 TFlops sur le benchmark synthétique HPL ce qui en fait la machine la plus rapide jamais installée en Suisse et la neuvième machine la plus rapide du monde. Ce record vient d'être battu au moment où nous mettons sous presse 3. L’idée de la firme IBM est de relier énormément de noeuds de calcul fonc-tionnant à basse fréquence et donc consommant beaucoup moins d’énergie autour d’un réseau d’interconnexion rapide et évolutif. Le BlueGene/L de l’EPFL est définitivement arrêté en 2009 et offert au centre Edmond and Lily Safra International Institute de Neu-roscience à Natal au Brésil . Il est remplacé par le successeur IBM BlueGene/P 4 du consortium CADMOS regroupant les universités de Lausanne et de Genève ainsi que l’EPFL pour une vision léma-nique du calcul scientifique. L’IBM BlueGene/P fonctionnera de 2009 à 2013 sur des projets des trois partenaires universitaires. Il était composé de quatre racks regroupant 16’384 cœurs pour une performance crête de 47.7 TFlops. Mise au rebut en 2013, cette machine a été offerte par IBM au Musée Bolo. Elle y est depuis exposée en état de fonction-nement grâce au travail patient de quelques passionnés qui ont su lui redonner vie 5 aux côtés du Cray 2, du T3D et du XT4 offert par le Centre Suisse de Calcul Scientifique (CSCS) en attente de réveil. Dès le début de 2013, c’est la troisième génération des superordi-nateurs IBM BlueGene qui exécute les simulations les plus deman-deuses en temps calcul de l’arc lémanique: un IBM BlueGene/Q capable d’une performance de 189 TFlops. Cela en fait la machine la plus puissante jamais installée à l’EPFL. Nul doute que ce titan rejoindra le Musée Bolo à la fin de sa vie. D’ici là, faites un tour au Musée Bolo et embrassez 30 ans d’histoire du calcul scientifique à l’EPFL d’un seul coup d’oeil. n

3 www.top500.org/lists/2013/11/4 actualites.epfl.ch/index.php?module=procontent&func=display&id=2368&newlang=eng5 www.ibm.com/news/ch/fr/2013/11/05/j969989t82786t67.html

L'EPFL et les superordinateurs: trente ans d'histoire

Page 22: Flash informatique 2013 - no 7

3 DÉCEMBRE 2013 - N° 7flash informatique222222

The Bolo museum adds four giants to its collection.

Le Musée Bolo s’enrichit de quatre mastodontes.

Le Musée Bolo

Fondé en 2002 et géré par Mémoires Informatiques, une fon-dation privée, le Musée Bolo possède plusieurs milliers d’ordina-teurs et autres objets informatiques. Sa mission est la sauvegarde du patrimoine informatique, notamment celui d’origine suisse. L’association des amis du Musée Bolo, l’aBCM, contribue à la valorisation des collections du musée, à la restauration et à la remise en état des anciennes machines. Les objets les plus rares des collections, tels l’Apple Lisa et l’IMSAI 8080 et les plus em-blématiques, comme le PET de Commodore ou le TI 99/4A, sont également exposés. Depuis peu, quatre superordinateurs à haute performance ont pris place dans l’enceinte du Musée Bolo qui est hébergé par l’EPFL dans les locaux de la Faculté Informatique et Communications.

L’IBM BlueGene/P

Pour la partie exposée au musée:1 024 noeuds de calculMémoire RAM totale: 4 ToConsommation électrique: 25 kW

Installé à l’EPFL en octobre 2009, le BlueGene/P a été en service jusqu’en février 2013. Un réseau d’interconnexions en forme de tore à trois dimensions permettait de rajouter des racks sans perte de performances. La machine offerte par IBM au Musée Bolo était constituée de quatre racks dont un seul est visible dans le musée. En service durant 29 mois, le BlueGene/P a eu pour principaux uti-lisateurs le Blue Brain Project, à l’origine du Human Brain Project, mais aussi le Centre européen de calcul atomique et moléculaire, le CECAM, ainsi que le Laboratoire de chimie et de biochimiecomputationnelles. Le BlueGene fait partie de la série de superor-dinateurs installés par IBM à l’EPFL depuis 2005. Le BlueGene/P a succédé au BlueGene/L en 2009 et précède le BlueGene/Q qui est opérationnel depuis le début de l’année 2013. En terme de per-formances, les quatre racks du modèle P de l’EPFL affichaient une performance de 47.7 téraflops (1 téraflops équivaut à mille mil-liards d’opérations en virgule flottante par seconde) sur le bench-mark HPL (High Performance Linpack), soit la 99e machine la plus puissante de la planète. Par comparaison, le BlueGene/L annonçait 18.2 téraflops en 2005 et était la 9e machine la plus puissante au monde à l’époque, quant à son successeur, le modèle Q, il inscrit une performance de 189 téraflops.

Du Hewlett-Packard 2116 …au BlueGene/P

www.bolo.ch

Actualités

Le Cray-2

4 processeurs vectoriels à 250 MHzMémoire RAM totale: 2 GoConsommation électrique: 195 kW

Le Cray-2 a été installé en 1988 à l’EPFL où il est resté en service jusqu’en décembre 1993, après 43 000 heures de disponibilité. Pour absorber la chaleur de 195 kW émise par ses 280 000 puces, les composants électroniques étaient plongés dans un fluide calo-porteur inerte, le Fluorinert. Sa mémoire centrale de 2 Go se prê-tait aux simulations tridimensionnelles, tels les problèmes du typeéléments finis, volumes finis ou différences finies.

Le Cray T3D

256 processeurs DEC Alpha 21064 à 150 MHzMémoire RAM totale: 16 GoConsommation électrique: 80 kW

Le Cray T3D est la première machine massivement parallèle de Cray. Chaque processeur DEC Alpha implémente un set réduit d’instructions et il est relié aux autres par un tore à trois dimen-sions (d’où le nom T3D). La programmation d’une telle machine est très complexe et requiert l’utilisation d’un paradigme de type MIMD (Multiple Instructions on Multiple Data). Aujourd’hui, qua-siment toutes les applications scientifiques à large échelle uti-lisent ce paradigme. Le Cray T3D a été installé en avril 1994 avec 128 processeurs, puis étendu à 256 processeurs.

Le Cray XT4

448 processeurs Dual CoreMémoire RAM: 896 GoCapacité de calcul: 5 gigaflops

Inauguré en septembre 2007 au Centre suisse de calcul scientifique (CSCS) à Manno, au Tessin, le Cray XT4 était destiné à prévoir la météo de façon plus précise qu’auparavant. Une simulation quidurait 60 minutes pour une prévision de 24 heures était réduite à 25 minutes. Le service météo utilisait 30% des ressources du Cray XT4, le restant étant utilisé par les chercheurs des hautes écoles. Cray avait personnalisé le superordinateur aux couleurs helvétiques. En 2013, le CSCS a offert un des cinq racks au Musée Bolo. n

Page 23: Flash informatique 2013 - no 7

233 DÉCEMBRE 2013 - N° 7

The IPv6 link-local address is an overlooked security weakness.

L’adresse IPv6 link-local est un problème de sécurité peu connu.

Suite à l’épuisement récent des adresses IPv4, ça y est, c’est sûr, tout le monde doit passer à son successeur IPv6, qui dispose d’as-sez d’adresses pour, s’il le fallait, connecter entre eux tous les pro-tons de l’Univers ! Mais la transition sera lente: les fournisseurs de contenu continueront longtemps à être accessibles en IPv4 parce que c’est ce qu’utilise encore la majorité des clients, qui, du coup, est peu encline à passer à IPv6. Quoi qu’il en soit, Linux apporte d’ores et déjà sa contribution au mouvement et ça fait donc belle lurette que les principales distributions activent par défaut la connectivité en IPv6. Pourtant, il paraît beaucoup d’articles où les spécialistes avertissent, l’air sombre, que ce passage à IPv6 appor-tera son lot de problèmes de sécurité... Le but de cet article est de parler de cet aspect dans la mesure où il concerne l’administrateur de systèmes Linux (y compris celui qui gère son laptop ou sa sta-tion de travail) et de suggérer des solutions.

Le problème

Alors que sous IPv4 il faut faire quelque chose (demander une adresse fixe à son administrateur réseau ou passer par un ser-veur DHCP) pour obtenir une adresse et se connecter au réseau, un noyau Linux implémentant IPv6 va créer d’office une adresse fonctionnelle, l’adresse link-local, déduite de l’adresse physique (MAC address) de la carte réseau. Le préfixe prédéfini pour ce type d’adresse est fe80::/64, par exemple ma station de travail a une adresse link-local fe80::219:d1ff:fe7e:12b8, déduite de l’adresse MAC 00:19:D1:7E:12:B8 (le but de cette adresse est de remplacer pour IPv6 le protocole ad hoc ARP d’IPv4).C’est cette adresse qui peut poser problème: si on transpose ses habitudes mentales du monde IPv4, on n’en soupçonnera pas l’existence et on oubliera d’en tenir compte par exemple quand il s’agira de mettre en place un contrôle d’accès réseau (pare-feu, fichiers hosts.allow et hosts.deny, etc.), ceci d’autant plus que l’implémentation des pare-feux IPv4 et IPv6 est séparée dans le noyau: en fermant l’accès à un port avec la commande ip-tables, l’accès en reste ouvert en IPv6 (il faut encore recourir à iptables6 pour le fermer en IPv6).Avant de vous laisser céder à la panique, j’aimerais toutefois pré-ciser que cette adresse n’est pas routée et que donc seuls les ordi-nateurs du même sous-réseau peuvent s’y connecter. Ça ne fait que quelques dizaines et souvent vous en connaissez les admi-

Linux, IPv6 et la sécurité[email protected], EPFL - Domaine IT, responsable de la sécurité informatique

Analyse

nistrateurs. De plus, dans les tests que j’ai faits avant d’écrire cet article (je me suis borné il est vrai à la dernière version des dis-tributions les plus répandues: RedHat/Centos, Fedora, Debian et Ubuntu), je n’ai pas trouvé de cas où la configuration par défaut du système y donne accès à travers cette adresse sans le faire aussi par l’adresse normale IPv4. Enfin, les distributions Fedora, RedHat et Centos, dans leur configuration par défaut, en tiennent même compte, puisqu’elles activent d’office les pare-feux en IPv4 aussi bien qu’en IPv6 et que l’utilitaire de gestion du pare-feu standard (paquetage firewall-config, accessible par l’entrée du menu Administration -> Firewall) reporte automatique-ment les fermetures de port dans les deux pare-feux (IPv4 et IPv6).

Solution 1: désactiver IPv6

C’est la solution la plus simple et la plus radicale: il suffit d’ajouter ipv6.disable=1 comme paramètre du noyau. Ceci se fait sous RedHat en l’ajoutant à la ligne kernel du fichier /etc/grub.conf. Sur Fedora, Debian et Ubuntu, ajoutez le paramètre à la variable GRUB_CMDLINE_LINUX du fichier /etc/default/grub, et lancez la commande update-grub (grub2-mkconfig -o /boot/grub2/grub.cfg sous Fedora). Après un redémarrage, vous vivrez alors dans un monde IPv4 pur et sans surprise...

Solution 2: désactiver l'adresse link-local

Si la solution précédente ne vous convient pas (elle nécessite un redémarrage) vous pouvez désactiver l’adresse link-local simple-ment en écrivant un 1 dans le bon fichier: echo 1 > /proc/sys/net/ipv6/conf/all/disable_ipv6. Attention toutefois, ce changement ne survivra pas au prochain redémarrage. Pour l’ef-fectuer automatiquement à chaque redémarrage, il faut ajouter une ligne net.ipv6.conf.all.disable_ipv6=1 dans le fichier /etc/sysctl.conf. Avec cette méthode, il est possible à tout moment de revenir en arrière et de réactiver l’adresse link-local, en écrivant un 0 dans le fichier mentionné.

Solution 3: utiliser un pare-feu qui gère aussi IPv6

Comme mentionné plus haut, avec le programme d’interfaçage au pare-feu installé par défaut sur Fedora et RedHat/Centos, la gestion simultanée des règles IPv4 et IPv6 est automatique. Parmi les pare-feux qui font de même pour Debian et Ubuntu, il faut mentionner l’utilitaire de gestion en ligne de commande ufw, très bien conçu. Si vous insistez pour avoir une interface graphique, la documentation suggère fwbuilder, mais je ne l’ai pas trouvé simple à l’utilisation (la partie IPv6 est documentée à l’URL: www.fwbuilder.org/4.0/docs/users_guide5/ipv6-policy.shtml). n

Page 24: Flash informatique 2013 - no 7

flash informatique242424 3 DÉCEMBRE 2013 - N° 7

iOS Developer Enterprise Program.

Programme de développement pour iOS.

L’EPFL a souscrit, par l’entremise du DIT, au contrat iOS Develo-per Enterprise Program. En quoi consiste ce programme ?Le développement et la diffusion d’applications mobiles iOS (pour iPhone, iPad, iPod Touch) sont extrêmement réglementés, afin de garantir à Apple, donc à ses clients, la sécurité logicielle de tous ses appareils mobiles. En effet, une pandémie virale planétaire aurait un effet dévastateur, c’est pourquoi Apple impose une certification globale, matérielle, système et applications. Cette stratégie porte ses fruits, puisque depuis l’apparition de l’iPhone en été 2007, aucun logiciel malveillant ne s’est propagé. C’est pourquoi la seule voie d’accès au chargement d’applications est exclusivement le iTunes Store (itms://), où elles sont préalable-ment soumises à un contrôle de conformité par Apple avant leur publication.Apple met gratuitement à disposition un environnement de développement, Xcode, héritier de l’environnement NextStep et son légendaire Interface Builder, aujourd’hui dans sa 5e version. Cet environnement unifié englobe aussi bien le développement d’applications pour iOS que pour OS X (Mac). Pour développer une application, nul besoin de souscrire à un des programmes de développement, puisque vous pouvez télécharger gratuitement Xcode depuis le App Store. La restriction étant que vous ne pour-

FlashiPhoneFranç[email protected], EPFL - Domaine IT, responsable de la plate-forme Apple

Actualités

rez tester votre application que dans le iOS Simulator sur votre Mac, mais pas dans du matériel réel.A ce moment, entre en jeu la souscription à un des programmes de développement, donnant accès au portail de la génération des certificats servant à constituer des Provisioning Profile, qui au-toriseront Xcode à pousser le code de votre application dans vos équipements mobiles iOS et à l’exécuter.Il existe trois programmes de développement, respective-ment, individuel, entreprise et université, dont les noms sont suffisamment éloquents. Malheureusement, ce dernier en appa-rence dédié aux universités, avec l’avantage d’être gratuit, s’est avéré inapplicable pour l’EPFL, c’est pourquoi nous nous sommes orientés vers le programme Entreprise.Le programme Developer Enterprise permet justement de gé-nérer des certificats, qui autorisent la distribution d’applications hors du iTunes Store de Apple, mais à l’intérieur de notre entre-prise depuis nos propres serveurs (In-House Distribution). Dans ce contexte, nos propres applications ne sont pas soumises au contrôle de conformité par Apple. En revanche, ce programme Enterprise ne permet pas de publier une application sur le iTunes Store, car l’unique voie pour le faire est le programme individuel.

Développement d'applications iOS

Pour qu’une application iOS puisse s’exécuter, il faut qu’un Provi-sioning Profile lui soit associé, celui-ci comprenant au minimum

iOS DeveloperFor individuals and organizations creating apps for distribution on the App Store.Learn more

iOS Developer EnterpriseFor companies and organizations distributing proprietary apps for internal use.Learn more

iOS Developer UniversityFor higher education institutions introducing iOS app development into their curriculum.Learn more

iOS SDK

iOS SDK (Pre-release) N/A

Test apps on iOS devices

Code-level Technical Support N/A

Ad Hoc Distribution N/A

App Store Distribution N/A N/A

Custom B2B App Distribution N/A N/A

iAd Network N/A N/A

In-house Distribution N/A N/A

Cost $99 year $299 year Free

Requirements If you’re enrolling as an organiza-tion, a D-U-N-S Number registered to your legal entity is required.

A D-U-N-S Number registered to your legal entity is required.

The University Program is only avai-lable to qualified, degree granting, higher education institutions.

Xcode: i tunes.apple .com/app/id497799835

Comparatif des prestations des trois différents programmes de développement existants: individuel, entreprise et université. Pour les deux premiers, une entité légale (D-U-N-S), et une finance annuelle sont requises.

Page 25: Flash informatique 2013 - no 7

25253 DÉCEMBRE 2013 - N° 7

l’identificateur de l’application (App ID), et le certificat généré par le portail du programme iOS Developer. Il existe deux types de Provisioning Profile: celui de développement, qui contient en sus l’identificateur de l’appareil iOS cible, restreignant la diffusion de l’application en phase de développement aux appareils iOS enre-gistrés, et celui de distribution, qui s’appliquent indifféremment à tous les appareils iOS.

Processus de développement d’applications dans ses différentes phases, et les élé-ments requis pour chacune d’elles.

Conditions de lancement d'une application IOS

L’enregistrement d’appareils iOS est limité à 100 par contrat et par année, et ce quota est nominatif, à savoir qu’un appareil enre-gistré est irrévocablement décompté pendant toute l’année de validité du contrat !

Test et développement

Durant le développement de votre application, afin de se pré-munir contre une diffusion incontrôlée, on fait appel à un Pro-visioning Profile de développement, comprenant au minimum l’identificateur de l’application (App ID), le certificat de déve-loppement généré par le portail iOS Developer, mais aussi les identificateurs (Device ID) des appareils iOS autorisés à l’exécuter, en principe ceux que possède l’équipe de développement.

Organigramme de la signature d’application en phase développement (Develop-ment Provisioning Profile).

Distribution interne (In-House Distribution)

Une fois le code de l’application testé et validé, puis signé avec un Provisioning Profile de distribution, il est alors possible de le diffu-ser en interne dans notre entreprise en le publiant sur un serveur Web, que les appareils iOS accéderont directement via Wi-Fi.Il est aussi possible de charger votre application ainsi préparée dans votre appareil mobile iOS par l’entremise de vos applications iTunes, iPhone Configuration Utility, ou simplement Xcode. Étant donné qu’à ce stade, votre application peut s’installer sur n’im-porte quel appareil iOS, veillez à ne pas la diffuser hors de l’EPFL, afin de respecter les termes du contrat signé avec Apple. Il n’existe pas de limite quantitative pour la distribution In-House.

Organisation de l'équipe de développement

Le contrat Developer Enterprise est hiérarchisé, avec un seul et unique Team Agent par contrat, responsable envers Apple, puis des Team Admin, ou administrateurs locaux, et enfin, des Team Members, affiliés à leurs Team Admin respectifs. Chaque statut a ses propres prérogatives. Le Team Agent est responsable de la relation avec Apple, de

la gestion des membres, et de la distribution des applications pour toute l’école via le certificat de distribution.

Le Team Admin gère une équipe de développement, et distri-bue les certificats de développement.

Le Team Member est le développeur. Il s’en réfère à son Team Admin pour obtenir les certificats nécessaires.

Notre souscription est réservée aux collaborateurs de l’EPFL, qui en feront une demande motivée, auprès du Team Agent pour notre École à l’adresse: [email protected]. Veuillez trouver ci-après quelques références documentaires concernant le développement et la dis-tribution d’applications iOS.

Références

iOS Developer Program: developer.apple.com/support/ios/account-management.html

Distributing Enterprise Apps for iOS Devices: help.apple.com/iosdeployment-apps/Distribute apps to your users: www.apple.com/business/accelera-

tor/deploy/app-distribution.htmlIn-House App Development Accelerator Guide: images.apple.com/

iphone/business/docs/in_house-app_accelerator_guide.pdfApp Distribution Guide: developer.apple.com/library/etc/redirect/

DTS/iOSAppDistGuide n

FlashiPhone

Page 26: Flash informatique 2013 - no 7

flash informatique262626 3 DÉCEMBRE 2013 - N° 7

How iPad totally modified the vision of IT.

Comment l’iPad a modifié totalement la vision de l’informatique.

Rares sont les appareils qui amorcent une révolution. En 2009, chaque fournisseur informatique était persuadé de détenir un modèle économique viable pour les ordinateurs personnels selon trois catégories: les PC desktop, les portables et les ultras por-tables. À cette date, certaines constantes semblaient immuables:z les sites Web présentaient du contenu; il y avait très peu d’in-

teraction avec les utilisateurs,z Adobe Flash était omniprésent pour afficher des vidéos ou

présenter des publicités,z la résolution des écrans était faible,z les clés USB étaient quasi universelles (DropBox existait depuis

un an et demi, version 0.6),z les consoles de jeu portable, Nintendo DS ou Sony PSP, te-

naient le haut du pavé,z une majorité d’utilisateurs mobiles avait recours aux SMS, les

smartphones commençaient à se répandre dans la population, le modèle à cette époque était l’iPhone 3GS,

z sur le marché florissant du PC, les Macintosh représentaient 1/10, le Mac Book Air avait fait une arrivée remarquée dans la catégorie des ultras portables.

z pour les systèmes d’exploitation, Window 7 sortait en octobre, Ubuntu était en version 8 et Mac OS saluait la naissance de Snow Léopard, 10.6 supportant encore l’émulation du proces-seur PowerPC.

À la fin 2009, aucun fabricant n’aurait imaginé que des entreprises très sérieuses de prévisions économiques comme IDC ou Gartner envisageraient quatre ans plus tard, aujourd’hui, une baisse conti-nuelle du nombre de PC.Les prédictions deviennent caduques quand la technologie atteint l’objectif quasi métaphysique de ne plus exister comme technolo-gie. Ce rêve a pris forme en 2010 avec l’iPad, car sa plus grande force est de ne pas montrer sa technologie. L’article sur l’iPad dans cette revue en juin 2010 avait déjà laissé entrevoir la première raison de son succès, une fenêtre sur Internet, flashinformatique.epfl.ch/spip.php?article2078. La deuxième raison est dramatiquement simple, l’ergonomie. Comment avons-nous pu laisser berner par des sirènes technologies pour oublier ce composant le plus élémentaire. Dans l’image ci-dessous on reconnaît deux objets familiers: une ampoule, un interrupteur. Ce ne sont pas des créations steampunk 1, mais la première ampoule électrique accompagnée par le premier interrup-teur conservé au Discovery Museum de Newcastle.

Comment l’iPad a changé l’[email protected], EPFL -STI, coordinateur informatique à la Faculté des Sciences et Techniques de l’Ingénieur

Analyse

Source: Discovery Museum, Newcastle, www.sciencemuseum.org.uk/objects/loans/light_bulb_switch.aspx

Bizarrement, en informatique, la fonction était parfois tellement éloignée de la forme qu’on devait consulter un manuel pour allumer un ordinateur. L’iPad par sa désarmante simplicité laisse songeur sur le plan des contrôles physiques: un bouton, un inter-rupteur, le réglage du volume et un inverseur (du son ou de la rotation, c’est à choix).

iPad, 4 interrupteurs

Le plus étrange, est qu’avec la 5e génération qui vient d’être dévoilé, le nombre de commandes mécaniques est strictement le même, aucun ajout, aucune suppression. C’est bien cette re-cherche monacale vers la simplicité qui a guidé les créateurs de cet objet. La frénésie des concurrents à copier l’idée pour ensuite commercialiser les clones démontre le bien-fondé initial. L’arrivée de l’iPad a entraîné un changement radical dans l’approche de l’ordinateur:z simple vs complexe,z monolithique vs composite,

1 futurisme à une époque victorienne, fr.wikipedia.org/wiki/Steampunk

Page 27: Flash informatique 2013 - no 7

27273 DÉCEMBRE 2013 - N° 7

z connecté vs isolé,z données dématérialisées vs physique,z documents liés avec l’application vs liés à une hiérarchie de

dossier.Au départ, ces choix semblaient complètement à l’opposé des principes qui ont construit l’informatique. Une critique qui reve-nait systématiquement au lancement de l’iPad était l’absence d’interface USB pour connecter une clé mémoire, un sacrilège ! Le plus étrange en regard avec notre monde actuel, la majorité des réactions étaient négatives à son arrivée:z www.huffingtonpost.com/2010/02/01/ipad-a-disappointment-

her_n_442155.html,z www.pcpro.co.uk/blogs/2010/01/27/apple-ipad-the-pc-pro-

reaction/,z arstechnica.com/apple/2010/01/ars-ipad-reax/.Seul le célèbre blogueur David Pogue du New York Times mettait en relation les réactions épidermiques des analystes vis-à-vis du succès avéré des produits précédents d’Apple, iPod et iPhone.z pogue.blogs.nytimes.com/2010/01/27/the-apple-ipad-first-

impressions/?_r=0Possédant un iPad depuis juin 2010, ma famille a sur-le-champ adopté cette étrange lucarne. Le premier fut mon fils qui a utilisé cette tablette comme un magnifique espace de jeux portable. Son adhésion fut si grande qu’il thésaurisera sous forme monétique l’ensemble de ses cadeaux pendant une année pour pouvoir dispo-ser d’un tel appareil lors de son prochain anniversaire. Rapidement il est devenu un champion pour retrouver les films disponibles en streaming 2, souvent escorté de tentative de contamination avec des virus pour Windows PC.Un autre apport de l’iPad plus significatif que la forme ou l’objet, c’est le phénomène Bring you own device accompagné par la liaison avec les nuages (Cloud). Sans ceux-ci, ces changements fondamentaux ne se seraient pas produits: penser, imaginer, tra-vailler (combien d’entre nous se promène encore systématique-ment avec une clé USB).Trois ans après son apparition, l’iPad est devenu une réalité évi-dente, il n’est plus nécessaire de démontrer son impact sur chacun d’entre nous. Au deuxième degré, son influence est plus insidieuse, elle permet de déconnecter l’interface utilisateur de l’objet.

Netatmo la station météo dans le cloud

Dans la conception classique d’un appareil de mesure, par exemple une station météo, on se retrouve devant trois parties clairement identifiées:z la fonction de mesure de la pression atmosphérique avec les

températures, humidité intérieure et extérieure,z l’affichage des prévisions météo,z les boutons pour interagir avec l’appareil.Ce dernier élément était souvent le composant le plus négligé, les interactions étaient dignes d’une station spatiale avec d’étranges incantations, suite de boutons à presser dans un ordre précis pour obtenir le réglage adéquat.Une solution élégante serait de séparer les différentes fonctions de l’interface utilisateur. La station météo Netatmo se réduit à sa plus simple expression, deux tubes métalliques avec une alimen-

tation électrique sur le plus grand. Au départ, on reste circonspect devant un tel dépouillement, comment puis-je intégrer cette nou-velle station météo dans mon environnement quotidien?

anciens vs modernes, Oregon Scienfic vs Netatmo

La station météo gagne singulièrement en simplicité, la seule in-terface utilisateur est le sommet du tube métallique qui fait office de bouton accompagné par un voyant sur la face avant. Cette sta-tion météo s’insère dans un écosystème combinant iPhone, iPad, Android, site Web connecté avec le nuage.

une autoconfiguration particulièrement simple

Comment l’iPad a changé l’informatique

2 visualisation d’un film à travers une connexion Internet

Page 28: Flash informatique 2013 - no 7

28282828 flash informatique2828 3 DÉCEMBRE 2013 - N° 7flash informatique

La mise en route est simplissime pour l’utilisateur:z télécharger l’application ad hoc sur son smartphone ou sa

tablette,z par le voisinage Bluetooth, la station météo propose de récu-

pérer vos paramètres WiFi contenus dans l’iPhone,z munie de cet accès par Internet, elle s’autoconfigure,z la configuration se termine par la création d’un compte utili-

sateur et l’enregistrement de la garantie de l’appareil.La mise en route est bluffante, il n’est même pas nécessaire de déterminer le nom et le mot de passe de sa configuration WiFi à la maison. C’est la combinaison très subtile de l’application dans le téléphone liée par Bluetooth avec la station qui permet cet exploit. Cette connexion Bluetooth est également utilisée pour communiquer avec la station extérieure.L’utilisation simultanée de l’application sur l’iPhone ou iPad et du site Web offre un confort inégalable. Être toujours connecté aux nuages permet de présenter des vues statistiques détaillées de la météo locale, un rêve inaccessible dans les stations météo clas-siques. Le découplage entre les trois fonctions devient une évidence, il n’est plus nécessaire de devoir paramétrer l’appareil de manière exotique, l’interface utilisateur est remplacée par une application mobile ou un site Web. L’historique des mesures est naturellement conservé sur le nuage. Les économies réalisées dans l’absence d’affichage sont réinvesties dans les capteurs. Par exemple, mesu-rer le taux de CO2 permet d’aérer la pièce de manière rationnelle.Plus exotique le capteur de niveau sonore offre la vérification du bon déroulement de la vie familiale en particulier quand vous êtes absent. Ceci peut se révéler être une arme à double tranchant, si votre enfant dispose lui-même de l’application météo, il risque de vous reprocher l’heure effective de votre sommeil, lui qui a été obligé d’aller au lit plus tôt!

les prévisions météos sur un iPad avec Netatmo

Quatre ans après la révolution de l’iPad, quelles sont les consé-quences sur le paysage informatique:z les sites Web sont interactifs, webkit est devenu le standard

de facto à intégrer pour réaliser une page Web, en particulier pour supporter facilement les appareils tactiles,

z la haute résolution des écrans est devenue concrète, les pixels ont disparu aux profits de texte d’une lisibilité parfaite,

z la technologie Flash est abandonnée pour la vidéo, le format mp4 est maintenant un standard,

z les nuages accompagnés par la dématérialisation des données sont devenus la norme, DropBox possède plus de 200 mil-lions utilisateurs, techcrunch.com/2013/11/13/dropbox-hits-200-million-users-and-announces-new-products-for-busi-nesses/,

z les tablettes et smartphones sont devenus un support majori-taire pour les jeux,

z la plupart des utilisateurs mobiles profite des applications gra-tuites dédiées pour la messagerie instantanée (kik et toutes les autres),

z le marché du PC est en régression constante depuis trois ans. Seule, la Chine reste en progression,

z sur le plan des systèmes d’exploitation, le modèle payant semble atteindre ses limites avec l’annonce de la gratuité de la nouvelle version de Mac OS X 10.9 le 22 octobre 2013, www.apple.com/osx/.

Conclusion, un monde en constante muta-tion

Le changement du paysage informatique depuis 2010 semble in-croyable, une régression constante de la vente des PC, un accrois-sement rapide des smartphones, et une explosion des tablettes, www.gartner.com/newsroom/id/2610015.Tous les acteurs sont abasourdis par ce changement, le grand pu-blic semble avoir basculé dans une logique totalement différente.À la technologie, la facilité d’utilisation a été préférée, la tablette est probablement la solution la plus adaptée aux besoins de la majorité d’entre nous.En 2010, à l’occasion de la conférence All Things Digital, Steve Jobs proposait une vision très futuriste pour l’époque, une dé-croissance de la vente de tous les PC, y compris ceux estampil-lés Apple. Le patron de Microsoft, Steve Ballmer, répondit par des arguments qui sonnent étrangement maintenant; la vision de cette vidéo est une illustration parfaite du changement que nous vivons, youtu.be/VWkRgNTJZuM. Il faut mettre en relation ses arguments avec les dernières prévisions d’IDC, www.idc.com/getdoc.jsp?containerId=prUS24129713.

Remerciements

Je profite de ce dernier numéro pour remercier tous les lecteurs du Flash informatique d’avoir lu les articles que j’ai rédigés de-puis 1999. Je remercie également le comité de rédaction pour avoir permis d’élaborer l’alchimie nécessaire à la réalisation de ce journal. J’aimerais remercier plus particulièrement les deux cata-lyseurs exothermiques que sont Appoline Raposo et Jacqueline Dousson ainsi que le DIT pour avoir développé sur le long terme cette aventure. Dans le futur, je suis persuadé qu’il sera possible de trouver un espace de liberté pour exprimer les opinions de chacun dans une nouvelle formule. n

Comment l’iPad a changé l’informatique

Page 29: Flash informatique 2013 - no 7

293 DÉCEMBRE 2013 - N° 7

How to optimize your choice of data models ?

Comment optimiser le choix de vos modèles de don-nées ?

Smartphones, Cloud ou encore Big Data ont contribué à démul-tiplier la quantité de données ainsi que leur complexité. Les ap-proches traditionnelles de gestion de données (stockage et trai-tement dans des bases de données relationnelles pour diffusion sur une plate-forme logicielle et/ou Web) ne sont pas toujours optimales et requièrent d’autres formes de modélisation et de dif-fusion de l’information.À présent, l’évolution des données doit être appréhendée de ma-nière globale depuis leur capture jusqu’à leur exploitation en pas-sant par leur stockage. De nouveaux modèles de structuration des données apparaissent avec leurs spécificités propres – leurs points forts et faiblesses, leurs niches d’utilisation – pouvant apporter de gros avantages aux SI. Ces différents modèles n’ayant pour le moment encore peu été utilisés de concert, il nous apparaît de plus en plus évident qu’une utilisation combinée permettrait de couvrir de façon pertinente l’ensemble du processus de la récolte à la diffusion sur tout type de canaux. Afin de réussir ce pari, il est primordial que les choix technologiques soient pilotés par les données, les traitements nécessaires et le type de diffusion attendu.Le cœur de MUSYOP (MUlti-SYstem Optimisation), un projet de l’Institut Informatique de gestion de la HES-SO Valais-Wallis en collaboration avec la HEG Arc, consiste justement à étudier comment mixer plusieurs modèles de structuration des données. Il s’agit de développer une architecture multisystèmes intégrant

MUlti-SYstem [email protected], [email protected], [email protected], professeurs, [email protected], doctorant, [email protected] et [email protected] adjoints scientifiques à l’Institut Informatique de Gestion de la HES-SO Valais-Wallis & [email protected], professeur HEG Arc

Analyse

différentes technologies de bases de données afin de stocker, traiter et exploiter de façon optimale des données hétérogènes (structurées, non structurées ou faiblement structurées). Pour ce faire, MUSYOP propose d’aborder des réflexions telles que: est-ce qu’une analyse des besoins et des données est faite avant de considérer les technologies de structuration des données? Le recul nécessaire, tant par rapport à la complexité des données (gra-nularité, besoins variables en capacité hardware pour les traiter ou y accéder pendant leur durée de vie, …) que par rapport aux technologies existantes pouvant répondre à ces besoins, est-il vraiment pris? Les futurs accroissements en quantité de données sont-ils pris en compte dès le début?

D’un modèle unique à une solution multi-système

Les systèmes d’information utilisent en général un ou deux types de modèles de données. Cela n’est bien souvent pas suffisant pour trouver des solutions innovantes permettant de répondre aux be-soins des entreprises. Les nouveaux modèles de structuration des données comme NoSQL, XML ou sémantique ont chacun leurs ca-ractéristiques utiles aux SI. Par exemple, le NoSQL apparaît comme une alternative au relationnel pour gérer des grands volumes de données dont la performance en lecture et écriture est la priorité, au détriment des propriétés ACID (Atomicity, Consistency, Isola-tion, Durability) des bases de données relationnelles. Le NoSQL propose plusieurs modèles de stockage permettant de s’adapter finement au type de données à traiter (modèle orienté colonne, document, clé-valeur, graphe).L’utilisation d’un seul de ces modèles de structuration de données ne peut cependant pas répondre à l’ensemble des besoins d’une application métier et couvrir de façon pertinente l’ensemble du processus de la récolte à la diffusion sur tout type de canaux.

RDBMS

Plate-forme de e-commerce

Articles dupanier d’achat

Donnéesd’authentification

Commandespassées

Données de session(profil utilisateur…)

Données d’analyse

Proposition d’articlescomplémentaires

RDBMS

Plate-forme de e-commerce

Articles dupanier d’achat

Donnéesd’authentification

Commandespassées

Données de session(profil utilisateur…)

Données d’analyse

Proposition d’articlescomplémentaires

Datawarehouse

Triplestore

NoSQL

NoSQL

NoSQL

LDAP

Orienté grapheOrienté colonne

Orienté document

fig. 1 – d’un datastore unique à une approche multisystème [1]

Page 30: Flash informatique 2013 - no 7

30303030 flash informatique3030 3 DÉCEMBRE 2013 - N° 7flash informatique

Il nous apparaît donc de plus en plus évident qu’une utilisation combinée (relationnel, NoSQL, XML ou sémantique) pourrait être une solution.Prenons l’exemple d’une plate-forme de e-commerce et consi-dérons les données utiles à ce métier comme l’authentification, le profil de l’utilisateur ou son panier d’achats, nous remarquons que les besoins en terme de consistance, de performance, de dis-ponibilité, d’analyse et de stratégie de sauvegarde ne sont pas les mêmes [1]. Afin de résoudre cette problématique, nous proposons une ap-proche multisystème où chaque datastore implémente un modèle de stockage spécifique pour traiter un type particulier de données et capable de stocker des données utilisées par plusieurs applica-tions (fig. 1). Les modèles au service des données

Mettre en place une architecture multisystème au service des données nécessite de choisir les modèles adéquats. Le projet MU-SYOP identifie les critères entrant en ligne de compte lors du choix d’une technologie. Les capacités techniques d’un modèle n’en sont qu’une des composantes, le plus important étant de com-prendre le contexte du projet. Ceci permet de ressortir les critères les plus déterminants pour la décision finale. Cependant, un choix peut s’orienter vers une technologie a priori moins adaptée pour la représentation des données, mais répondant plus efficacement à d’autres critères comme le volume de données, la sécurité ou encore les possibilités de requêtage.

AcquisitionDonnées brutes des capteurs

Transformation en JSON

Statistiques, archivage Map-Reduce donnéesà la semaine

Exportation en RDF

Données de géolocalisation en RDF

Mash-up, analyse de données liées: consommation/situation géographique/météo

TripleStore

Stockage MongoDB

Données météo en RDF

fig. 2 – Data Flow de données énergétiques

Le domaine de l’énergie illustre particulièrement bien cette problématique. Des capteurs relèvent fréquemment (heure, mi-nute ou même seconde) des données énergétiques telles que consommation, production et stockage. Ceci implique donc une contrainte de performance en termes d’écriture et capacité de stockage lors de l’acquisition de ces informations. Une approche NoSQL-MongoDB (JSON) peut être recommandée. L’exploitation de ces données brutes est déjà possible, mais leur transformation (par exemple, journalisation ou mensualisation par un algorithme

de map-reduce) est également envisageable afin que celles-ci répondent aux besoins d’autres applications. Par exemple, une exportation en RDF dans un triple store permet de les lier avec d’autres informations telles que des données de géolocalisation ou des données météorologiques. Ceci permet de nouvelles possi-bilités d’analyse et de requêtage.

Une méthodologie simple pour choisir ses modèles

Afin d’accompagner les entreprises dans leur démarche pour déterminer les modèles adéquats, nous proposons une méthodo-logie simple associant plusieurs outils, parmi lesquels un ques-tionnaire élaboré permettant d’appréhender le contexte du projet, une matrice conceptuelle et une matrice chromatique aidant à pondérer les forces et les faiblesses pour chaque modèle en fonc-tion d’un ensemble de critères préalablement déterminés.Le questionnaire ouvert permet d’identifier les points clés pour les choix technologiques. Premièrement, il s’agit de déterminer les connaissances techniques de nos interlocuteurs ainsi que les technologies utilisées au sein de l’entreprise. Puis, les particularités du projet (contraintes, impératifs de sécurité, mise en production) sont étudiées. Dans un troisième temps, toutes les caractéristiques des données sont prises en compte (type, acquisition, mise à jour, traitement, représentation, volume, liaisons, schéma, requêtage, stockage, évolution prévue, accès). Finalement, une discussion ouverte sur les expériences de nos interlocuteurs nous permet de cerner au mieux leurs besoins. Cette étape permet d’obtenir une représentation schématique du besoin client (architecture haut-niveau et data-flow des services). Elle sert également à définir une Vision Box et un Product Backlog (thèmes/services).Une matrice conceptuelle des données (fig. 3) s’intéressant plus particulièrement à la nature des informations traitées par l’appli-cation a été pensée. Celle-ci fait suite au questionnaire proposé au client et a pour but de regrouper dans différentes catégories l’ensemble des données traitées par l’application.La matrice chromatique réalisée représente les différents critères de choix par rapport aux modèles de données. Elle permet d’indi-quer la force de chaque modèle pour chacun des critères (fig. 4). Cinq catégories principales (données, schéma, requête, système et sécurité) permettent de comparer quatre modèles (NoSQL, RDBMs, XML et sémantique). La matrice chromatique prend en compte des critères liés à la performance et à la disponibilité du système, à la volumétrie, aux différents types de requêtes pouvant s’exécuter sur le système. En confrontant celle-ci avec les données récoltées lors des entretiens, il est possible d’effectuer des choix en vue de l’élaboration de l’architecture multisytèmes.En sus de ces trois outils notre méthodologie a permis également d’explorer d’autres pistes de réflexion telles que:z une matrice table de décision (dans laquelle les couples condi-

tions ou critères de choix, actions ou choix du modèle, de-viennent les règles de la table de décision),

z ainsi qu’un raisonneur OWL DL (intégrant une ontologie basée sur la logique de description pouvant jouer un rôle similaire à un système expert).

MUlti-SYstem OPtimisation

Page 31: Flash informatique 2013 - no 7

31313 DÉCEMBRE 2013 - N° 7

Connaissances techniques

Budget

Existant

Entreprise/Projet

Technologies utilisées (DB, logiciels, lang.)

Données concernées

Learning Curve (si changement)

Provenance, format

Acquisition des Données

Taille / Write intensive

Sensibilité

S, SS, NS / BLOB

CAP, Réplication (A)

Stockage (outil?)

Cluster ou nœuds ?

ACID / BASE

Sécurité

Volumétrie (BigData ou autre critère ?)

Données (dans un format)

Inclus du sens – sémantique large

Sensibilité (besoin de sécurité)

Changement de format, ETL

Traitement des Données

Calcules

Inférences

Vérifications

Transformations

Updates, CRUD

Fréquence

Quantité (en lecture, en) update

Utilisateurs

Droits

Requêtes nécessaires connues à l'avance ?

Requêtage

Read-intensive/temps de réponse

Specific features

FullText search

GeoSpatial*

Semantic search (syn., etc.)

Parcours de graph

24/7

Disponibilité des Données

Web 3.0

Intranet/Extranet/Internet

Accès Web ?

Design

Réutiliser, complexité

Publication

Schéma

Besoin de DL ?

Liens entre les données

Entre les données locales

Vers d'autres données externes

Utilité de sémantique au sens largeDans les donnéesAu niveau des schémasDans la couche BL – algosAu requêtage

••••

Versioning *

Latency (critique seuls pr super gros syst.)

Latency (critique seuls pr super gros syst.)

Maturité du système

Fédération

Horizontal scaling, Sharding

Agréger

Agréger

Agrégation, Map-Reduce

Distribution des données (WEB)

API

Prévision future pour chaque point

EvolutivitéH

ybrid system/D

ata space

Authentification

Rôles (droits d'accès)

Encryptage

fig. 3 – matrice conceptuelle des données

MUlti-SYstem OPtimisation

Clé-

vale

ur

Ori

enté

Col

onne

Ori

enté

Doc

umen

t

Ori

enté

Gra

phe

Données structurées

Données semi-structurées

Données non-structurées

Cardinalité (1,*)

Relations locales (intégrité référentielle)

Relations externes vers d'autres sources (URL)

Versionning

< 100G

Big Data

Schema-based

Schema-less

Performance Troughput (requêtes par h/m/s)

ACID

Non ACID

Requêtes analytiques, cube

Map-reduce

Disponibilité Réplication

Cluster Partitions (sharding)

Authentification

Droits d'accès (rôles)

Encryption

Données

Nature

Relation

Volumétrie

NoSQL

RDBM

s

XML

Web

sém

anti

que

Caractéristiques / Critères

Avec / SansSchéma

Sécurité

TransactionnelRequête

Analyse

Système

mauvaispossiblebonpoint clé du modèle

Modèles

fig. 4 – matrice chromatique

Une plate-forme multisys-tème !

Cette première phase d’analyse nous conforte dans l’idée que l’utilisation simultanée de plu-sieurs modèles est une piste des plus intéres-santes. L’objectif principal du projet MUSYOP est de créer un framework qui combine différentes bases de données, tels que bases de données relationnelles, NoSQL, sémantique et XML. La suite du projet va nous permettre de monter et tester une plateforme multisystème intégrant ces modèles. Il s’agira plus particulièrement de surmonter des défis techniques spécifiques à cette architecture comme la cohabitation de SGDB différents, leur communication tout en respectant la structure et le flot des données. Les données pourront alors transiter d’un sys-tème à l’autre. Afin d’avoir une vue uniforme des données, le prochain défi reposera donc sur la mise en place d’un module de requêtage mul-tisystème unifié.

Référence[1] SADALAGE Pramod. J. & FOWLER Martin.

NoSQL Distilled. 2012, pp. 136-137. n

Page 32: Flash informatique 2013 - no 7

flash informatique323232 3 DÉCEMBRE 2013 - N° 7

Algorithme de calcul d’une racine carré[email protected], EPFL - Domaine-IT, Responsable Linux

The algorithm presented here is used to calculate a square root simply, efficiently and very accurately.

L’algorithme présenté ici, permet de calculer une racine carrée de manière simple, efficace et d’une précision redoutable.

Introduction

Après avoir parlé de l’algorithme CORDIC [1] dans le numéro précédent, je vous propose de découvrir en détail l’algorithme de calcul d’une racine carrée utilisé dans les calculatrices HP. On trouvera l’article original, qui décrit cet algorithme, dans le HP Journal [2].

Vocabulaire

Avant de décrire cet algorithme, nous avons besoin de définir un peu de vocabulaire:z 0,1,2,3,4,5,6,7,8,9 sont des chiffres (digit);z on forme un nombre avec des chiffres;z exemple: 1267 est un nombre formé avec les chiffres 1, 2, 6, 7;z on travaillera toujours en base 10;z rappel: 1267=1⋅103+2⋅102+6⋅101+7.

Présentation de l’algorithme

Première approchez On cherche la valeur de ,z Prenons a une valeur approchée de , et calculons le reste:

R=x-a2,z Si R>0, on augmente a et on recommence,z Encore faut-il choisir une méthode ?

Premier exemplePremière approche, calcul de 54756

a R=54756-a2 Signe Notes

200 14756 R > 0 a=200 est une valeur approchée

210 10656 R > 0 on augmente a

220 6356 R > 0 on augmente a

230 1856 R > 0 on augmente a

240 -2844 R < 0 stop, nouvelle valeur approchée: a=230

Simple, pas compliqué, mais on peut faire mieux !

Comment faire ?

Calculs

Cherchons la prochaine valeur du chiffre b qui se trouve à la posi-tion j: a j=a+b ⋅10 j avec a qui est notre une valeur approchée (nombre). Les restes sont:

Ra=x–a2 et Raj=x–aj2

Remarque: Ra ≥ Raj puisque aj est plus proche de x. Définissons Rb comme le solde de la différence lorsque l’on ajoute b⋅10j à a:

Rb=Ra–Raj=aj2–a2

Donc, d’après l’équation ci-dessus:Ra–Rb=Raj≥0 donc Ra≥Rb

Premiers développementsCalculons Rb:Rb=aj

2–a2= (a+b ⋅10 j ) 2–a2=a2+2ab ⋅10j+b2⋅102j–a2=2ab ⋅10 j+b2 ⋅102j

Donc b est le plus grand chiffre possible tel que: 2ab⋅10j+b2⋅102j ≤Ra

Une fois que l’on a trouvé b, a est recalculé en y ajoutant la valeur b⋅10j, soit aj =a+b⋅10j. On recalcule Ra , soit Raj= Ra–Rb . Enfin, on décrémente j de 1.

Deuxième exempleDeuxième approche, calcul de 54756

a=200, Ra=x–a2=54756–40000=14756, j=1

b Rb=2ab⋅10 j+b2⋅102j Ra–Rb

0 0 14756

1 4100 10656

2 8400 6356

3 12900 1856

4 17600 -2844

Donc a=200+3⋅101=230, Ra=1856, j=0Simple, pas compliqué, mais on peut faire mieux !

Première subtilitéIl faut savoir qu’on écritz un nombre pair: p=2n avec n ∈ Nz un nombre impair: p=2n –1 avec n ∈ N–0

Théorème

b2=b∑n=1

2n–1 somme des nombres impairs jusqu’à 2b–1.

Exemple:b=6

2b–1=11b2=36=1+3+5+7+9+11

Page 33: Flash informatique 2013 - no 7

33333 DÉCEMBRE 2013 - N° 7

Preuve

Les lignes blanches et noires représentent les nombres impairs. Il suffit de compter le nombre de carré. Reprenons notre calcul, avec:

b2=b∑n=1

2n–1 b =b∑n=1

1

Ce qui nous donne: Rb= 2ab⋅10j+b2⋅102j =

b∑n=1

(2a⋅10j +(2n–1)⋅102j)

Deuxième subtilitéReprenons notre inégalité: Ra≥Rb.Multiplions par 5 des deux côtés: 5⋅Ra≥5⋅Rb.Calculons 5⋅Rb:

5⋅Rb =5b∑n=1

(2a ⋅10 j + (2n–1)⋅10 2j ) =b∑n=1

(10a ⋅10 j+(10n–5)⋅10 2j )

Rappel: b est le plus grand chiffre possible tel que 5⋅Ra≥5⋅Rb reste vérifiée: Raj =Ra–Rb ≥0, donc 5⋅Raj =5⋅Ra–5⋅Rb ≥0.

Troisième exemple

x = 54756 ,a=200,

Ra =x–a2=54756–40000=14756, j=1

5⋅Rb = b∑n=1

(10a⋅10j +(10n–5)⋅102j), 5⋅Ra =73780

n 10a⋅10j +(10n–5)⋅102j 5⋅Rb 5⋅Ra–5⋅Rb

1 20500 20500 53280

2 21500 42000 31780

3 22500 64500 9280

4 23500 88000 -14220

Donc b=3, a=200+3⋅101=230, 5⋅Ra =9280, j=0Remarque: 23500 sont les premiers chiffres qui apparaissent pour

54756 .

Suitex = 54756 ,a=230, Ra =x–a2=54756–52900=1856, j=0

5⋅Rb = b∑n=1

(10a⋅10j +(10n–5)⋅102j), 5⋅Ra =9280

n 10a⋅10j +(10n–5)⋅102j 5⋅Rb 5⋅Ra–5⋅Rb

1 2305 2305 6975

2 2315 4620 4660

3 2325 6945 2335

4 2335 9280 0

5 2345 11625 -2345

Donc b=4, a=230+4=234 qui correspond aux chiffres 2345.

Quelques questions

Que prenons-nous pour la valeur approchée de a ?– La plus simple et logique possible, soit: a=0Que prenons-nous pour la valeur de j ?– La plus simple possible soit: j=0En effet, un nombre s’écrit de la manière suivante: 0.0000000E00. Le premier chiffre ∈0,1,2,3,4,5,6,7,8,9. On commence donc par calculer la partie entière, et après les décimales. On fait comme à l’école, on efface la virgule et on la recolle à la fin du calcul. De toute façon, les registres ne s’encombrent pas de virgules. Mais on y reviendra à la fin.

De la théorie à la pratique

Exemple pratique 2Rappel: 10a⋅10j +(10n–5)⋅102j

x : 00000002 8 chiffres (digits)a : 000000005Ra : 00000010 Ra = x - a² = 2

Algorithme de calcul d’une racine carrée

Premier problème: on doit faire un décalage (shift)

5Ra : 10000000 avec shift 5Rb : 05000000 n = 1 ========== 5Ra-5Rb : 05000000 5Rb : 15000000 n = 2 ========== 5Ra-5Rb : 990000000 overflow => b = 1 & a = 10000000 j = j - 1 => a = shift droit, (10n-5) double shift droit 5Ra : 05000000 5Ra = 5Ra-5Rb 5Rb : 01050000 n = 1 ========== 5Ra-5Rb : 03950000 5Rb : 01150000 n = 2 ==========

Page 34: Flash informatique 2013 - no 7

34343434 flash informatique3434 3 DÉCEMBRE 2013 - N° 7flash informatique

5Ra-5Rb : 02800000 5Rb : 01250000 n = 3 ========== 5Ra-5Rb : 01550000 5Rb : 01350000 n = 4 ========== 5Ra-5Rb : 00200000 5Rb : 01450000 n = 5 ========== 5Ra-5Rb : 998750000 overflow => b = 4 & a = 01400000 & j = j - 1 5Ra : 00200000 5Ra = 5Ra-5Rb 5Rb : 00140500 n = 1 ========== 5Ra-5Rb : 00059500 5Rb : 00141500 n = 2 ========== 5Ra-5Rb : 999918000 overflow => b = 1 & a = 00141000 & j = j - 1 5Ra : 00059500 5Ra = 5Ra-5Rb 5Rb : 00014105 n = 1 ========== 5Ra-5Rb : 00045395 5Rb : 00014115 n = 2 ========== 5Ra-5Rb : 00031280 5Rb : 00014125 n = 3 ========== 5Ra-5Rb : 00017155 5Rb : 00014135 n = 4 ========== 5Ra-5Rb : 00003020 5Rb : 00014145 n = 5 ========== 5Ra-5Rb : 999988875 overflow => b = 4 & a = 00014140 & j = j - 1 5Ra : 00003020 5Ra = 5Ra-5Rb 5Rb : 0000141405 n = 1 ==========

Algorithme de calcul d’une racine carrée

Deuxième problème: on a épuisé notre quota avec seulement 4 chiffres (digits) trouvés.Solution: on fait un shift gauche à chaque étape.On retrouve à ce sujet, une phrase dans l’article original qu’il faut apprendre à décoder: During the process of finding the re-

mainder Ra progressively decreases. To avoid losing accuracy, this remainder is multiplied by 10 j after finding each new digit b. This avoids shifting a at all, once the square root extraction process begins.

On recommence

5Ra : 10000000 5Rb : 05000000 n = 1 ========== 5Ra-5Rb : 05000000 5Rb : 15000000 n = 2 ========== 5Ra-5Rb : 990000000 overflow => b = 1 & a = 10000000 & j = j - 1 5Ra : 50000000 5Ra = 5Ra-5Rb avec shift 5Rb : 10500000 n = 1 ========== 5Ra-5Rb : 39500000 5Rb : 11500000 n = 2 ========== 5Ra-5Rb : 28000000 5Rb : 12500000 n = 3 ========== 5Ra-5Rb : 15500000 5Rb : 13500000 n = 4 ========== 5Ra-5Rb : 02000000 5Rb : 14500000 n = 5 ========== 5Ra-5Rb : 987500000 overflow => b = 4 & a = 14000000 & j = j - 1 5Ra : 20000000 5Ra = 5Ra-5Rb avec shift 5Rb : 14050000 n = 1 ========== 5Ra-5Rb : 05950000 5Rb : 14150000 n = 2 ========== 5Ra-5Rb : 991800000 overflow => b = 1 & a = 14100000 & j = j - 1 5Ra : 59500000 5Ra = 5Ra-5Rb avec shift 5Rb : 14105000 n = 1 ========== 5Ra-5Rb : 45395000 5Rb : 14115000 n = 2 ==========

Page 35: Flash informatique 2013 - no 7

35353 DÉCEMBRE 2013 - N° 7

5Ra-5Rb : 31280000 5Rb : 14125000 n = 3 ========== 5Ra-5Rb : 17155000 5Rb : 14135000 n = 4 ========== 5Ra-5Rb : 03020000 5Rb : 14145000 n = 5 ========== 5Ra-5Rb : 988875000 overflow => b = 4 & a = 14140000 & j = j - 1 5Ra : 30200000 5Ra = 5Ra-5Rb avec shift 5Rb : 14140500 n = 1 ========== 5Ra-5Rb : 16059500 5Rb : 14141500 n = 2 ========== 5Ra-5Rb : 01918000 5Rb : 14142500 n = 3 ========== 5Ra-5Rb : 987775500 overflow => b = 2 & a = 14142000 & j = j - 1 5Ra : 30200000 5Ra = 5Ra-5Rb avec shift 5Rb : 14140500 n = 1 ========== 5Ra-5Rb : 16059500 5Rb : 14141500 n = 2 ========== 5Ra-5Rb : 01918000 5Rb : 14142500 n = 3 ========== 5Ra-5Rb : 987775500 overflow => b = 2 & a = 14142000 & j = j - 1

5Ra : 19180000 5Ra = 5Ra-5Rb avec shift 5Rb : 14142050 n = 1 ========== 5Ra-5Rb : 05037950 5Rb : 14142150 n = 2 ========== 5Ra-5Rb : 990895800 overflow => b = 2 & a = 14142100 & j = j - 1 5Ra : 50379500 5Ra = 5Ra-5Rb avec shift 5Rb : 14142105 n = 1 ========== 5Ra-5Rb : 36237395 5Rb : 14142115 n = 2 ========== 5Ra-5Rb : 22095280 5Rb : 14142125 n = 3 ========== 5Ra-5Rb : 07953155 5Rb : 14142135 n = 4 ========== 5Ra-5Rb : 993811020 overflow => b = 3 & a = 14142130 & j = j - 1 5Ra : 79531550 5Ra = 5Ra-5Rb avec shift 5Rb : 141421305 n = 1

Algorithme de calcul d’une racine carrée

Troisième problème: il nous manque un chiffre à droite Solution: on ajoute un chiffre à droite

5Ra : 795315500 5Ra = 5Ra-5Rb avec shift 5Rb : 141421305 n = 1 ========== 5Ra-5Rb : 653894195 5Rb : 141421315 n = 2 ========== 5Ra-5Rb : 512472880 5Rb : 141421325 n = 3 ========== 5Ra-5Rb : 371051555 5Rb : 141421335 n = 4 ========== 5Ra-5Rb : 229630220 5Rb : 141421345 n = 5 ========== 5Ra-5Rb : 088208875 5Rb : 141421355 n = 6 ========== 5Ra-5Rb : 9946787520 overflow => b = 5 & a = 14142135

Réponse: 2 =1.4142135

VérificationIl est toujours très important de vérifier ses résultats [3]. On a

trouvé: 2 =1.4142135 que l’on peut facilement vérifier à l’aide de la commande bc (bc - An arbitrary precision calculator language) de la fondation GNU (gnu.org):

Page 36: Flash informatique 2013 - no 7

36363636 flash informatique3636 3 DÉCEMBRE 2013 - N° 7flash informatique

echo 'scale=7; sqrt(2)' | bc1.4142135

Algorithme de calcul d’une racine carrée

Bug du shift gaucheEn faisant un shift à gauche pour Ra , on a introduit un bug. Dé-monstration:

5Ra : 13441930443550000 5Rb : 14142135623730500 n = 1 ================= 5Ra-5Rb : 999299794819819500 overflow => b = 0

5Ra : 134419304435500000 5Ra = 5Ra-5Rb avec shift 5Rb : 14142135623730050 n = 1 ================= 5Ra-5Rb : 20277168811769950

5Ra-5Rb : 120277168811769950 La vraie soustraction

Quatrième problème: il nous manque un chiffre à gauche Solution: on ajoute un chiffre à gauche

5Ra : 013441930443550000 5Rb : 014142135623730500 n = 1 =================== 5Ra-5Rb : 999299794819819500 overflow => b = 0

5Ra : 134419304435500000 5Ra = 5Ra-5Rb avec shift 5Rb : 014142135623730050 n = 1 =================== 5Ra-5Rb : 120277168811769950

Calcul de l’exposant

Reprenons notre nombre:0.0000000E00

x ⋅10e = x ⋅ 10e = x ⋅ 10e/2

Si e est pair: no problemo. Si e est impair: x ⋅ 10e/2 = 10 ⋅x ⋅ 10(e–1)/2 . Il faut faire un shift gauche pour x avant de commencer les calculs.

Troisième subtilitéComment fait-on pour diviser par 2 puisque l’on travaille en base 10 et que l’on a ni division, ni multiplication ? Difficile de trouver plus simple: x ÷ 2=(x ⋅ 5) ÷10. Donc, on fait 5 additions et un shift droit. Exemple 123 ÷ 2=(123 ⋅ 5) ÷ 10:

00123 00246 0049200123 00246 00123===== ===== =====00246 00492 00615

00615000615

Réponse: 61 reste 0.5 (carry)

C’est également un moyen de savoir si un nombre est pair ou impair (carry).

Quelques commentaires

On ne trouve pas dans l’article de William E. Egbert trois choses:1 le chiffre ajouté à droite;2 Le chiffre ajouté à gauche;3 La subtilité de la division par 2.Par contre, on trouve ces astuces dans le listing [4] d’une calcula-

trice HP35 ainsi que dans la trace d’exécution d’un calcul de racine carrée [5].

Bonus

Je vous propose de tester [6] cet algorithme à l’aide d’un pro-gramme que j’ai écrit en javascript que l’on peut exécuter à l’aide d’une simple page HTML ou de télécharger l’archive complète [7] si vous souhaitez voir le code source. Avec ce programme, vous pouvez choisir le nombre de virgules que vous voulez et vous pou-vez voir toute la trace du calcul tel que présenté dans le présent article. J’ai poussé la plaisanterie assez loin, puisque je n’utilise pas d’addition ni de soustraction, tous les calculs se font à l’aide de tables. Cela juste pour prouver que l’on peut calculer une racine carrée sans avoir besoin d’unité arithmétique.

Références

[1] Algorithme CORDIC: FI6/13, flashinformatique.epfl.ch/spip.php?article2692.

[2] Personal Calculator Algorithms I: Square Roots.[3] J’ai poussé la vérification de cet algorithme jusqu’à

100’000 décimales pour le calcul de la racine carrée de 2, à l’aide d’un programme écrit en perl et n’utilisant que des tables d’additions et de soustractions (pas d’unité arithmé-tique) dans le même esprit que le programme en javascript proposé. On peut trouver facilement des valeurs sur le Web qui permettent la comparaison.

[4] HP35 square root algorithm: www.jacques-laporte.org/Square_root.htm.

[5] Trace de l’algorithme d’une calculatrice HP: www.jacques-la-porte.org/sqrt_1156.txt.

[6] Programme en javascript: https://documents.epfl.ch/users/b/ba/barras/www/Download/squareRoot/sqrt.html.

[7] L’archive complète: https://documents.epfl.ch/users/b/ba/bar-ras/www/Download/squareRoot/javascript.tar.gz. n

Page 37: Flash informatique 2013 - no 7

373 DÉCEMBRE 2013 - N° 7

AppleShare no longer used for Apple Software Dis-tribution at EPFL.

Arrêt du service AppleShare pour la distribution de logiciels Apple à l’EPFL.

Copie d’écran de notre serveur Cyclope le 11 novembre 1986

Tout comme le Flash informatique, après 28 ans de bons et loyaux services, le serveur de distribution logicielle Apple Macintosh à l’EPFL tirera sa révérence à la fin de l’année.

Cyclope doit son nom au fait d’être le premier serveur à stockage entièrement optique de l’EPFL, puisqu’initiale-ment composé de1986 – un Mac Plus avec un lecteur optique de CD-ROM

650 MB et deux lecteurs magnéto-optiques 650 MB (325 MB par face, donc réellement accessibles), et bien sûr, le logiciel de partage de fichiers AppleShare. Il sera remplacé successivement en:

1990 – par un Mac IIfx, 1996 – par un WorkGroup Server AWS 8550, pilotant

14 lecteurs de CD-ROM,2002 – par le premier serveur Apple rackable, le Xserve

avec stockage externe RAID,2009 – par le Xserve Xeon avec stockage interne RAID. Malheureusement, des contraintes techniques ont eu rai-son de son existence, et des mesures de rationalisation nous conduisent inéluctablement à regrouper ce service sur les services centraux du DIT.

Dorénavant, toute la distribution logicielle Apple est assurée par le NAS du DIT via le portail Olympe, comme pour la distribution

Coup d'œil sur CyclopeFranç[email protected], EPFL - Domaine IT, responsable de la plate-forme Apple

Actualités

logicielle Windows. Aussi, nous avons posé la première brique 1 de ce déménagement l’été dernier en saisissant l’avènement de la suite Adobe CS6 pour inaugurer la distribution de logiciel Apple par le serveur Olympe.Plusieurs raisons dictent cette migration: Apple a abandonné sa ligne de serveurs Xserve en novembre

2010! images.apple.com/xserve/pdf/L422277A_Xserve_Guide.pdf

Apple cessera le support matériel (pièces de rechange) de nos Xserve (spring 2009), au début 2014.

La sauvegarde des serveurs Mac OS X par NetBackup s’est avé-rée inutilisable.

Depuis la généralisation de OS X, et par conséquent l’abandon du Mac OS 9, sur le site EPFL, il n’y a plus de nécessité de servir le protocole afp:// car tous les OS X clients supportent native-ment le protocole smb:// .

Heureusement, ce changement en apparence important demeure entièrement transparent, car selon les directives internes à l’EPFL, l’accès au logiciel doit impérativement s’effectuer via le portail Distrilog; et ce dernier dirige d’ores et déjà les clients sur le ser-veur Olympe aussi pour l’accès aux logiciels Mac.Nous vous remercions de votre compréhension, et restons à votre disposition pour tout renseignement complémentaire.

Références

dit-archives.epfl.ch/FI99/fi-1-99/1-99-page3.html labview.epfl.ch/anni/FI_1_96.pdf Bric-à-Mac – Appleshare, FI 5 du 27 juin 1989,

flashinformatique.epfl.ch/IMG/pdf/fi-5-89.pdf Bric-à-Mac – Cyclope, FI 7 du 23 octobre 1990,

flashinformatique.epfl.ch/IMG/pdf/fi-7-90.pdf n

Cyclope, personnage du film Monstres et Cie des studios Pixar

1 l’adobe est la brique de terre crue, moulée et séchée au soleil

Page 38: Flash informatique 2013 - no 7

flash informatique383838 3 DÉCEMBRE 2013 - N° 7

Disparition d'un compagnon de [email protected], EPFL - Domaine IT, rédacteur en chef a.i.

w en 2002, Informatique mobile w en 2003, Hippocrate, le gène et la puce w en 2004, Technologies de formation: l’âge de la maturité w en 2005, AlterIT w en 2006, SécurIT w en 2007, Images w en 2008, Pérenne-IT w en 2009, Mobil-IT w en 2010, Société 2.0 w en 2011, D, Données, Documents, DRM,…z 295 numéros tirés à 4000 exemplaires,z 6500 pages,z 2300 articles,z 22 pages par numéro en moyenne,z 8 articles par numéro en moyenne,z 11 concours de la meilleure nouvelle,z 3 concours, style jeux de piste, réservés aux étudiants.

en personnesz 4000 lecteurs, dont un millier d’abonnés en Suisse et à l’étran-

ger, les autres étant les étudiants et les collaborateurs des EPF et universités suisses, sans oublier les 860 abon-nés à la version électronique.

z 600 auteurs, ayant écrit chacun de 1 à 150 articles,z 1 rédacteur en chef a.i., Appoline,z 1 claviste, Appoline,z 4 relecteurs, Julia, Benjamin, François et Jacqueline,z 1 comité de rédaction, aujourd’hui de 10 membres,z 1 dessinateur, Esteban depuis 15 ans.

côté impressionz Roland ou Anne-Sylvie pour faire les plaques,z Philippe, le conducteur pour l’impression,z Enver pour l’impression des enveloppes,z Danièle pour la tenue à jour du fichier d’adresses du DIT,z Sandra pour la tenue à jour du fichier d’adresses d’Alliance,z Un atelier externe pour le piqué dans le pli et l’expédition.

côté InternetNous sommes très bien placés par les moteurs de recherche Google en français. Le site Web réalisé avec le CMS SPIP depuis 2004 a été enrichi avec les articles qui existaient déjà sur le Web depuis 1994; puis ont été ajoutés les pdf des revues de 1986 à 1994. Le site contient maintenant une archive de l’informatique à l’EPFL de 28 années; il reçoit environ 250 visiteurs par jour.Quelques éditions sont sur issuu.com. Cette année, le numéro spé-cial étudiants a été imprimé 2851 fois selon le site et les autres revues entre 500 et 1200 fois chacune.

Last column or Chronicle of a Death Foretold on page 3.

Dernier clavitorial qui pourrait s’appeler ... chro-nique pour une mort annoncée en page 3.

1986, … 2013, et … ?

Les dés sont jetés, nous rédigeons en ce moment la dernière édi-tion du Flash informatique. Pourquoi ? Les départs à la retraite de Jacqueline Dousson en mars dernier et le mien dans quelques mois, auront-ils aidé à l’arrêt de ce média? Peut-être ? Mais tant mieux ou dommage ? Il est encore trop tôt pour en parler objec-tivement. Que cela me donne l’occasion de revenir un peu sur nos pas et de faire un petit tour d’horizon sur ce parcours qui a été très agréable et dont, sans fausse modestie, tous les acteurs du FI peuvent être fiers.

Qu'était-ce que le Flash informatique?

en chiffresz 28 années, 1986 - 2013z 1 édition spéciale en 1993 à l’occasion d’un accord de par-

tenariat entre la maison Cray et l’EPFL,z 3 numéros spéciaux Calcul à Haute Performance en 2007,

2008 et 2009, qui ont servi de transition entre le EPFL Supercomputing Review et le Zetta,

z 4 numéros spéciaux étudiants, en 2010, 2011, 2012 et 2013, distribués aux nouveaux étudiants à la rentrée de septembre.

z 22 numéros spéciaux été, axés sur un thème en adéquation avec l’actualité:

w en 1990, PAO-PréAO w en 1991, Échanges w en 1992, Ouvrez les fenêtres w en 1993, Le multimédia w en 1994, Informatique et Médecine w en 1995, Réseaux et Applications w en 1996, Terra Informatica w en 1997, Le techno-quotidien w en 1998, Volumes w en 1999, Tique et Puce à l’École w en 2000, Sécurité w en 2001, Logiciels libres

Actualités

Page 39: Flash informatique 2013 - no 7

39393 DÉCEMBRE 2013 - N° 7

Pérennité

le site WebLe site Web restera une référence historique de l’informatique à l’EPFL et la base de données SPIP restera accessible, à l’adresse flashinformatique.epfl.ch, le directeur du Domaine IT l'affirme dans son article en page 3.

le musée BoloUne collection complète des revues papier reliée trouvera sa place dans le musée Bolo, www.bolo.ch, à côté de toute la gamme des Macintosh sur lesquels ont été composés tous les numéros.

l’archiveUne archive de tous les numéros en format pdf sera gravée sur une clé USB que nous offrirons à tous nos lecteurs désireux de conserver une trace de ce journal. Cette offre restera valable jusqu’à épuisement du stock. Pour recevoir cette clé, dans le cou-rant du premier trimestre 2014, il vous suffira de remplir le for-mulaire que vous trouverez à l'adresse: inform.epfl.ch/?form=FI.

la suite …

Le Flash informatique, rappelons-le, c’était:z des articles sur l’informatique en français, z des articles, un peu trop techniques pour certains,

Disparition d'un compagnon de route

z des trucs et astuces, un peu trop basiques pour d’autres, z des expériences de Jean, Jacques, Pierre, Paul ou Laurent, z des comptes-rendus de conférences, z des comment-faire pour s’adapter à cette technologie tou-

jours renouvelée,z des recommandations face aux menaces de phishing, spams,

piratages, etc.z bref,... les échos de notre planète informatique ?Jean-Claude Berney vous donne dans sa lettre quelques pistes à suivre pour retrouver ces informations. Certes, nous nous di-rigeons vers le tout Internet, mais quel Internet voulons-nous ? c’est là un vrai sujet à réflexion. Le défi est lancé, maintenant reste à le relever.

Remerciements

J'aimerais remercier tout d'abord les personnes sans qui le FI n'au-rait pas pu réaliser ce magnifique parcours, à savoir ses fondateurs Pierre Pury et Gérald Garcia et ensuite toutes les personnes sus-citées pour leur participation sans défaillance. Ma gratitude s'adresse à vous tous auteurs, relecteurs, dessina-teurs, etc. Un grand merci à nos lecteurs fidèles ou sporadiques sans lesquels le Flash informatique n’aurait eu aucune raison d’être.Vous l'aurez compris, j'ai énormément apprécié d'avoir travaillé avec vous tous pendant ces presque trois décennies. n

Page 40: Flash informatique 2013 - no 7

ISSN 1420-7192

No, it was not Colonel Mustard in the cafeteria with an English cane. They are many suspected culprits, but as they were not aware of what they were do-ing, they will be granted extenuating circumstances.

Non, ce n’est pas le Colonel Moutarde dans la café-téria avec une canne anglaise. Les présumés cou-pables sont multiples, mais comme ils l’ont fait sans s’en rendre compte, on leur accordera des circons-tances atténuantes.

Premier coupable possible: l'âge de la retraite

Même si certains illuminés voudraient le repousser jusqu’à sep-tante ans pour les hommes, septante-deux pour les femmes (normal, elles vivent plus longtemps!), tout le monde est d’accord pour admettre qu’il est justifié de changer d’air après toutes ces heures consacrées à une activité salariée, même si celle-ci était gratifiante, intéressante, etc. Donc bien évidemment, ce n’est pas notre départ, le mien suivi de celui d’Appoline, qui a pu provoquer l’arrêt définitif de cette revue; le FI n’existait pas que pour ceux qui en avaient la charge, il avait su faire sa place dans les médias de veille technologique. C’était pour beaucoup de services infor-matiques un moyen de connaître les orientations de notre presti-gieuse École, l’expérience des autres étant toujours très utile. Les lecteurs moins férus d’informatique, mais néanmoins curieux y trouvaient des articles, certes pas toujours écrits de façon profes-sionnelle, mais présentant l’informatique de l’intérieur. Le FI aurait pu, même dû, évoluer avec d’autres acteurs aux commandes.

Deuxième éventualité: les méthodologies Afin d'améliorer l'efficacité de leurs processus, les services infor-matiques modernes peuvent s'aider de méthodes qui ont déjà fait leurs preuves dans d'autres contextes; c'est le choix pris par le DIT depuis plus d'un an (voir à ce sujet l'article de Michel Naguib dans le FI5/2013). Les bonnes pratiques conseillées ne laissent guère de place à un vecteur d'information comme le FI, on doit juste documenter les prestations, et loin de moi l’idée de dire que c’est facile, je connais les difficultés de cette tâche.

Troisième possibilité: la langue anglaise

Souvent reproché, le choix du français pour les articles du FI, avec quelques rares exceptions, pourrait s’avérer un plus. Nous l’avons souvent expérimenté en remarquant que des recherches

Actualités

en français sur Google, mettaient en bonne place les articles du FI, qui n’étaient pas noyés dans l’océan des articles techniques en anglais. À l’heure où il est sérieusement envisagé de développer des MOOCS (ou CLOMS: cours en ligne ouverts et massifs) en fran-çais, pour un public francophone longtemps négligé, dommage d’abandonner une revue technique en français, qui a su faire ses preuves et acquérir un lectorat.

Enfin quatrième candidat: la modernité

Tout le monde sait que le papier c’est ringard, dématérialisons donc et entrons dans le cloud ! Mais les journaux qui passent au numérique ne jettent pas tous le papier, en dehors sans doute des quotidiens. Quel que soit le média (matériel ou non), une revue a besoin d’une équipe, comité de rédaction, auteurs, etc. Supprimer aujourd’hui le FI c’est se passer de toute cette structure qui existe et qui a su perdurer. Le choix de notre confrère de l’UNIL il y a quelques années fut de passer au tout numérique, mais il a gardé des dates de parution, une équipe d’auteurs, un rédacteur, etc. C’est une piste qui n’a pas été suffisamment explorée pour le FI.

Coupable ou non coupable ?

En conclusion, bien sûr, pas de coupable à condamner, juste un contexte actuel qui n’est pas favorable à de telles initiatives. Il est sans doute plus facile de supprimer le FI que de le faire évoluer.

Ce n’est pas un hasard si le FI a duré 28 ans, ce quart de siècle a vu tant de changements fondamentaux qu’aucun futurologue n’a su les voir venir: l’arrivée du poste de travail individuel, le Web, les dispositifs mobiles, les réseaux sociaux, etc. C’est devenu plus que banal de dire que pendant ces années l’informatique a bouleversé nos vies professionnelles et privées, quels que soient l’âge, la géo-graphie, le niveau d’éducation. Et le FI, avec toute la modestie de ses moyens, a tenté d’accompagner ces mutations et d’en faire sentir l’importance, souvent avant que les journaux standard ne s’en emparent. Il suffit de passer à travers les numéros spéciaux, cités par Appoline en page 38 de ce journal (flashinformatique.epfl.ch//spip.php?article1154), pour se rendre compte à quel point le FI collait aux problématiques du moment. Et comme l’informa-tique est une chose trop sérieuse pour ne laisser que les infor-maticiens s’exprimer, nous avons profité de ces numéros spéciaux pour demander à des sociologues, philosophes, médecins d’appor-ter aussi leurs regards!

Voilà, une belle aventure se termine à laquelle j’ai eu la chance de participer. Souhaitons qu’ailleurs, naissent d’autres Flash informa-tique, issus d’écoles ou d’universités, en version papier ou électro-nique, qui nous amènent un regard indépendant sur le monde. n

Qui a tué le Flash [email protected], rédacteur en chef du FI d'avril1994 à mars 2013