Linux France

S'abonner à flux Linux France
Mis à jour : il y a 2 heures 14 min

Le Top 500 des supercalculateurs de novembre 2015

Mardi 19 Janvier

Le quarante‐sixième Top 500 des supercalculateurs mondiaux est sorti en novembre 2015.

Rappelons que le Top 500 se base sur une soumission volontaire (de nombreuses machines puissantes mais classifiées ne participent pas à la course) et sur un comparateur de performances spécifique extrêmement parallélisable, le code LINPACK, qui concerne la résolution de systèmes d’équations linéaires.

La deuxième partie de la dépêche revient sur ce classement, et aborde une partie des commentaires de la page d'annonce.

Tout ça pour ça ?

Lors de la dépêche précédente, l'année 2014 se finissait sur la quatrième victoire consécutive de Tianhe-2. Rien n'a changé de ce côté, le supercalculateur chinois installé en 2013 reste en tête, visiblement sans faire progresser son score de 33,86 pétaFLOPS et ses 16 000 nœuds de calcul (et sa consommation de 17,8 MW pendant le test). Le deuxième du classement est Titan, qui monte à 17,59 pétaFLOPS. Le podium est complété par Sequoia, qui atteint les 17,17 pétaFLOPS.

Seuls trois supercalculateurs parmi les 10 premiers ont été installés ou mis à jour en 2015. Six datent de 2011 ou 2012. Les 10 premiers n'ont jamais été aussi « vieux ».

La puissance du 500e supercalculateur ou la puissance moyenne des 500 progressent de 55% par an.

L'évolution par pays

La Chine détient le premier du classement et est en pleine croissance (passage de 37 à 109 entrées dans le classement, devenant second en utilisation et en capacité de calcul).

Les États-Unis régressent (ou partagent), passant de 233 à 199 supercalculateurs, soit la valeur la plus basse depuis le début du Top 500.

L'Europe régresse de 141 à 107 systèmes, passant derrière la Chine. On décompte 32 systèmes en Allemagne, 18 en France et au Royaume-Uni.

Le Japon compte 37 systèmes (contre 39 précédemment).

L’évolution par fabricant

On recense 89% de processeurs Intel (en hausse) et 4,2% d'AMD Opteron (en baisse). Et on trouve 63,5% de NVIDIA pour l'accélération et 27,9 de Intel Xeon Phi. La tendance est d'ailleurs à la hausse pour ce type de technologie : 104 supercalculateurs disposent maintenant de puces d'accélération, contre 90 en juin dernier.

HP détient 155 systèmes (178 précédemment), Cray 69, Sugon 40, IBM 45 (111 préc.) et Lenovo 25 (3 préc.). IBM a pour particularité de proposer des processeurs de type Power au lieu des habituels x86. Cette part diminue de 38 et 26 systèmes. De plus, l'activité de serveurs x86 ayant été revendue à Lenovo, certains systèmes auparavant totalement IBM sont maintenant annoncés comme IBM/Lenovo (pour 9 d'entre eux) ou Lenovo/IBM (5 d'entre eux).

En terme de performance, le trio de tête est formé de Cray (25% de la puissance totale ; +1 point), IBM (14,9% ; -8,1 points) et HP (12,9% ; -1,3 point). Et côté accélération, 50,6% de NVIDIA et 42% de Intel Xeon Phi.

Le National University of Defense Technology chinois contribue à 9,2% avec Tianhe-2 et Tianhe-1A (-1,7 point).

Les systèmes d’exploitation

C'est devenu encore plus simple : 98,8% de Linux et 1,2% d'Unix.

Télécharger ce contenu au format Epub

Lire les commentaires

Sortie de LibraZiK 1.0 : Premier pas (20160107)

Mardi 19 Janvier

Le Studio Audio LibraZiK est un projet de studio audio-numérique complet fabriqué à partir de logiciels libres pour les ouvrages musicaux. LibraZiK est un projet qui a pour objectif de fournir un système robuste, prêt à l'emploi, et avec une documentation à jour, aux francophones souhaitant faire de la Musique Assistée par Ordinateur (M.A.O.).

Avec LibraZiK, vous pourrez apprendre, enregistrer, éditer, jouer, analyser, parfaire,… la musique, bref, faire des tas de choses musicales à l'aide de votre ordinateur. Si ceci vous intéresse, vous pouvez aller lire cette description plus complète du projet.

Vous pouvez d'ores et déjà tester LibraZiK sans forcément l'installer sur votre ordinateur ce qui vous permettra de rencontrer la plupart des fonctionnalités. Si vous souhaitez par la suite l'utiliser plus en profondeur et profiter de toutes les fonctionnalités qu'elle apporte, vous pourrez ensuite l'installer.

LibraZiK vient avec plus de 230 logiciels audio-numériques pré-installés comme par exemple :

Pour d'avantage de détails, voir : la liste des logiciels audio-numériques de LibraZiK.

D'autres logiciels viendront s'y adjoindre, semaine après semaine, accompagnés de documentation en français (voir ici pour davantage d'information sur ce processus).

Le projet dispose de plusieurs canaux de communication pour l'entraide que vous pouvez emprunter.

Cet article est placé sous une double licence : licence LAL 1.3 et licence CC-BY-SA 4.0 International. L'article originel est disponible sur le site du projet.

Télécharger ce contenu au format Epub

Lire les commentaires

Sortie d'elementary OS Freya

Lundi 18 Janvier

elementary OS est un système d’exploitation basé sur Ubuntu GNU/Linux. La première version 0.1 "Jupiter" était basée sur Ubuntu 10.10, la suivante, 0.2 "Luna", était basée sur Ubuntu 12.04 LTS. Cette dernière, la version 0.3 "Freya" (initialement nommée "Isis", puis rebaptisée pour éviter toute confusion avec Daesh), poursuit sa logique de se baser sur les versions LTS (Long Term Support, avec support à long terme) d’Ubuntu et adopte donc le cœur d’Ubuntu 14.04.

NdM: la distribution est parue en avril 2015. La dépêche a été commencée 11 mois avant, mais sort malheureusement bien après avec avoir stagné 8 mois en rédaction.


Sommaire Quatre mythes à propos d'elementary OS

Pour tout de suite casser les "on dit que" et autres préjugés, voici quelques précisions issues de cet article sur le blog d'elementary. ;)

elementary OS est juste un thème pour Ubuntu

Certains sont restés bloqués en 2010 et pensent qu'il ne s'agit que d'un ensemble de thèmes et d'icônes. Bien qu'il représente une partie importante du système, elementary OS est beaucoup plus qu'un simple thème. elementary OS est un système d'exploitation complet bâti sur un cœur Ubuntu, un environnement de bureau (Pantheon) et tous ses composants, plusieurs applications (Files, Noise, Audience, Maya, Terminal, Scratch, Snap et Switchboard pour en citer quelques-unes), un kit de développement (Granite), un style de conception avec un ensemble de guide graphique. Il y a tellement plus que « juste » un thème…

elementary OS utilise GNOME Shell

La toute première sortie du système en 2011, Jupiter, a été réalisée à partir d'Ubuntu 10.10 accompagné de la pile Gnome 2. Ceci incluait la session Gnome elle-même et quelques-unes de ses applications. Après Jupiter, nous avons réalisé que nous ne pouvions pas améliorer l'expérience utilisateur plus que ça en travaillant sur un environnement de bureau existant et nous avons commencé à travailler sur Pantheon, un environnement de bureau moderne. Nous avons retiré les composants de Gnome dont nous n'avions pas besoin ou ne voulions pas, développé des remplaçants où cela était approprié et avons commencé à harmoniser l'interface entre WingPanel, Plank, SlingShot et les autres composants.

Durant cette même période, GNOME était en train de travailler dur sur Gnome Shell, une autre interface de bureau moderne. elementary OS n'a jamais utilisé Gnome Shell et l'expérience utilisateur entre les deux est tout à fait différente. Comme le développement de Pantheon se déroulait dans le même temps que celui de Gnome Shell, beaucoup de gens semblent penser que Pantheon est en fait un fork ou construit à partir de Gnome Shell. Aussi, les panneaux du bureau sont de la même couleur (noir), au moins dans Luna (elementary OS 0.2).

elementary OS a forké GNOME Shell ou Mutter

Liée à l'idée fausse précédente, beaucoup de gens semblent penser que nous avons forké Gnome Shell et/ou Mutter pour notre bureau Pantheon ou le gestionnaire de fenêtre Gala. Ni l'un ni l'autre ne sont vrais (voir les sources). Mais Gala, un composant essentiel de notre environnement de bureau Pantheon, est construit en utilisant la bibliothèque LibMutter et cette dernière est la même utilisée par Gnome Shell pour son gestionnaire de fenêtres. Cela signifie que nous pouvons contrôler complètement notre expérience utilisateur tout en bénéficiant d'améliorations et de nouvelles fonctionnalités pour les développeurs.

Installer Panthéon sur la distribution xxx est la même chose qu'utiliser elementary OS

elementary OS développe Panthéon, notre environnement de bureau pour elementary OS. De façon idéale pour de nombreux utilisateurs, elementary OS est construit sur la même base que les versions Ubuntu LTS. Cela signifie que Pantheon a tendance à fonctionner sur ces versions d'Ubuntu. Cependant, Pantheon n'est pas tout ce qui fait elementary OS, il y a également de nombreux autres changements sous le capot qui font que le système fonctionne mieux. Et dans certains cas nous incluons de nouvelles bibliothèques absentes d'Ubuntu, ce qui rend plus difficile à utiliser Panthéon sur Ubuntu. En outre, nous développons et testons sur elementary OS et nous ne pouvons pas prévoir les éventuels conflits que les utilisateurs rencontreront dans l'utilisation de Pantheon sur d'autres plates-formes. Nous ne décourageons pas les utilisateurs d'installer Pantheon sur leur OS favori, nous ne le soutenons simplement pas officiellement et nous ne serons pas surpris s’ils rencontrent quelques soucis.

Les nouveautés de elementary OS 0.3 Freya Propres au cœur Ubuntu

Si une grande partie des modifications ne nous concerne pas (Unity, Ubuntu Server, Ubuntu Touch…), on trouve tout de même un petit lot de nouveautés sur le back-end d’Ubuntu. Passons en revue les nouveautés apportées en deux ans à l’OS de Canonical.

Le passage du noyau Linux 3.2 à 3.16 Gestion de l'énergie pour les cartes vidéos hybrides avec nvidia-prime

Attendue par un grand nombre d'utilisateurs, Ubuntu intègre désormais la gestion de la technologie Optimus. Une excellente nouvelle pour tous les propriétaires de portables accompagnés d'une carte graphique Intel et une autre nVidia.

Chiffrement complet du disque dur et utilisation des LVM

Les LVM sont des gestionnaires de volumes logiques, une alternative au partitionnement classique du disque dur, plus d'infos ici.

Propres à elementary OS LightDM

LightDM est un gestionnaire d'affichage pour X11 et a pour but d'afficher les fenêtres d'authentification fournies par le greeter (littéralement l'hôte, celui qui vous accueille à votre arrivée). À l'inverse de GDM, il est indépendant des bibliothèques systèmes, on peut donc lui adjoindre différents greeters tels que :

  • Unity Greeter
  • Pantheon Greeter
  • KDE Greeter

Nous nous intéressons ici à Pantheon Greeter.
D'un point de vue visuel, l'évolution porte sur les avatars de vos sessions. Pantheon-Greeter gère maintenant la couche alpha (transparence) des fichiers PNG. À vous donc les avatars détourés comme il faut.

Autre signe de cette évolution, le passage en nuance de gris de votre avatar lorsque celui-ci n'est pas actif. Le déplacement visuel des avatars dans la fenêtre de connexion amène aussi son petit vent de fraîcheur, le déplacement ne se fait plus comme sur Luna. C'est maintenant beaucoup plus visuel.

Le bureau Pantheon : Wingpanel, Plank et Slingshot

Vous connaissez tous le menu Applications (appelé aussi Slingshot), c'est le cœur de la distribution avec le dock Plank. Depuis le début d'elementary OS Luna, il est possible de personnaliser l'interface graphique de Wingpanel, logiciel sur lequel s'appuie le menu Applications. Il est possible de jouer sur le niveau de transparence pour le rendre plus ou moins visible mais malheureusement cette opération reste manuelle.

Freya intègre une évolution de Wingpanel, en fonction du fond d'écran de votre bureau et de la fenêtre qui est affichée (maximisée). Celui-ci peut désormais dynamiquement adapter son niveau d'opacité.

Par défaut, sans fenêtre affichée, avec le fond d'écran par défaut, Wingpanel est totalement transparent ; il laisse apparaître la mention Applications, la date et l'heure et enfin à droite nous avons le bouton d'action permettant d'éteindre, de redémarrer votre ordinateur.

En changeant le fond d'écran, l'opacité de Wingpanel est automatiquement ajustée pour s'afficher au mieux. Votre fond d'écran est sombre : pas de souci l'opacité change au bout de quelques secondes. À l'inverse votre fond est clair, Wingpanel affichera une bande noire semi transparente du plus bel effet.

Les applications

Tout comme les projets GNOME, KDE et bientôt Ubuntu avec les Touch Core Apps, elementary a développé son propre assortiment d'applications pour couvrir les usages les plus courants, du navigateur web au lecteur de vidéos en passant par le gestionnaire de fichiers, le calendrier et la calculatrice. Toutes ont reçu, pour le passage à Freya, au moins une mise à jour commune : celle des lignes directrices de l'interface. La fameuse "header bar" déjà adoptée par GNOME s'est désormais généralisée à travers elementary. Avec elle, apparaît un autre trait visuel de GNOME : les icônes symboliques. Grâce au dépoussiérage du thème GTK, les menus et "popovers" se sont dotés de coins arrondis, et certaines applis bénéficient d'un thème sombre, comme Audience, le lecteur de vidéos (à l'image de Totem, le lecteur vidéo de GNOME) :

Un exemple criant de ce redesign est le gestionnaire de photos Photos (sic), forké de Shotwell et remplaçant ce dernier dans Freya :

Les réglages : Switchboard et ses plugs

Une personnalisation plus poussée est possible via une application tierce, elementary Tweaks, dont la philosophie est proche de celle du GNOME Tweak Tool.

Conclusion et perspectives

La communication d'elementary insiste beaucoup sur le succès critique de la distribution, qui s'est vue recevoir des éloges de blogs technologiques pas forcément spécialisés Linux, comme Mac|Life (sisi), Wired ou Lifehacker, mais qui surtout séduirait beaucoup de nouveaux arrivants ; d'après les développeurs qui citent leurs statistiques Sourceforge, 60% des téléchargements d'elementary seraient effectués depuis Windows et OS X. elementary veut clairement devenir une bonne raison pour les non-Linuxiens de se tourner vers le logiciel libre, aux côtés d'Ubuntu et de sa célèbre dérivée, Linux Mint.

Le projet propose diverses façons de le soutenir financièrement : par don au téléchargement de l'ISO (selon l'approche du prix libre ; les bitcoins sont d'ailleurs acceptés), mais aussi par le biais de Bountysource, qui rémunère les développeurs via des primes fixées sur les bogues qu'ils corrigent, et également via Patreon, qui permet d'effectuer un don régulier au projet.

Sur le site web flambant neuf du projet figurent deux pages dédiées respectivement aux développeurs d'applications et à tous ceux désireux de participer au projet, que ce soit en le traduisant, en contribuant à son site web, en dessinant des interfaces (c'est ainsi qu'elementary est né, en prenant forme dans les mockups que postait Daniel Foré sur sa galerie DeviantArt) ou en modifiant tout simplement le code sur Launchpad.

Télécharger ce contenu au format Epub

Lire les commentaires

Revue de presse de l'April pour la semaine 2 de l'année 2016

Lundi 18 Janvier

La revue de presse de l'April est régulièrement éditée par les membres de l'association. Elle couvre l'actualité de la presse en ligne, liée au logiciel libre. Il s'agit donc d'une sélection d'articles de presse et non de prises de position de l'association de promotion et de défense du logiciel libre.

Sommaire

[Numerama] Microsoft France dit son amour du Libre et de la vie privée

Par Guillaume Champeau, le vendredi 15 janvier 2016. Extrait:

Dans un communiqué, Microsoft France a répondu à l'April sur la question des logiciels libres dans le cadre scolaire.

Lien vers l'article original: http://www.numerama.com/tech/139189-microsoft-france-dit-son-amour-du-libre-et-de-la-vie-privee.html

Voir aussi:

[ZDNet France] Loi Numérique: les amendements sur le logiciel libre ne font pas que des heureux

Par Louis Adam, le vendredi 15 janvier 2016. Extrait:

Le projet de loi numérique prend forme: après un passage en commission des lois, les députés ont achevé d’examiner les 600 amendements déposés par les parlementaires. Et les dispositions en faveur du logiciel libre suscitent des réactions parmi les éditeurs.

Lien vers l'article original: http://www.zdnet.fr/actualites/loi-numerique-les-amendements-sur-le-logiciel-libre-ne-font-pas-que-des-heureux-39831208.htm

Et aussi:

Voir aussi:

[Numerama] L'affaire Renault pourrait relancer la question de l'open-source des firmwares

Par Julien Lausson, le jeudi 14 janvier 2016. Extrait:

Le groupe Renault a chuté en bourse à la suite de révélations sur une perquisition menée par la DGCCRF, ravivant le spectre du scandale Volkswagen. Une affaire qui pourrait au passage relancer la question de l'open-source des firmwares.

Lien vers l'article original: http://www.numerama.com/tech/138876-laffaire-renault-pourrait-relancer-la-question-de-lopen-source-des-firmwares.html

[usine-digitale.fr] "La société de la surveillance est-elle notre projet de société?" interroge Tristan Nitot

Par Emmanuelle Delsol, le mardi 12 janvier 2016. Extrait:

Membre du CNNum de 2013 à 2016, Tristan Nitot est l’un des fondateurs de Mozilla Europe. Il l’a quitté début 2015 pour rejoindre l’équipe dirigeante de la jeune pousse CozyCloud, qui propose un cloud personnel destiné à redonner à l’utilisateur le contrôle de ses données. Depuis toujours, Tristan Nitot milite sur le thème de la protection de la vie privée et des données en ligne.

Lien vers l'article original: http://www.usine-digitale.fr/editorial/la-societe-de-la-surveillance-est-elle-notre-projet-de-societe-interroge-tristan-nitot.N373082

[Numerama] David Bowie avait lancé son propre FAI et anticipait la mort du copyright

Par Guillaume Champeau, le lundi 11 janvier 2016. Extrait:

Fasciné par le numérique, David Bowie avait anticipé la mort du droit d'auteur tel qu'il l'avait connu au vingtième siècle, et lancé son propre fournisseur d'accès à internet à la fin des années 1990, pour accompagner les besoins de ses fans plutôt que de lutter contre la montée inexorable des réseaux P2P.

Lien vers l'article original: http://www.numerama.com/pop-culture/138070-david-bowie-avait-lance-son-propre-fai-et-predit-la-mort-du-copyright.html

Télécharger ce contenu au format Epub

Lire les commentaires

Sortie de la version 3.0 de GNU Health

Lundi 18 Janvier

GNU Health est un projet de logiciel de Système d'information hospitalier et de dossier médical personnel sous licence GPL-3. Il est écrit principalement en Python en utilisant le Framework Tryton et PostgreSQL comme base de données.

Le projet est dirigé par l'ONG GNU Solidario qui œuvre à fournir santé et éducation aux plus démunis par le biais du logiciel libre. Il a entre autres reçu le prix annuel de la FSF en 2011 pour son impact social.

Cette nouvelle version est compatible avec Tryton 3.8 et donc avec le nouveau client web sao. Elle étend la couverture fonctionnelle grâce à de nouveaux modules et l'amélioration des existants.

Qu'est-ce GNU Health ?

GNU Health s’adresse aux praticiens et institutions de la santé ainsi qu'aux gouvernements.
Sa conception modulaire (héritée de Tryton) lui permet d'être déployé dans plusieurs scénarios qui vont du simple cabinet privé au système de santé national.

On peut noter entre autre les modules :

  • pédiatrie (health_pediatrics) ;
  • génétique (health_genetics) ;
  • laboratoire (health_lab) ;
  • patient (health_inpatient) ;
  • chirurgie (health_surgery) ;
  • gynécologie (health_gyneco) ;
  • traumatisme (health_iss) ;
  • maladie tropicale négligée (health_ntd) ;
  • infirmerie (health_nursing) ;
  • chirurgie (health_surgery).

Il existe aussi toute une série de modules reprenant toutes sortes de classifications standards.
GNU Health est traduit dans plusieurs langues en utilisant l'instance Pootle de savannah (toute aide pour le français est la bienvenue :-)).

De plus, il s'intègre avec les fonctionnalités de gestion des modules de Tryton comme la comptabilité, la gestion de stock, des achats, etc.

Nouveautés Modules
  • health_icd9procs contenant les codes de procédure du WHO ICD9 Volume 3 ;
  • health_ophthalmology pour les évaluations ophtalmologiques ;
  • health_disability qui permet d'enregistrer les fonctionnalités et invalidités des patients.
Fonctionnalités
  • Gestion des noms des patients compatible avec FHIR HL7 ;
  • la liste de médications du patient peut être mise à jour automatiquement depuis la prescription ;
  • distinction entre le genre et le sexe biologique ;
  • les évaluations socio-économiques sont désormais historisées ;
  • une raison peut être renseignée sur l'hospitalisation ainsi que la décharge du patient ;
  • une gestion des repas a été ajoutée ;
  • la module chirurgie a été fortement amélioré (équipe chirurgicale, fournitures, classification des plaies, post-op, flux de réservation) ;
  • les groupes de maladies ont été mis à jour.

Les rapports et l'ergonomie en général ont été améliorés.

Photos d'écrans des interfaces graphiques actuelles. En mode "web", dans un navigateur. Puis en mode "bureau", en logiciel indépendant.


Télécharger ce contenu au format Epub

Lire les commentaires

Dixième rencontre C++ Francophone jeudi 21 janvier 2016 (Paris, Châtelet Les Halles)

Dimanche 17 Janvier

Joël Falcou organise depuis 2013 les rencontres du Groupe des Utilisateurs C++ Francophone (abrégé C++ FRUG d'après la traduction en anglais).

La dixième édition import <new_blood> est pour très bientôt
  • ce jeudi 21 janvier 2016 de 19h à 22h
  • au 43 Rue Beaubourg, Paris (Mobiskill Partner)
Le programme
  • 19:30 - 20:15 : PrOgO, animation 3D pour l’apprentissage de la Programmation Orientée-Objet par Fahima Djelil (Université Blaise Pascal Clermont-Ferrand)
  • 20h15 - 21h00 : Pause dînatoire, pizzas et bières offertes par Mobiskill Partner
  • 21h00 - 21h45 : Question Pour Un Champion++, Venez vous creusez la tête en participant à un petit Quizz C++11/14 en live.

Pour se rendre dans les locaux de Mobiskill Partner au 43 Rue Beaubourg, Paris :

L’inscription sur le site meetup.com permet de préparer la salle selon l'influence.

Quésaco PrOgO ?

Fahima Djelil de l'Institut Pascal (Université Blaise Pascal Clermont-Ferrand) présente un micromonde pour l’apprentissage de la Programmation Orientée-Objet (POO) en C++. Conçu sur la base d’autres micromondes existants, PrOgO vise à réduire la complexité de l’apprentissage de la POO aux étudiants débutants. Son originalité est de représenter chaque objet par une pièce de jeu de construction virtuel 3D. L'éditeur de code avec auto-complétion se synchronise avec l’environnement virtuel, permettant aux étudiants d’implémenter les concepts de la POO sans se soucier d’erreurs de syntaxe.

  1. Un tour d'horizon des micromondes existants en insistant sur les caractéristiques qui en font des outils d’apprentissage très puissants ;
  2. Description complète de PrOgO, en montrant comment les concepts de la POO sont représentés au sein de cet environnement ;
  3. Détails de son implémentation qui reposent sur les technologies Qt et Ogre 3D ;
  4. Résultats d’une expérimentation conduite auprès d’étudiants débutants, dans l’évaluation de son impact sur l’apprentissage et son utilisation.
Réveillons-nous, C++11 et C++14 ont débarqué

Rappelons que le C++ n'a pas évolué pendant près de vingt ans et que depuis 2011 une révolution réveille la communauté C++ avec de nouveaux paradigmes de programmation, et la volonté de s'orienter vers un sous-ensemble plus intuitif et moins enclin à l'erreur.

Ces rencontres nous permettent de nous motiver pour être à la pointe des dernières évolutions du C++. Quelles nouvelles résolutions pour 2016 ? Rester endormit avec le C++03, ou s'éveiller avec C++11/14/17 ?

Et pour aller plus loin, chacun peut participer à l'élaboration de la norme en proposant ses contribution sur le dépôt Git de la prochaine version du C++. Il est aussi possible de rejoindre le comité de normalisation du C++. L'AFNOR gère la commission pour la la France.

Rencontrons-nous pour en discuter. De plus, une association est en cours de constitution :-)

Télécharger ce contenu au format Epub

Lire les commentaires

TeX et traitement de données par flot e02 : les Iteratees

Dimanche 17 Janvier

Dans cet épisode de la série TeX et traitement de données par flot, abordons le mécanisme utilisé dans ToolXiT pour implémenter le traitement de données par flot. Un peu de code sera présenté en deuxième partie, après une introduction à la solution technique retenue. Cet épisode met en place les outils nécessaires pour permettre de plonger dans ToolXiT lui-même dans les épisodes suivants.

Comme cet épisode reprend du vocabulaire et des concepts introduits dans l’épisode précédent, il est plus que recommandé de le lire avant de continuer plus avant.

Sommaire Résumé de l’épisode précédent

Lors du premier épisode de cette série j’avais abordé les bases pour lire du TeX.
Si vous ne l’avez pas lu ou oublié, les choses à retenir pour la suite sont les suivantes :

  • TeX transforme une séquence de caractères en commandes de composition de document ;
  • lire du TeX se fait au fil de l’eau et pas en bloc ;
  • certaines commandes TeX sont interprétées à la volée et peuvent modifier la manière dont le reste est lu.

À ce point de notre voyage dans cette série, il est temps de passer au point suivant : le traitement de données par flot.

Les besoins

Afin d’implémenter complètement un analyseur de TeX, plusieurs outils sont indispensables. Premièrement, le comportement de l’analyseur peut changer au cours de l’analyse de l’entrée. Il apparait donc évident que cet analyseur possède un état interne qui peut être lu et mis à jour.
Ensuite, les caractères doivent être transformés en tokens, puis ces tokens transformés en commandes. Ceci met en avant le côté traitement de flot de données et transformation de flot d’un certain type en flot d’un autre type.
De plus, certaines commandes TeX sont développées, ce qui requiert la possibilité de remplacer une séquence de tokens par de nouveaux tokens. Il est donc nécessaire de pouvoir ajouter en tête d’un flot d’entrée de nouveaux éléments.

Ce sont les besoins de base que nous souhaitons couvrir. Regardons maintenant une solution pour les couvrir.

Iteratees Mékeskecé ?

Maintenant que les besoins sont un peu plus clairement énoncés, parlons de l’outil choisi. Nous verrons ensuite en quoi il répond aux besoins point par point.

Les Iteratees nous viennent tout droit des langages fonctionnels et sont conçus pour décrire des traitements incrémentaux effectués sur une entrée fournie sous forme de séquence (par exemple une séquence de caractères ou d’octets). Ils sont particulièrement utilisés en Haskell pour lequel plusieurs implémentations existent et aussi en Scala notamment au sein du framework Play.
Globalement un Iteratee un objet qui effectue un calcul correspondant à un pas sur un morceau de séquence en entrée. Ce calcul fournit une nouvelle valeur à partir de ce morceau. Il est bien sûr possible que le calcul n’ait pas eu besoin de tout le morceau pour effectuer son calcul, auquel cas, le reste est retourné avec la valeur calculée. De même si plus d’entrée est nécessaire pour effectuer le calcul, l’Iteratee se met en attente de plus d’information pour continuer.

L’idée est vraiment là, on effectue un pas en avant, en consommant ce dont on a besoin et en laissant le reste pour le pas suivant.

Un autre point important à comprendre sur les Iteratees est qu’ils décrivent le calcul à effectuer sur une entrée séquentielle, mais à aucun moment ils n’ont besoin de savoir ce qu’est cette entrée. Les Iteratees sont en quelque sorte nourris depuis l’extérieur, et n’ont aucune connaissance de la manière dont cela est fait.

Les Iteratees sont aussi sans mémoire à priori et ne peuvent pas revenir en arrière sur leur entrée. Cette propriété est intéressante et permet de limiter la taille prise en mémoire car il n’est pas nécessaire de stocker un nombre arbitraire d’éléments de l’entrée pour faire du backtracking.

Si un Iteratee ne sait pas quoi faire d’une entrée il le signale en retournant une valeur d’erreur.

Ces propriétés les rendent particulièrement intéressants dans le traitement de flots de données et le streaming car ils produisent des valeurs au fil de l’eau dès qu’assez de données sont disponibles en entrée. Ça tombe rudement bien vu la nature des données TeX que l’on souhaite traiter dans cette série. Il apparait aussi qu’il est aisé de les combiner afin de produire une séquence de calculs transformant une séquence de valeurs en entrée en une séquence de valeurs en sortie.

Un exemple concret d’Iteratee que l’on peut prendre est le décodage de caractères encodés en UTF-8 en caractères Unicode. Dans cet encodage un caractère est stocké sur un nombre variable d’octets (entre 1 et 4) et un Iteratee s’occupant de l’encodage consommerait en entrée un groupe de un à quatre octets d’une séquence et produirait en sortie un unique caractère unicode. En appliquant de manière répétée cet Iteratee sur une séquence d’octets, nous obtenons une séquence de caractères unicode décodés. Tadam !

Une implémentation

Résumons donc ce que nous venons de dire sur ces mystérieux objets. Un Iteratee :

  • mange des morceaux de séquence ;
  • attend d’avoir eu tous les morceaux dont il a besoin pour effectuer son calcul ;
  • produit une valeur ou une erreur à partir de ces morceaux ;
  • laisse aux autres ce qu’il n’a pas mangé.

Qu’il est bien élevé, n’est-ce pas ?

Si maintenant nous souhaitons implémenter tout ça en Scala (ce qui est mon cas), il nous faut plusieurs types :

  • Un type pour décrire une entrée séquentielle ;
  • Un type de Iteratee qui indique au choix :
    • qu’il en a fini avec l’entrée et retourne donc la valeur calculée et les morceaux d’entrée non consommés,
    • qu’il aimerait bien en avoir plus pour continuer,
    • qu’il ne sait pas quoi faire de cette entrée et retourne donc ce qu’il n’a pas consommé avec une erreur.

L’implémentation complète et à jour est disponible sur GitHub sous licence Apache 2.0.

Pour le type d’entrée, il est assez simple et ne comporte que deux cas : l’entrée est épuisée, des données sont disponibles.

sealed trait Input[+Elt] case object Eoi extends Input[Nothing] final case class Chunk[Elt](elts: List[Elt]) extends Input[Elt]

De la même manière, un Iteratee est décrit de la manière suivante :

sealed abstract class Iteratee[In, +Out] final case class Done[In, Out](v: Out, remaining: Input[In]) extends Iteratee[In, Out] case class Error[In](t: Throwable, remaining: Input[In]) extends Iteratee[In, Nothing] case class Cont[In, Out](k: Input[In] => Iteratee[In, Out]) extends Iteratee[In, Out]
  • Le constructeur Done est un Iteratee qui a fini son calcul et permet de fournir la valeur résultant du calcul ainsi que l’entrée non consommée ;
  • le constructeur Error est un Iteratee qui indique une erreur de traitement ;
  • le constructeur Cont est un Iteratee qui indique qu’il a besoin de plus de données pour continuer, avec la fonction décrivant la fin du calcul (appelée continuation).

Ces trois constructeurs représentent les cas de base, mais à eux seuls ils sont assez limités. Le véritable intérêt serait de pouvoir les combiner pour exprimer des calculs plus complexes à partir de calculs plus simples.

Par exemple si nous utilisions les Iteratees pour écrire un analyseur lexical qui accepte en entrée des expressions arithmétiques simples. Si nous supposons que l’on possède déjà un Iteratee qui retourne un entier à partir d’une séquence de caractères, nommé integer pour l’exemple, et un autre qui retourne le premier caractère d’une séquence de caractère, nommé char. Nous avons donc à disposition ceci :

val integer: Iteratee[Char, Int] = ??? val char: Iteratee[Char, Char] = ???

Il serait agréable de pouvoir exprimer la chose suivante : si mon entrée consiste en un entier, suivi du caractère + puis d’un autre entier, alors je les consomme et retourne la somme des deux entiers.

Fort heureusement, ce genre de chose s’exprime plutôt bien avec les Iteratees. Nous ne l’avons pas encore dit jusqu’ici mais un Iteratee est une monade et nous pouvons donc définir l’opérateur de composition >>= que nous nommerons flatMap afin de profiter du sucre syntaxique de Scala.

Qu’est donc cet opérateur de composition ? Cet opérateur s’applique à un Iteratee et prend en paramètre une fonction qui, si on lui donne en entrée le résultat calculé par l’Iteratee auquel il s’applique, retourne un nouvel Iteratee ayant le même type d’entrée et un type de sortie quelconque.

Pfiou !

Traduisons cela dans notre exemple. Tout d’abord il faut ajouter l’opérateur flatMap au type Iteratee, ce qui nous donne :

sealed abstract class Iteratee[In, +Out] { def flatMap[Out1](f: Out => Iteratee[In, Out1]): Iteratee[In, Out1] = ??? }

Le but de cette dépêche n’étant pas de décrire toute l’implémentation, je renvoie le lecteur curieux au code et aux différents liens sur le sujet pour l’implémentation de l’opérateur.

Le calcul décrit plus haut peut maintenant s’exprimer en terme de flatMap :

integer.flatMap { i1 => char.flatMap { c => if(c == '+') integer.flatMap { i2 => Done(i1 + i2, Eoi) } else Error(new Exception("+ expected", Eoi) } }

En utilisant le sucre syntaxique de Scala et en ajoutant des opérateurs permettant de filtrer le résultat, la même chose peut s’écrire de la manière suivante :

for { i1 <- integer '+' <- char i2 <- integer } yield i1 + i2

Cette notation est entièrement équivalente à la première mais permet de mettre en avant le côté séquentiel du calcul. Le résultat est un Iteratee qui prend des caractères en sortie et retourne un entier. Cet Iteratee est la composition de deux Iteratee plus simples et permet d’exprimer de manière très déclarative le calcul à effectuer sur le flot d’entrée.

Les compagnons indispensables

Souvenez vous, au début de cette section j’ai mentionné le fait qu’un Iteratee consommait une entrée fournie depuis l’extérieur, sans s’occuper du comment. Il nous faut donc un moyen d’alimenter un Iteratee avec une entrée. Ce moyen existe et s’appelle l’Enumerator.

Un Enumerator produit un flot d’entrée et le passe à un Iteratee. Il continue ainsi jusqu’à ce que :

  • soit l’Iteratee dit qu’il en a fini (Done ou Error) ;
  • soit l’entrée est épuisée.

Une fois que l’application de l’Iteratee s’arrête, l’Enumerator retourne le dernier Iteratee reçu. Ainsi un Enumerator peut se définir par le type simple suivant :

type Enumerator[In, Out] = Iteratee[In, Out] => Iteratee[In, Out]

Un exemple simple est l’Enumerator qui énumère les éléments d’une liste, que l’on peut définir ainsi :

def enumList[T, U](l: List[T]): Enumerator[T, U] = { it: Iteratee[T, U] => it match { case Cont(k) => l match { case x :: xs => enumList(xs)(k(Chunk(List(x)))) case Nil => k(Eoi) } case _ => it } }

Nous avons désormais les Iteratees qui décrivent la transformation de données d’entrée en une valeur, les Enumerators qui produisent les données d’entrée et nourrissent un Iteratee. Il nous manque encore un élément crucial : l’exécuteur du calcul pour en avoir le résultat. Dans cet article, un exécuteur est une simple méthode nommée run qui applique l’Enumeratee à un Iteratee et qui transforme le résultat soit en valeur soit en exception.

def run[In, Out](enum: Enumerator[In, Out], it: Iteratee[In, Out]): Out = enum(it) match { case Done(v, _) => v case Error(t, _) => throw t case Cont(_) => throw new Exception("Not enough data") }

Nous pouvons maintenant utiliser tous ces outils pour faire calculer la somme des entiers fournis en entrée via un Iteratee nommé sum.

val sum: Iteratee[Int, Int] = Cont { case Chunk(l) => sum.flatMap(s => Done(s + l.sum, Eoi)) case Eoi => Done(0, Eoi) } run(enumList(List(1, 2, 3, 4)), sum) // returns 10 as expected

Tout ça pour ça. C’est vrai que sur cet exemple ça parait un peu complexe pour pas grand chose, mais imaginons maintenant que les entiers ne viennent pas d’une liste connue à l’avance mais qu’ils soient envoyés par paquet sur le réseau. Chaque Chunk dans ce cas contiendrait les entiers d’un paquet reçu. Sans modifier notre Iteratee sum d’une seule virgule, le même calcul est effectué. Ce mécanisme permet donc une réelle indépendance du calcul par rapport à la source des données nécessaires pour le réaliser.

Comme autre raison à l’utilisation de ce mécanisme, il est temps d’introduire le dernier compagnon de bataille : l’Enumeratee. Moitié Iteratee moitié Enumerator il permet de transformer un flot d’un type dans un flot d’un autre type, à la fois consommateur et producteur.

type Enumeratee[EltOuter, EltInner, Out] = Iteratee[EltInner, Out] => Iteratee[EltOuter, Iteratee[EltInner, Out]]

Cet objet parait plutôt complexe mais a une utilité non négligeable. Pour comprendre son utilisation, reprenons notre exemple d’Iteratee qui convertit des octets en caractères unicode. Sa signature ressemblerait à celle-ci :

val utf8decoder: Iterate[Byte, Char]

Si maintenant nous disposons d’un Iteratee qui, étant donnée une suite de caractères, retourne les mots. Sa signature est :

val word: Iteratee[Char, String]

Si nous souhaitons composer ces deux Iteratees pour transformer un flot d’octets en flots de mots, nous obtenons un Iteratee qui retourne des mots et qui opère sur les caractères, eux-mêmes produits par un Iteratee interne qui transforme des octets en caractères. Pour ce faire nous pouvons définir un opérateur sequence_stream qui séquence deux Iteratees, le second consommant le résultat du premier.

def sequence_stream[EltOuter, EltInner, Out](it: Iteratee[EltOuter, EltInner]): Enumeratee[EltOuter, EltInner, Out] = ??? val words: Enumeratee[Byte, Char, String] = sequence_stream(utf8decoder)(word)

words transforme donc un flot d’octets en flot de mots.

Les Iteratees au service de ToolXiT

Nous y voilà ! Parlons maintenant de ToolXiT.

Dans la première parte de cette dépêche, nous avons défini des besoins, issus de la discussion du précédent épisode. Si je vous ai parlé d’Iteratee et consort dans la section précédente, vous devez vous douter que c’est parce qu’ils vont être utiles à ToolXiT.
Le but est, rappelons le, de lire un fichier TeX et de le transformer en suite de commandes TeX pour composer un document. Couvrons nous tous nos besoins avec ces outils ?

Lire du TeX nécessite un état interne contenant tout un tas de valeurs. Nous reviendrons sur cet état dans un prochain épisode, pour le moment, nous savons juste qu’il existe et qu’il nous permet d’accéder aux données qui nous intéressent ici en lecture comme en écriture.

La première étape identifiée transforme des caractères en tokens via ce que nous avons appelé les yeux dans la dépêche précédente. La seconde étape prend en entrée des tokens et produit des commandes. Pour produire ces commandes, certaines séquences de tokens peuvent être déroulées en une nouvelle séquence de tokens dans la bouche. Par exemple nous pouvons l’écrire ainsi avec les Iteratees :

val eyes: Iteratee[Char, Token] val mouth: Iteratee[Token, Command] val toolxitCore: Enumeratee[Char, Token, Command] = sequence_stream(eyes)(mouth)

Le déroulement de macros requiert de pouvoir ajouter des tokens en tête de l’entrée, ce qui peut s’exprimer comme un Iteratee qui ne consomme rien et laisse en entrée un morceau avec de nouveaux tokens en tête. Une implémentation possible est :

def pushback(el: Elt): Iteratee[Elt, Unit] = Cont { case Chunk(l) => Done((), Chunk(el :: l)) case _ => Done((), Chunk(List(el))) }

Nos besoins semblent donc bien couverts. Tant mieux, sinon tout le chemin parcouru aurait été inutile.

Les yeux

Le but à atteindre dans un premier temps, est d’exprimer la transformation de suite de caractères en suite de tokens. Ce processus est décrit dans les chapitres 7 et 8 du TeXbook. ToolXiT fait abstraction de l’encodage des caractères dans le flot initial en utilisant les fonction d’entrée/sortie de la bibliothèque standard de Scala et opère donc au plus bas niveau sur des flots de caractères, et pas d’octets.

L’entrée est d’abord pré-traitée pour remplacer des séquences de caractères du style ^^A par leur valeur pour TeX comme décrit dans le chapitre 8. Puis à partir de ces caractères, sont créés des tokens selon les catégories courantes de ces caractères dans l’environnement. Suivant la catégorie, selon les règles du chapitre 7, les tokens sont créés. L’interface de ces yeux est donc la suivante (en version simplifiée pour la clarté de l’exposé) :

class TeXEyes(env: TeXEnvironment) { val tokenize: Iteratee[Char, Token] } La bouche

Une fois les tokens obtenus, la bouche s’occupe de les dérouler au besoin et d’en faire des commandes. Beaucoup de travail est fait dans cette phase notamment la mise à plat des macros. Des modifications sont apportées à l’environnement, comme par exemple le changement de catégories de certains caractères, de nouvelles définitions de macros. Plusieurs commandes sont interprétées directement par la bouche et ce qui en sort est soit un simple caractère à ajouter au document, soit une séquence de contrôle que la bouche ne comprend pas. Son interface simplifiée est :

class TeXMouth(val env: TeXEnvironment) { val command: Iteratee[Token, Command] } L’estomac

La suite de l’histoire représente l’estomac et se charge de traiter les commandes qui lui parviennent d’une manière ou d’une autre. Si l’on souhaite réimplémenter totalement TeX, ces commandes sont à interpréter comme décrit dans le TeXbook. Il est aussi possible de vouloir générer du HTML, faire d’autres analyses sur l’entrée, les possibilités sont ouvertes.

Le but de ToolXiT est d’arriver à ce point afin de donner la séquence de commandes que TeX obtiendrait à partir d’une entrée qu’elle soit issue d’un fichier ou un de streaming sur Internet.

Conclusion

Cet article est encore très généraliste et introduit un concept qui peut être utilisé à d’autre fins. Par exemple il peut être utilisé pour analyser un flux JSON, déchiffrer par bloc, etc. L’implémentation des Iteratees telle que décrite dans cet article est volontairement simplifiée par rapport à la définition complètement générique que l’on peut trouver, notamment en Haskell. Cette simplification est due au fait que le but est de l’utiliser dans ToolXiT et pas comme bibliothèque générique, le besoin est donc bien circonscrit.

Si vous souhaitez voir des exemples d’Iteratees de base qui servent à en construire d’autres par combinaison, la classe Iteratees contient tout un tas de définitions simples.

Dans la suite de cette série nous entrerons plus dans les détails de ToolXiT lui même, maintenant que nous avons couvert des aspects plus généraux. En attendant je vous dis à la prochaine fois.

Télécharger ce contenu au format Epub

Lire les commentaires

Sortie de Xen Orchestra 4.12, solution web pour XenServer

Dimanche 17 Janvier

Plus d'un an après la dernière dépêche sur la sortie de Xen Orchestra 3.6, voici une présentation de la toute nouvelle 4.12 !

Pour rappel, Xen Orchestra (XO) est une solution web de gestion d'infrastructure Xen, plus précisément sur la toolstack XAPI, embarquée dans XenServer.

Ce logiciel est libre (aGPLv3) et possède aussi une version installée et pre-configurée dans une machine virtuelle, vendue avec du support.

Introduction

Historiquement, XO a été conçu comme un outil web d'administration de machines virtuelles. Avec le temps, de nouvelles fonctionnalités ont permis de nouveaux usages, comme nous allons le voir ici.

Les grands axes développés récemment concernent principalement la sauvegarde, la réplication ainsi que le support de CloudInit.

Sauvegarde

La version 4.12 permet d'obtenir des fonctionnalités inédites sur XenServer : la sauvegarde incrémentale continue ainsi que la réplication. Le tout sans installer le moindre programme sur vos hyperviseurs (ni vos machines virtuelles !), juste en utilisant l'API de XenServer.

Sauvegarde incrémentale continue

Les utilisateurs de produits de sauvegarde de machines virtuelles connaissent probablement le Forever Forward Incremental Backup. Il s'agit du même principe : la première sauvegarde exporte les disques en entier, puis uniquement la différence par la suite. Mais en plus, quand la rétention maximale est atteinte, le fichier de différence le plus ancien est fusionné avec le fichier entier. Ainsi, il n'est plus jamais nécessaire de refaire un export complet !

Illustrons donc avec un schéma. Ici nous avons une rétention de 7 et une sauvegarde tous les jours :

Maintenant que nous arrivons à la 8 ème sauvegarde, nous allons fusionner le plus ancien des fichiers de différence :

Puis il est supprimé :

Réplication

Il s'agit ici de réplication au niveau de l'hyperviseur et non du stockage. L'avantage est qu'il est possible de répliquer sur n'importe quel autre stockage existant d'une machine sous XenServer. Qu'il soit local ou distant.

Ici aussi, après la première copie, c'est uniquement le différentiel qui sera envoyé. Pour résumer :

L'avantage est que vous réduisez le temps de reprise en cas d'accident sur le site A (puisque la machine est déjà prête à démarrer sur le site B !) ainsi que la durée de perte de données, si vous répliquez toutes les 10 minutes par exemple.

Vers le Cloud

L'orientation générale de Xen Orchestra tend de facto vers le Cloud, avec des fonctionnalités comme la délégation de ressources à des utilisateurs (machines virtuelles par exemple). La gestion des ACL en fait partie, proposant des connecteurs LDAP, SAML, ou encore GitHub et Google. La partie la plus récente est le support (pour l'instant simplifié) de CloudInit.

CloudInit

CloudInit est un logiciel qui s'installe dans votre machine virtuelle, et qui permet, au démarrage, de récupérer des informations venant d'une fournisseur de Cloud, comme Amazon, RackSpace, ou encore OpenStack etc.

C'est grâce à cela que l'on peut :

  • passer une clef SSH à la création d'une machine virtuelle
  • passer un nom d'hôte
  • agrandir la partition root
  • et plein d'autres choses

La seule condition est d'avoir un template compatible (un template Debian est disponible ici, un autre CentOS là).

Pour l'instant avec Xen Orchestra, si vos templates le permettent, vous pouvez d'ores et déjà passer votre clef SSH à la création de la machine virtuelle :

Aussi, le nom de votre machine virtuelle sera récupéré par CloudInit pour configurer directement le hostname. Enfin, nous supportons l'agrandissement du disque système (si votre disque root fait 4 GiB, vous pouvez l'agrandir, et au première démarrage, le système de fichier aura fait le travail).

Le gros avantage de cette méthode et de pouvoir fournir une machine disponible en moins de 30 secondes, entre le temps de création et l'accès en SSH !

À venir

La roadmap de Xen Orchestra est plutôt chargée, ce qui est bon signe ;)

La priorité à court terme ira à la fonctionnalité de self-service avec quotas, permettant de délimiter un véritable périmètre d'utilisation de machines virtuelles à des tiers.

Combiné à CloudInit, on peut imaginer déléguer facilement la création de machines virtuelles avec gestion des clefs SSH à une équipe de développeurs, sans risque de déborder sur des ressources en production par exemple.

L'autre objectif est une réécriture complète de l'interface web : après plus d'un an d'expérience et de retour utilisateurs, il est temps de factoriser et simplifier son utilisation.

Tester XO

Pour tester Xen Orchestra, il vous faut déjà une machine sous XenServer (sinon il n'y a pas d'intéret, puisque Xen Orchestra se connecte à l'API de XenServer).

Ensuite, deux solutions :

La première option est la plus rapide, mais rien ne vous empêche de commencer à tester via XOA puis ensuite d'installer les sources à côté !

Télécharger ce contenu au format Epub

Lire les commentaires

Agenda du Libre pour la semaine 3 de l'année 2016

Dimanche 17 Janvier

Calendrier web, regroupant des évènements liés au Libre (logiciel, salon, atelier, install party, conférence) en France, annoncés par leurs organisateurs. Voici un récapitulatif de la semaine à venir. Le détail de chacun de ces 24 événements est en seconde partie de dépêche.

Sommaire Agenda du Libre pour la semaine 3 de l'année 2016 [Kunheim] Formation Linux - Le lundi 18 janvier 2016 de 18h00 à 22h00.

Tous les lundis à partir de 18h00 jusqu'à 22h00 venez découvrir ou vous former sur Linux et les logiciels libres.
Ces séances de formation ont lieu à la salle "Kegreiss" au 56 rue principale - Kuhneim - face à la mairie - cette salle est accessible aux personnes à mobilité réduite.
Nous vous attendons nombreux. Le Team Linux

[Saint-Martin-de-Londres] Réunion de préparation Opération Libre - Le lundi 18 janvier 2016 de 18h30 à 23h00.

La réunion de jeudi se déroulera à l’espace de co-working Le Relais à Saint-Martin-de-Londres, elle à pour but d’organiser un rendez-vous des Garrigues « Opération Libre »
En janvier 2016, le Collectif des Garrigues et Montpel’libre souhaitent organiser, dans le cadre des rendez-vous des Garrigues, 48 heures d’Opération Libre sur la commune de Saint-Martin-de-Londres.
Opération Libre, c’est 48 heures d’animation participative pour collecter et libérer les informations et outils d’une commune, avec les habitants, des associations et contributeurs.

[Villeurbanne] Lundi 3.0 - Le lundi 18 janvier 2016 de 19h00 à 22h00.

Le CCO de Villeurbanne vous invite à son nouveau rendez-vous mensuel d’open-atelier, les Lundis 3.0
Venez participer à une soirée informelle de rencontre entre makers, curieux, geeks, habitants, artistes, …
Ces rendez-vous sont l’occasion d’apprendre et d’explorer ensemble des pratiques liées au numérique.

[Sèvres] Journée Logiciel Libre dans l'administration - Le mardi 19 janvier 2016 de 09h30 à 16h30.

Sous le pilotage du SGMAP/DINSIC, la Journée Logiciel Libre 2016 des communautés interministérielles du Logiciel Libre est organisée cette année par le Ministère de l’éducation nationale, de l’enseignement supérieur et de la recherche.
Elle se tiendra le
Mardi 19 janvier 2016 à partir de 9h30

[Castelnau-le-Lez] Section GNU/Linux - Le mardi 19 janvier 2016 de 10h00 à 12h00.

Rendez-vous hebdomadaire, tous les mardis, salle 38 de la mjc (hors vacances scolaires).
L’équipe de Montpel’libre vous propose une permanence de dépannages pour vous aider à vous familiariser avec votre système GNU/Linux au quotidien.
Le contenu de l’atelier s’adapte aux problèmes des personnes présentes et permet ainsi d’adapter l’acquisition de nouvelles compétences au rythme de chacun.

[Castelnau-le-Lez] Atelier de développement et programmation - Le mardi 19 janvier 2016 de 10h00 à 12h00.

Rendez-vous hebdomadaire, tous les mardis, salle 40 de la mjc (fermé pendant les vacances).
Cet atelier de développement est essentiellement axé sur les langages du Web : html, css (même si ce ne sont pas des langages à proprement parler) javascript et PHP, possibilité aussi d’utiliser Ajax, Jquery, Sqlite et MySql.
Notre équipe vous attend pour répondre à vos questions et satisfaire votre curiosité.

[Montpellier] Cartopartie participative accessibilité des personnes à mobilité réduite - Le mardi 19 janvier 2016 de 13h00 à 14h00.

Nous vous donnons rendez-vous au Lycée Nevers de Montpellier lundi 4 et mercredi 6 janvier 2016 pour cette nouvelle action citoyenne et solidaire, pour participer à ces deux cartoparties sur le thème de l’accessibilité des commerces et ERP par les personnes à mobilité réduite, que nous présenterons dans le cadre de l’Éducation Morale et Citoyenne. Lors de cette journée, nous relèverons les données essentielles aux déplacements des personnes à mobilité réduite.
Outre le relevé de points d’intérêts, grâce à notre réseau important de partenaires, nous serons également en mesure de vous indiquer les démarches à suivre pour entreprendre des travaux afin de rendre votre commerce accessible, s’il ne l’est pas déjà, nous pourrons également vous orienter vers nos experts pour établir votre agenda d’accessibilité programmée qui permet de se mettre en conformité et surtout d’ouvrir à tous son établissement.
Nos nombreux partenaires nous soutiendront encore une fois, pour cette nouvelle journée, en nous apportant leurs expertises. Ils contribuent ainsi à donner plus de pertinence à nos relevés, il s’agit entre autre de 3GRT, 3Liz, Access’Cible, Annonces Vertes, APF34, APRIL, Autour.com, Cowork’in Montpellier, Divergence FM, French Tech, Groupe OSM Montpellier, Hactions, Handicap34, La Fabrique, Languedoc Accessibilité, Maison des Biens Communs, Mandarine, Mohicans, Modulaweb, Montpellier (ville), Montpellier Territoire Numérique, OSM France et la Pharmacie Saint-Paul.

[Paris] Vie privée et internet - Le mardi 19 janvier 2016 de 19h00 à 21h00.

REPRENEZ LE CONTRÔLE DE VOTRE VIE PRIVÉE SUR INTERNET
L’explosion des usages d’internet rend son utilisation indispensable dans notre vie professionnelle et personnelle, les avantages sont légions mais il existe aussi des risques notamment vis à vis du respect de la vie privée mis à mal par les réseaux sociaux, les moteurs de recherche et la publicité.
Pour lutter contre ces risques Silex Labs vous propose une Conférence / Atelier pour vous aider à reprendre le contrôle de votre Vie Privée sur Internet.

[Grenoble] SnowCamp - Du mercredi 20 janvier 2016 à 08h30 au samedi 23 janvier 2016 à 18h30.

Dans l'esprit des conférences qui fleurissent un peu partout en France (Mix-IT à Lyon, Breizhcamp à Rennes, Soft-Shake à Genève, RivieraDev à Nice, Bdx.io à Bordeaux, …), celui-ci réunira 250 développeurs et développeuses autour de l'innovation et du développement (Web, Mobile, Java, Cloud, IoT, … ) durant une conférence sur deux jours les 21 et 22 Janvier à Grenoble, suivie d’une “unconference” au ski le 23.
Cette conférence technique cible les développeurs et les chercheurs, en les mélangeant pour laisser émerger l'innovation. Durant la session plénière, nous aurons des présentations éclair (de 5 minutes) au cours desquelles chercheurs, ingénieurs et doctorants présenteront leurs sujets de recherche.
Depuis les débuts de l’électricité, Grenoble a toujours été un vivier d’innovation et d’excellence : des laboratoires et des industries de pointe y sont installés, elle a été classée 5e ville la plus innovante au monde par le magazine Forbes et est maintenant labellisée “French Tech”. Ici, l'innovation technique a trouvé ses racines dans les montagnes environnantes. C'est pourquoi le SnowCamp proposera suite à la conférence une journée "unconference" en altitude, sur les pistes de ski, lors de laquelle les participants pourront continuer à échanger de façon plus informelle et détendue, dans un cadre exceptionnel propice à la créativité.

[Toulouse] Rencontre Logiciels Libres - Le mercredi 20 janvier 2016 de 19h30 à 22h30.

L'association Toulibre organise une rencontre autour des Logiciels Libres le mercredi 20 janvier, de 19h30 à 22h30 au Centre Culturel Bellegarde, 17 rue Bellegarde à Toulouse.
Pendant toute la soirée, venez poser vos questions au sujet du Logiciel Libre et trouver de l'aide pour installer ou utiliser des Logiciels Libres sur votre ordinateur.
Pour cela, vous pouvez si besoin apporter votre ordinateur, un accès Internet est disponible sur place.

[Mauguio] Infolibres - Le jeudi 21 janvier 2016 de 17h00 à 19h00.

Rendez-vous salle de formation informatique de la médiathèque.
L’équipe de Montpel’libre vous propose une permanence de dépannages pour vous aider à apprivoiser votre système GNU/Linux au quotidien. Le contenu de l’atelier s’adapte aux problèmes des personnes présentes.
Vous pourrez y aborder entre autre :

[Martigues] Le traitement de l’image : Gimp - Le jeudi 21 janvier 2016 de 18h00 à 19h30.

L’association ULLM (les Utillisateurs de Logiciels Libres du Pays Martégal) en collaboration avec ECM vous présente le programme de ses ateliers du première trimètre 2016.
Le jeudi 21 janvier de 18h00 à 19h30
Le traitement de la photo avec Gimp.

[Paris] Soirée de Contribution au Libre - Le jeudi 21 janvier 2016 de 19h30 à 23h00.

Parinux propose aux utilisateurs de logiciels libres de se réunir régulièrement afin de contribuer à des projets libres. En effet, un logiciel libre est souvent porté par une communauté de bénévoles et dépend d'eux pour que le logiciel évolue.
Nous nous réunissons donc tous les jeudis soirs dans un environnement propice au travail (pas de facebook, pas de télé, pas de jeux vidéos, pas de zombies)).
Vous aurez très probablement besoin d'un ordinateur portable, mais électricité et réseau fournis.

[Lunel] Permanences « À la carte » Logiciels Libres & GNU/Linux - Le vendredi 22 janvier 2016 de 11h00 à 12h00.

L’intérêt de cette présence est d’avoir une information autour des postes Linux que nous avons installé à la médiathèque pour expliquer ce qu’est GNU/Linux et introduire les ateliers que nous animons à la médiathèque.
Une question sur l’informatique avec un environnement GNU/Linux ou sur tablette ?
Une aide sur les logiciels libres ?

[Montpellier] Permanence Les logiciels libres parlons-en ! - Le vendredi 22 janvier 2016 de 17h00 à 19h00.

Le Faubourg Marché, qu’est-ce que c’est ?
Le Faubourg Marché est une permanence partagée qui permet aux associations d’accueillir ensemble, les publics de ces associations une fois par semaine, le vendredi entre 17h00 et 19h00 (ou au delà sous réserve d’accord préalable), au 19, rue du Faubourg de Nîmes, 34000 Montpellier.
Si vous avez un peu de temps le vendredi soir, voici une occupation qui me semble très intéressante et si vous êtes intéressés par la promotion des logiciels libres, des biens communs, de l’accessibilité, de l’économie sociale et solidaire, de l’innovation sociale et numérique, de l’éducation populaire, ou encore du développement durable.

[Lille] Atélili «Install Party + Bidouille libre» - Le vendredi 22 janvier 2016 de 18h30 à 21h00.

Atélili (Ateliers d'informatique libre) redémarre pour cette nouvelle année avec un septième atelier !
L'association CLX, avec le soutien de l'association Chtinux, vous propose une install party pour les personnes qui souhaitent migrer vers les logiciels libres, ou apprendre à réparer leur distribution Linux.
En parallèle, si des personnes sont déjà au point sur ces questions et souhaitent découvrir ou partager des questions plus pointues (par exemple sur des thèmes déjà présentés aux atélilis), vous êtes les bienvenus.

[Parthenay] install party GEBULL - Le samedi 23 janvier 2016 de 09h00 à 12h00.

L'association Gebull organise une install party sur Parthenay, le but étant d'aider ceux qui le veulent à installer un système GNU/Linux sur leurs ordinateurs ou simplement en apprendre plus sur le logiciel libre.
Pour les installations, pensez à réserver via le formulaire de contact du site: http://gebull.org/contactez-nous/

[Limoges] Install Party Alternatives87 - Le samedi 23 janvier 2016 de 09h00 à 13h00.

Petits déjeuners du Libre – Install Party #1
Alternatives87 vous propose, dans le cadre des Petits Déjeuners du Libre, une Install Party, le Samedi 23 janvier de 9h à 13h dans les locaux du Fablab LCube à Limoges, en accès libre.
Si vous avez envie d’essayer un système d’exploitation entièrement libre, mais que vous n’avez pas encore osé franchir le pas, c’est le moment ! Nous vous aiderons à installer un système GNU/Linux en parallèle (ou à la place) de votre système d’exploitation actuel. Nous vous donnerons également les bases nécessaires pour bien démarrer avec de tels systèmes.

[La Riche] Ubuntu Party - Le samedi 23 janvier 2016 de 10h00 à 18h00.

Tout au long de la journée de 10h à 18h
 Les stands des associations Ubuntu-fr, Mozilla Firefox, La quadrature du net, l’APRIL, La ruche aux savoirs, le Fun Lab de Tours, l’Adeti et découverte d’Ubuntu sur des ordinateurs en libre accès / salle polyvalente Installation Ubuntu (fin : 17h00) - Installation des distributions ubuntu Unity et Mate / salle équateur Jeux à destination des plus jeunes, distribution Edubuntu / salle Eclair ludothèque
Aussi des ateliers: « Traitement de l’image sous ubuntu », « Modélisation 3D avec Blender », « Carte mondiale libre Open Street Map, une alternative à Google Maps », « Découverte du Raspery Pi et de l’Arduino (domotique, robotique…) »

[Illkirch-Graffenstaden] Contribuer à Vikidia - Le samedi 23 janvier 2016 de 14h00 à 17h00.

L@ppli (animations multimédia) inaugure sa nouvelle saison à la médiathèque Sud d’Illkirch-Graffenstaden :
Samedi 23 janvier / 14h-17h
Parents & enfants sur le Web : contribuer à l’encyclopédie enfants Vikidia

[Rouen] Journée mensuelle du Logiciel Libre - Le samedi 23 janvier 2016 de 14h00 à 18h00.

Le samedi 23 Janvier 2016, nous organisons notre Journée Mensuelle du Logiciel Libre à la Maison St Sever à Rouen (Centre Commercial St Sever, 10-12 rue Saint-Julien 76100 Rouen) de 14h00 à 18h00. Rouen, Haute-Normandie.
Nous distribuerons gracieusement des DVDs openSUSE 32/64 Bits à nos visiteurs dans la limite du stock disponible.
Si vous avez une clé USB de 8 GO ou plus, veuillez nous l’apporter, nous la chargerons de goodies.

[Rennes] Atelier graphisme - Le samedi 23 janvier 2016 de 14h00 à 18h00.

L'association Actux organise un atelier graphisme, le samedi 23 janvier de 14h à 18h, au 18 Square de la Rance à Rennes.
Le thème sera la sexualité fantasmagorique des mascottes de projets, ou bien (au choix des artistes) une affiche à plusieurs mains pour le prochain événement Actux.Si vous avez d'autres excellentes idées, elle sont les bienvenues ;)
Chaque participant sera libre de choisir le logiciel avec lequel il dessine. Que vous soyez adepte d'Inkscape, GIMP, MyPaint, Krita ou autres logiciels de graphisme, vous êtes encouragés à venir ajouter votre touche au projt. Rien n'interdit de venir avec ses crayons et de dessiner sur papier.

[Caen] Libre Samedi GIMP - Le samedi 23 janvier 2016 de 14h00 à 17h00.

Le Libre Samedi CaLviX du 23 janvier 2016 aura pour thème “GIMP II : Réalisation d'une affiche”. Il se déroulera de 14h à 17h à Tandem.
Cet atelier est le second d’une série sur GIMP (GNU Image Manipulation Program), un logiciel de dessin matriciel libre et gratuit que l’on ne présente plus.
Lors de cette séance, Alain animera la réalisation d’une affiche, présentant ainsi de manière concrète les techniques, outils et filtres avancés.

[Martigues] Les samedis du Libre - Le samedi 23 janvier 2016 de 14h30 à 17h30.

L’association ULLM (les Utillisateurs de Logiciels Libres du Pays Martégal) en collaboration avec ECM vous présente le programme des samedis du libre du première trimètre 2016.
Le samedi 23 janvier de 14h30 à17h30
La bibliobox :

Télécharger ce contenu au format Epub

Lire les commentaires

Appel à contributions : 17èmes Journées du Logiciel Libre (JDLL) à Lyon Les 2 et 3 avril 2016

Samedi 16 Janvier
JDLL 2016 - Appel à contributions : Créativité, Citoyenneté, Diversité

Créativité, Citoyenneté, Diversité : Le logiciel libre, du code, mais pas que !

Fort du succès des précédentes éditions, nous avons le plaisir d'annoncer la 17e édition des Journées du Logiciel Libre (JDLL) ces 2 et 3 avril 2016 à Lyon. Le comité d'organisation des JDLL, la Maison Pour Tous, Salle des Rancy et l'Association Lyonnaise pour le Développement de l'Informatique Libre (ALDIL) vous proposent un temps de partage où tous les publics, curieux, amateurs et passionnés, se rencontrent.
Vous êtes libriste et utilisatrice⋅teur, développeuse⋅eur, créatrice⋅teur, joueuse⋅eur, bricoleuse⋅eur, artiste ? Vous souhaitez faire découvrir et partager vos plaisirs et petits bonheurs numériques ? Alors ce message vous concerne !

Thème(-s) 2016

Le thème de cette année est : "Créativité, Citoyenneté, Diversité : le logiciel libre, du code, mais pas que !"
Sur le week-end, nous vous proposons d'intervenir pour échanger sur les domaines suivants :

  • Diversité (diversité du numérique libre, diversité des publics) et accessibilité
  • Engagement (parce que parler politique aux JDLL, c'est possible !)
  • Biens communs et Open Data
  • Reconditionnement, recyclage, éviter l'obsolescence programmée (ou pas)
Participation, mode d'emploi :

Profitez de cet événement pour découvrir et échanger avec de nombreux participants. L'année précédente, grâce à vous, les JDLL ont accueilli plus de 1800 personnes sur les deux journées. Intéressés pour nous aider à réitérer l'exploit ? Les JdLL reçoivent des publics variés, n'hésitez pas faire des propositions pour les enfants, les adultes, les seniors, les associations, les entreprises, les collectivités territoriales, les novices comme les experts (et les licornes).

Participer aux JDLL c'est facile et ouvert à tous ! Nous faisons appel à vous pour alimenter le programme avec vos projets, connaissances, expériences et engagements.

Nous vous proposons 5 types de contributions :

  1. Stand au sein du village associatif
  2. Conférence de 20 ou 40 minutes suivie d’un échange (débats, tables rondes)
  3. Atelier de 45 minutes ou 1h15
  4. Démonstrations et présentations (logiciels, projets libres, DIY…)
  5. Animations ouvertes

Vous pouvez combiner plusieurs types de contributions, n'hésitez pas à être nombreux pour assurer la présence de votre collectif sur toutes les activités (par exemple une démo, une conférence suivie d’un atelier, un stand).
Faites nous parvenir vos propositions de participation via le formulaire. Les propositions sont à envoyer jusqu’au 4 février 2016, afin de nous permettre de préparer au mieux le planning. Un message de confirmation vous sera envoyé.

Partage et informations complémentaires

Et bien sûr, n’hésitez pas à partager cet appel auprès de vos canaux respectifs :-)

Les outils de communication (bannières, logos…) sont à votre disposition pour participer à la promotion de l’événement : http://www.jdll.org/pratique/medias/

Pour obtenir plus d'informations, vous pouvez vous rendre sur le site des Journées du Logiciel Libre : http://jdll.org/

N'oubliez pas que nous sommes disponibles pour toute question : jdll@jdll.org

Dans l'attente de vos réponses, et bien sûr, librement,

Le comité d'organisation des JDLL 2016.

Télécharger ce contenu au format Epub

Lire les commentaires

Pydza : jeu libre cherche âme seule

Vendredi 15 Janvier

Pydza est un jeu 2D (2 dimensions) libre de plateforme de type Mario. Pydza est développé en Python avec Pygame. Doté de graphismes soignés, il est de plus multi-plateformes et multilingue. Au gré de votre aventure, vous parcourez un monde peuplé d’ingrédients de pizza, écrasant des tomates sur pattes et attrapant des parts de pizza (source Framasoft).
Ce jeu a été développé dans le cadre d'un projet tutoré de première année de DUT Informatique, à l'IUT d'Orsay, université Paris-Sud (Paris XI) en 2006. Les auteurs sont : Rémy Coutable, Alban Feron et Margueritte Pierre-Elie aidés de leur professeur M. Éric Petitjean.
Le jeu n'a plus d'activité depuis 2008 et le site officiel a disparu. Il ne reste que la première version sur sourceforge(http://pydza.sourceforge.net/). Nous voici donc, encore devant un jeu libre abandonné. Mais comme nous disposons des codes sources (du moins jusqu'à la version 1.15) il peut être repris par qui en a envie.

L'association LanPower met à disposition sur son site une version 2.2 de 2008 avec installeur créé par l'association à partir du fichier zip récupéré avant la fermeture du site officiel. La licence est la GPLV3. Cependant, le jeu n'est pas totalement libre au sens strict du terme puisque les musiques de Steve Allen sont sous licence CC by-nc-sa 3.0 (on notera de plus la présence de MSVCR71 pour la version Windows).

Télécharger ce contenu au format Epub

Lire les commentaires

Sondages sur les serveurs web Netcraft et SecuritySpace de décembre 2015

Vendredi 15 Janvier

Netcraft est un site web connu pour sa réalisation de sondages sur le logiciel utilisé par les serveurs web sur Internet, ainsi que pour la détection (et l'historique) de ces mêmes logiciels sur requête de ses visiteurs.

Chaque mois, Netcraft publie le résultat de son sondage. Le sondage du mois de décembre est donc disponible, et la deuxième partie de dépêche vous propose un commentaire de ce sondage.

Security Space publie aussi un sondage chaque mois sur les serveurs web (qui aurait besoin d'un peu de toilettage ceci dit).

Sondage Netcraft

Il faut d'abord noter que ce sondage de "popularité des serveurs web" ne peut être considéré comme exhaustif, mais avec un panel de plus de 901 millions de noms d'hôtes sondés il peut être considéré comme raisonnablement représentatif.

Sans surprise, Apache HTTP Server reste le serveur web le plus utilisé du sondage (50% des sites actifs, 37% des sites en général), talonné par Nginx (16% des sites actifs, 17% en général). Microsoft IIS ferme le podium avec presque 10% d'utilisation active (27% des sites en général). Tendanciellement, Nginx et IIS sont plutôt en croissance et Apache HTTP Server plutôt en décroissance.

Alors quoi, rien n'a changé depuis juillet 2012 ? Est-ce que ce classement a encore de l'intérêt ? En fait, au-delà de la progression de Nginx, on peut souligner que le total des serveurs non-mentionnés dépasse celui qui ferme le podium : il y a donc une certaine variété de serveurs web utilisés.

Au final, il est dommage que Netcraft se contente d'afficher seulement certains grands noms, même lorsqu'ils ne signifient plus rien, comme Sun.

Sondage Security Space

Security Space donne un peu plus d'infos sur les serveurs HTTPS rencontrés (nom plus précis et parfois version utilisée pour ceux qui l'annoncent).

On peut aussi :

  • observer que 27% des serveurs annoncent encore du SSLv3 (pourtant obsolète depuis 2014 avec la faille POODLE et enterré en juin 2015 par la RFC 7568) ;
  • noter la présence persistante de Flash sur 6% des sites et la disparition des applets et webstart Java à 0,11% ;
  • constater le fait que 39% des sites visités utilisent des cookies (quasi systématiquement pour toutes les URL du site, et pour tout un sous-domaine dans 12,7% des cas) ;
  • apprendre que seulement 8% des sites utilisent de la répartition de charge DNS en ayant plusieurs IP ;
  • signaler que les serveurs de courriel associés aux domaines web visités sont Exim (53%) et Postfix (32%), tous deux en hausse ;
  • s'émerveiller que les 4 plus grosses autorités de certification contrôlent plus de 63% des certificats recensés ;
  • épiloguer sur le fait qu'Apache HTTP Server tourne principalement sur CentOS, Debian, Ubuntu, voire parfois Red Hat ou FreeBSD.
Télécharger ce contenu au format Epub

Lire les commentaires

PacketFence 5.6 est disponible

Jeudi 14 Janvier

Inverse a annoncé le 13 janvier 2016 la sortie de la version 5.6 de PacketFence, une solution de conformité réseau (NAC) entièrement libre (GPL v2), supportée et reconnue. PacketFence dispose de nombreuses fonctionnalités, comme un portail captif pour l'enregistrement ou la remédiation, une gestion centralisée des réseaux filaire et sans fil, la prise en charge du 802.1X, l'isolation niveau 2 des composantes problématiques, l'intégration au détecteur d'intrusions Snort et au détecteur de vulnérabilités Nessus. Cette solution peut être utilisée pour sécuriser efficacement aussi bien des réseaux de petite taille que de très grands réseaux hétérogènes.

La version 5.6 de PacketFence apporte de nombreuses améliorations telles qu'un module d'audit RADIUS permettant la traçabilité des événements sur le réseau, le regroupement des commutateurs pour leur appliquer une configuration commune, ou encore les filtres DHCP permettant d'effecteur des actions basées sur les empreintes numériques d'un appareil.

PacketFence possède un grand nombre de fonctionnalités. Parmi celles-ci, on retrouve :

  • l'enregistrement des composantes réseau grâce à un puissant portail captif ;
  • le blocage automatique, si souhaité, des appareils indésirables tels les Apple iPod, Sony PlayStation, bornes sans fil et plus encore ;
  • l'enrayement de la propagation de vers et virus informatiques ;
  • le freinage des attaques sur vos serveurs ou diverses composantes réseaux ;
  • la vérification de la conformité des postes présents sur le réseau (logiciels installés, configurations particulières, etc.) ;
  • la gestion simple et efficace des invités se connectant sur votre réseau ;
  • des sources d'authentification variées, incluant Facebook et Google.

PacketFence est une solution non-intrusive qui fonctionne avec une multitude d'équipements réseaux (filaire ou sans fil) tels ceux de 3Com, AeroHIVE, Allied Telesis, Aruba, BelAir/Ericsson, Brocade, Cisco, Dell/Force10, Enterasys, ExtremeNetworks, Extricom, Hewlett-Packard/H3C, Huawei, Intel, Juniper Networks/Trapeze, LG-Ericsson US, Meru Networks, Motorola, Netgear, Nortel/Avaya, Ruckus, Xirrus et plus encore.

Télécharger ce contenu au format Epub

Lire les commentaires

3ème édition d’AgoraCMS – Vendredi 1er avril 2016 - Paris - Ouverture de l’appel à communications

Jeudi 14 Janvier

Présent depuis 3 ans dans l’agenda des événements du numérique, AgoraCMS est un événement professionnel indépendant consacré aux outils de gestion de contenus (CMS). En complément des nombreux événements techniques, AgoraCMS se positionne comme un événement résolument tourné vers les décideurs : chefs de projet, DSI, directions de communication et autres profils moins techniques.

Rassemblant les différents acteurs de la profession au cours d’une journée complète de conférences, ateliers, tables rondes et démos, orientés vers les CMS et le monde numérique, AgoraCMS est la vitrine du dynamisme français dans cet univers complexe et le reflet de l’expertise des sociétés partenaires.

L'évènement prévoit plus de 350 participants.

Ouverture de l’appel à communications

Au programme, de nombreux retours d'expériences, tables rondes, conférences pratiques et ateliers seront proposés pour optimiser la gestion de contenus dans les entreprises.
Avec comme thématique phare « les CMS dans un contexte métier », les conférences et tables rondes auront toutes pour objectif de présenter les outils et méthodes qui existent pour accroître l'efficacité et la qualité des projets numériques.

Événement s’adressant aussi bien aux DSI, aux chefs de projets techniques, qu’aux directions de la communication et chefs de projets Web, le programme des conférences a la particularité de couvrir un large spectre de problématiques :

  • choisir son outil de gestion de contenu Web (CMS) et l'utilisation d'un CMS dans un contexte métier ;
  • développer son trafic et améliorer ses taux de conversions ;
  • les tendances 2016 du marketing Web appliquées aux CMS ;
  • la mobilité avec un CMS : applications, responsive Web, sites mobiles ;
  • UX et ergonomie utilisateur ;
  • l'intégration du CMS dans le SI ;
  • améliorer la performance et la sécurité de ses applications Web ;
  • les méthodes de développement.

De nombreux retours d’expériences viendront compléter les présentations.

Pour soumettre votre sujet de conférence, enregistrez directement votre proposition sur : http://www.agoracms.com/appel-a-communication

Attention : la date limite de rendu des sujets est fixée au 12 février 2016 à minuit !

Le comité de programme
  • Cyril PIERRE de GEYER, Directeur des Executive MBA à l'Epitech, ISG+EPITA et Directeur de l'organisme de formation chez Openska ;
  • Marine SOROKO, Directrice Associée de Core-Techs ;
  • Nicolas SILBERMAN - CTO et cofondateur de ThankYouMotion ;
  • Frédéric AATZ, Directeur de la Stratégie Interopérabilité & Open Source chez Microsoft ;
  • Maxime TOPOLOV, co-fondateur et CTO d'Adyax ;
  • Christophe CARNET, Directeur de projets et Responsable Qualité, RSSI chez AlterWay ;
  • Frédéric HOVART, Directeur Commercial de GLOBALIS ;
  • Christophe VILLENEUVE, Consultant IT et Community Manager chez Neuros.
Informations complémentaires Date et lieu

AgoraCMS se tient à la Maison des Associations de Solidarité (MAS) à Paris dans le 13ème arrondissement, le vendredi 1er avril 2016 de 9h à 18h.

MAS PARIS - 10/18 rue des Terres au Curé - 75013 PARIS

Accès

L'entrée est gratuite, mais l'évènement réservé aux professionnels.
L'inscription est obligatoire, et s'effectue sur le site d'AgoraCMS.

Télécharger ce contenu au format Epub

Lire les commentaires

Le retour de la Méthode R.A.C.H.E

Mercredi 13 Janvier

Il y a plus de 10 ans maintenant, en lisant le journal d'un certain mmh, je découvrais la Méthode R.A.C.H.E de l’International Institute of La RACHE. Il ne s'est pas passé une année depuis sans qu'un collègue ou moi-même y fasse allusion face à un projet à l'issue incertaine. Malheureusement, le domaine n'a pas été renouvelé en 2013 par le propriétaire, et un site parking plein de liens moisis y a pris place.

Malgré la déception, j'ai finalement réussi à racheter le domaine et à le remettre en route…

Le site actuel

Le site est maintenant hébergé sur une page GitHub, peut être forké et est ouvert à toutes les contributions.

Le but de cette réouverture est de faire perdurer cette note d'humour et de continuer à rire des métiers de l'informatique.

Je n'ai aucune idée de l’identité de l'auteur originel de cette page ni de la licence qu'il aurait souhaité pour ce contenu.

Le contenu déposé sur GitHub est par défaut sous licence CC-BY-4.0.

Contribuer au site web la-rache.com Installation de l'environnement de travail
  • forkez le projet : https://github.com/la-rache/la-rache.com ;
  • clonez votre fork : git clone https://github.com/<votre_user_github>/la-rache.com.git ;
  • allez dans le répertoire de travail : cd la-rache.com ;
  • installez NPM apt-get install npm ;
  • installez les dépendances : npm install.
Modification des sources
  • éditez le début de page et le pied de page dans src/parts ;
  • éditez les corps des pages dans src/*.html ;
  • éditez les images dans src/img ;
  • éditez les css dans src/css ;
  • éditez les js dans src/js.
Génération du code HTML
  • ./node_modules/grunt-cli/bin/grunt.
Visualisation du code
  • Ouvrez build/index.html avec votre navigateur préféré.
Partage de vos modifications
  • si vous avez ajouté de nouveaux fichiers : git add <fichier> ;
  • commentez vos modifications : git commit -am "<votre commentaire sur vos modifications" ;
  • poussez les dans votre repo git push ;
  • depuis votre espace GitHub, faites un merge request.
Télécharger ce contenu au format Epub

Lire les commentaires

Revue de presse de l'April pour la semaine 1 de l'année 2016

Mardi 12 Janvier

La revue de presse de l'April est régulièrement éditée par les membres de l'association. Elle couvre l'actualité de la presse en ligne, liée au logiciel libre. Il s'agit donc d'une sélection d'articles de presse et non de prises de position de l'association de promotion et de défense du logiciel libre.

Sommaire

[Le Point] Brighelli - L'école vendue (pas cher) à Microsoft

Par Jean-Paul Brighelli, le vendredi 8 janvier 2016. Extrait:

Sans le moindre appel d'offres, Microsoft vient de s'offrir 850 000 enseignants et plus de 12 millions d'élèves. "Une affaire!" juge Brighelli.

Lien vers l'article original: http://www.lepoint.fr/invites-du-point/jean-paul-brighelli/brighelli-l-ecole-vendue-pas-cher-a-microsoft-08-01-2016-2008088_1886.php

Voir aussi:

[Le Monde.fr] Le gouvernement néerlandais défend le chiffrement des données

Par Morgane Tual, le jeudi 7 janvier 2016. Extrait:

A contre-courant, le ministre de la sécurité et de la justice affirme, dans un texte officiel, que le chiffrement protège les citoyens, les entreprises et le gouvernement.

Lien vers l'article original: http://www.lemonde.fr/pixels/article/2016/01/07/le-gouvernement-neerlandais-defend-le-chiffrement-des-donnees_4842993_4408996.html

[ZDNet France] Linux et l'open source ont gagné, acceptez-le

Par Steven J. Vaughan-Nichols, le lundi 4 janvier 2016. Extrait:

2015 a été l'année durant laquelle Linux et le logiciel Open Source ont pris le pouvoir dans le monde de l'IT. Mais de nombreux fans du logiciel open source et propriétaires n'en ont toujours pas pris conscience.

Lien vers l'article original: http://www.zdnet.fr/actualites/linux-et-l-open-source-ont-gagne-acceptez-le-39830530.htm

[Techniques de l'Ingénieur] Coup de pouce de l’État en faveur de l’Open Source

Par la rédaction, le vendredi 8 janvier 2016. Extrait:

Quelques semaines après sa validation, les administrations peuvent consulter la version 2016 du socle interministériel des logiciels libres (SILL) afin de découvrir et utiliser les quelque 100 logiciels Open Source recommandés par l’État.

Lien vers l'article original: http://www.techniques-ingenieur.fr/actualite/articles/coup-de-pouce-de-letat-en-faveur-de-lopen-source-31088

Et aussi:

Voir aussi:

[Nouvelles de France Portail] Libertés numériques: sortir de l’idéologie totalitaire dominante et avoir une vrai volonté politique

Par Barbara Mazières, le jeudi 7 janvier 2016. Extrait:

Les mesures que souhaite prendre le ministère de l’Intérieur soi-disant pour la sécurité sur internet sont, une nouvelle fois, des mesures contraires à la défense de nos liberté : coupure obligatoire de tout réseau Wi-Fi ouvert (mesure abandonnée pour l’instant? mais il faut rester vigilant), menace et censure des sites, blocage des réseaux d’anonymisation et fourniture des clés de chiffrement des messageries font partie des pistes soumises à arbitrage.

Lien vers l'article original: http://www.ndf.fr/poing-de-vue/07-01-2016/78030

[L'Atelier] «Les villes ne se rendent pas compte du potentiel du citoyen-entrepreneur»

Par Aurore Geraud, le mercredi 6 janvier 2016. Extrait:

Rencontre avec le chercheur américain Boyd Cohen, sur sa vision de l'évolution du profil de l'entrepreneur à l'origine de la smart city de demain.

Lien vers l'article original: http://www.atelier.net/trends/articles/villes-ne-se-rendent-compte-potentiel-citoyen-entrepreneur_439456

Télécharger ce contenu au format Epub

Lire les commentaires

pkgsrc 2015Q4

Lundi 11 Janvier

Dans un message à des listes de diffusion pkgsrc et NetBSD, Jonathan Perkin a annoncé la disponibilité de la branche pkgsrc-2015Q4. Pkgsrc (prononcer package source) est une infrastructure de construction de logiciels tiers pour NetBSD, ainsi que pour d’autres systèmes de type UNIX. Il permet donc à NetBSD, mais aussi à GNU/Linux, SmartOS, Minix, OS X et de nombreux autres systèmes d’exploitation de disposer de nombreux logiciels sous forme source, mais aussi sous forme binaire.

Les développeurs pkgsrc fournissent une nouvelle version stable chaque trimestre. Comme son nom l’indique, pkgsrc 2015Q4 est donc la quatrième (et dernière) de l'année 2015 et est disponible depuis le premier janvier 2016.

Plus de détails sur cette version en particulier en seconde partie de dépêche, qui reprend grandement le courriel d'annonce.

Si vous ne connaissez toujours pas pkgsrc

À force de publier des dépêches sur le sujet (suivez le tag pkgsrc), espérons que vous commencez à connaître la chanson : pkgsrc, c'est le système de paquets logiciels pour NetBSD, issu d'un fork en 1997 de celui de FreeBSD. Nos amis au drapeau orange étant adeptes de la portabilité, il est logique que leur système de paquets puisse fonctionner ailleurs et compte toujours plus d'une vingtaine de plateformes compatibles, allant des systèmes BSD à Windows (grâce à Cygwin/Interix/Services For Unix) en passant par GNU/Linux, OS X et Solaris.

Pour être plus concret sur la portabilité de pkgsrc, certaines personnes maintiennent des dépôts de paquets binaires en dehors de ceux pour NetBSD. Ainsi, le dépôt de la société Joyent contient des ensembles de paquets pour SmartOS, GNU/Linux (CentOS & RHEL 6) mais aussi OS X. Pour cette plateforme, signalons aussi la présence du projet Save OS X, qui propose toujours articles et courtes vidéos introduisant pkgsrc pour le système à la pomme, en plus du nécessaire de bootstrap.

Enfin, ces initiatives ne sauraient être couronnées de succès sans pkgin, gestionnaire de paquets créé par iMil, actuellement en version 0.9.3.

Les chiffres du trimestre

Ce trimestre ne dispose plus de chiffres précis sur la quantité de paquets disponibles selon la plateforme, mais simplement des ordres d'idée :

  • plus de 16000 paquets pour NetBSD-current amd64 avec clang ;
  • plus de 14000 paquets pour FreeBSD amd64 avec clang ;
  • plus de 14000 paquets pour SmartOS i386/x86_64 avec gcc ;
  • plus de 13000 paquets pour Linux i386/x86_64 avec gcc ;
  • plus de 12000 paquets pour OpenBSD amd64 avec gcc ;
  • plus de 12000 paquets pour OS X El Capitan x86_64 avec clang ;
  • plus de 11000 paquets pour DragonFly 4.5 amd64 avec gcc ;
  • plus de 10000 paquets pour Bitrig amd64 avec clang.

Néanmoins le nombre total de paquets possibles reste disponible : 16846 contre 16764 au troisième trimestre.

Si ce genre de statistiques vous intéresse, il est possible de visiter le BulkTracker, qui recense des résultats de bulk builds, les compilations massives de paquets.

Ce trimestre, en termes de modifications, il y a eu :

  • 172 paquets ajoutés (225 le trimestre précédent) ;
  • 58 paquets retirés, dont 7 avec un successeur (27 et 8 au trimestre précédent) ;
  • 1185 paquets mis à jour (1392 au trimestre précédent) ;
  • 1 paquet a été renommé (1 au trimestre précédent).
Les changements

Commençons par la désormais habituelle campagne de nettoyage dont le but est de supprimer ce qui est obsolète, ou non utilisé. Nous voyons donc partir la branche 5.4 de PHP ainsi que la branche 1.9.3 de ruby, qui ont passé leur fin de vie.

Du côté des nouveautés, saluons l'arrivée rapide de la branche 7 de PHP ! PHP étant activement maintenue côté pkgsrc, il est fort probable qu'au moment de l'installation, ce n'est pas PHP 7.0 que vous obtiendrez, mais 7.0.2 ou 7.0.3. Python n'est pas en reste, puisque sa version 3.5 est elle aussi accessible. À noter que les paquets construits avec ces version de PHP et de Python ont pour préfixe, respectivement php70 et py35.

A part ces deux langages, quoi de neuf ?

Sevan Janiyan continue ses améliorations de paquets à travers de nombreuses plateformes, au premier rang desquelles on trouve Bitrig et OpenBSD.

Des changements "d'infrastructure" ont aussi eu lieu ce trimestre, avec l'ajout d'une somme de contrôle SHA512 pour les archives sources des paquets, le retrait de vieux code, et une réécriture de pkglint en go (l'ancienne version, en perl, est toujours accessible sous le nom pkglint4).

Actualités diverses

Il s'agit de la 49e version de pkgsrc. 2016Q1 sera donc la 50e : toutes les suggestions concernant la célébration de cette version sont les bienvenues !

Télécharger ce contenu au format Epub

Lire les commentaires

Red Hat Enterprise Linux 7.2

Lundi 11 Janvier

Red Hat a annoncé, ce 19 novembre 2015, la version 7.2 de Red Hat Enterprise Linux (RHEL), distribution commerciale destinée aux professionnels et aux entreprises.

Pour rappel, RHEL 7 est disponible depuis juin 2014 et apporte de nombreuses nouveautés, comme Docker, systemd et l'utilisation par défaut du système de fichiers XFS. RHEL 6 et 5 sont, malgré tout, encore maintenues par l'éditeur.

Il convient, bien entendu, de ne pas confondre RHEL 7.2 avec Red Hat Linux 7.2 sortie en octobre 2001 ;).

Vous trouverez en deuxième partie de cet article une sélection des changements apportés.

Sommaire Prise en charge du matériel

Une bien maigre mise à jour côté matériel pour démarrer cette version 7.2, puisque Red Hat n'a daigné signaler dans ses notes de version que la prise en charge officielle des cartes OSA-Express5s par l'outil qethqoat, présent dans le paquet s390utils. Pourquoi officielle ? Parce que cela était déjà présent en avant-première technologique dans RHEL 7.1.

En attendant, on peut noter que RHEL 7.2 est maintenant capable de gérer 12 To de mémoire vive sur un système x86_64. La précédente limite était de 6 To.

Installation et démarrage

Anaconda s'améliore en RHEL 7.2, à commencer par la résolution d'un problème réseau dans le cas d'une installation via Kickstart, dans le cas où celui-ci redéfinit la configuration réseau. Maintenant celle-ci est faite très tôt au niveau de l'installation, pour éviter de se retrouver dans le mode « urgence ».

Encore côté Anaconda, celui-ci est maintenant capable de créer des volumes LVM « en cache » et d'installer RHEL dessus, mais uniquement dans des installation via Kickstart.

Jamais deux sans trois, une autre amélioration concerne les actions sur les disques pendant l'installation. Auparavant, Anaconda et Blivet ne revenaient pas correctement sur les actions programmées sur les disques lorsque la sélection changeait, provoquant quelques problèmes. Avec cette mise à jour, Anaconda a été corrigé pour créer un instantané de la configuration de stockage d'origine et y revenir lorsque la sélection de disque change.

On continue sur Anaconda, qui voit arriver l'ajout d'⁠OpenSCAP. Il est donc maintenant possible (et optionnel) de créer une politique de sécurité, sans avoir recours à divers scripts pour la mettre en place. Concrètement, cela veut dire qu'une nouvelle section fait son apparition dans Kickstart ("%addon org_fedora_oscap"), ainsi qu'un nouvel écran dans l'installeur graphique. Le guide d'installation est mis à jour en conséquence. En plus de l'application d'une politique de sécurité, via sélection d'un profil, par exemple, le paquet openscap-scanner sera installé et effectuera un premier test pour s'assurer de la conformité du système installé. Le résultat de ce test sera accessible dans /root/openscap_data.

Pour en finir avec les nouveautés d'Anaconda, signalons que celui-ci n'a plus de timeout dans le cas d'un fichier kickstart présent sur un média optique. Auparavant, l'installeur attendait 30 secondes que l'utilisateur change de CD ou de DVD avant de passer en mode « urgence ». Maintenant, Anaconda affiche un message et attend soit que le fichier soit fourni, soit que le système redémarre.

Laissons Anaconda de côté et passons à GRUB2. Celui-ci souffrait en effet d'un problème dans le tri des noyaux, effectué par la commande grub2-mkconfig. Le résultat ? grub.cfg disposait certes des noyaux installés sur la machine, mais pas forcément dans le bon ordre, ce qui peut empêcher de démarrer sur le noyau le plus récent. Maintenant, GRUB2 utilise le paquet rpmdevtools pour trier les noyaux disponibles et générer correctement un fichier où le noyau le plus récent est listé en haut.

Stockage

Abordons d'abord le stockage par les systèmes de fichiers, dont certains font l'objet d'une mise à jour « d'envergure » :

  • l'outil gfs2-utils passe en version 3.1.8, ne dépend plus de Perl et apporte, entre autres, des améliorations de performances ;
  • ⁠XFS passe en version 4.1 ;
  • CIFS passe en version 3.17.

Outre ces mises à jour, on remarquera que GFS 2 empêche à présent les utilisateurs de dépasser leur quota en essayant de prédire l'augmentation d'espace avant d'effectuer une opération plutôt qu'en vérifiant le quota après celle-ci.

Virtualisation et conteneurs

RHEL 7.2 n'apporte pas de grandes révolutions côté virtualisation, mais quelques petites évolutions toujours appréciables. On commencera par l'exposition de la fonction MPX (Memory Protection Extensions, une fonction présente sur certains processeurs Intel) de l'hôte vers la machine virtuelle.

Une autre nouveauté intéressante est l'ajout d'un script nommé "dump-guest-memory.py". Comme son nom le laisse penser, celui-ci effectue une copie de la mémoire en cas de problème du noyau de la machine virtuelle.

La commande virt-v2v est maintenant pleinement prise en charge par Red Hat. Vous pourrez donc, par exemple, migrer vos machines virtuelles d'un hôte RHEL 5 Xen dom0 vers un RHEL 7 KVM.

Autre amélioration notable, l'arrivée de l'USB 3.0 dans les machines virtuelles, pour le moment en avant-première technologique.

Côté conteneurs, il y a de nombreuses mises à jour de paquets :

  • docker-1.8.2-8.el7 ;
  • flannel-0.5.3-8.el7 ;
  • cockpit-0.77-3.1.el7 ;
  • storaged-2.2.0-3.el7 ;
  • kubernetes-1.0.3-0.2.gitb9a88a7.el7 ;
  • atomic-1.6-6.gitca1e384.el7 ;
  • python-websocket-client-0.32.0-116.el7 ;
  • python-docker-py-1.4.0-118.el7.

Saluons aussi l'arrivée d'un nouveau paquet : docker-distribution. Bien entendu, Red Hat met aussi à jour toutes les images Atomic Host (variante de RHEL 7 optimisée pour les conteneurs Docker) et Docker disponibles.

Réseau

Dans RHEL 7.2, rien de moins que la pile TCP/IP a été mise à jour. Elle est maintenant en version 3.18, et apporte en particulier DCTCP, ainsi que des corrections pour TCP fast open.

De nouvelles API fournies par le noyau, glibc et libpcap permettent d'obtenir un horodatage précis à la nanoseconde. Tcpdump en profite donc aussi, et dispose donc d'options liées à ces nouvelles possibilités, comme par exemple l'option --time-stamp-precision qui permet de modifier la précision de l'horodatage lors de capture de paquets.

NetworkManager dispose lui aussi de son lot d'évolution :

  • son interface avec libreswan a été mise à jour en 1.6, qui appporte plusieurs corrections ;
  • il est possible de paramétrer le MTU d'une interface résultant d'un agrégat (bonding) ;
  • une meilleure gestion des conflits de routage (par exemple deux interfaces ayant la même route) ;
  • une option 'never-default' qui empêche Network Manager de prendre le pas sur les commandes 'ip route add' ;
  • prise en charge de Wake On Lan.

Beaucoup d'autres évolutions sont présentes au sujet des connexions VPN, ainsi que d'autres dont le but est de diminuer le temps de traitement des paquets réseau.

Sécurité

La partie sur l'installation abordait l'intégration d'OpenSCAP à Anaconda. Ce n'était que le début. Celui-ci est maintenant disponible en version 1.2.5, et est accompagné de la version 0.1.25 de sa documentation associée, scap-security-guide. Ces mises à jour permettent de disposer de profils de sécurité actuels et variés, comme un système générique, ou une conformité avec PCI-DSS v3.

SELinux se voit ajouter de nouvelles politiques, qui sont destinées à être utilisées par Red Hat Gluster Storage. En effet, jusqu'à RHEL 7.1, Gluster ne pouvait pas fonctionner lorsque SELinux était en mode Enforcing (sauf à créer soi-même les politiques).

Enfin, il est maintenant possible de désactiver les algorithmes d'échanges de clé GSSAPI, suite à la faille logjam.

Haute-disponibilité

RHEL 7.2 apporte aussi quelques améliorations de ce côté. On appréciera ainsi que systemd et pacemaker s'entendent mieux lors d'un arrêt système. Auparavant, ce manque de coordination provoquait un mauvais arrêt des ressources déclarées dans pacemaker.

Toujours du côté des ressources, les commandes pcs resource move et pcs resource ban affichent maintenant un avertissement afin de clarifier leur comportement. En effet, ces commandes créent des contraintes de localisation qui empêchent une ressource de fonctionner sur une machine donnée, lesquelles ne sont pas toujours claires.

Enfin, dans le cas du fencing, qui permet de cloisonner une ressource indisponible, parfois en effectuant un redémarrage électrique du serveur hébergeant la ressource en question, un correctif permet de redémarrer les deux alimentations d'un système redondé électriquement.

Authentification et interopérabilité

Comme pour RHEL 6.7 et 7.1, ces deux thèmes sont regroupés dans les notes de version. Pour cette version, on remarquera la montée de version d'OpenLDAP, qui passe en version 2.4.0. Au-delà des corrections de bogues, cette version apporte des améliorations, dont l'ajout des règles ORDERING aux descriptions d'attribut policy.

Côté SSSD, il y a plein de choses :

  • un mécanisme de cache est disponible, même en mode en-ligne ;
  • on peut faire correspondre un utilisateur à un UID et GID spécifique ;
  • SSSD peut maintenant interdire un accès SSH à un compte verrouillé ;
  • prise en charge des cartes smart card pour l’authentification locale ;
  • et bien d'autres encore !

NSS n'est pas en reste, avec l'activation de TLS 1.1 et 1.2 par défaut, la prise en compte des certificats ECDSA, ainsi que la possibilité pour les clients OpenLDAP de choisir leur cipher suite par défaut.

Un nouvel utilitaire fait son apparition : ipa-winsync-migrate. Son rôle est de réaliser une migration d'une intégration utilisant WinSync à une intégration utilisant Active Directory. L'utilitaire migre automatiquement les utilisateurs WinSync dans une forêt Active Directory.

Enfin, on soulignera l'arrivée de Ipsilon, un logiciel permettant d'intégrer les protocoles de fédération web comme SAML, OpenID ou Persona. Bien que n'étant présent qu'en avant-première technologique pour le moment, le logiciel est déjà utilisé notamment par le projet Fedora pour offrir une authentification centralisée de type SSO depuis plusieurs mois. De plus en plus de produits SaaS tels que Google Apps ou Office 365 prennent en charge SAML, c'est donc une solution arrivant à point nommé.

Environnement de bureau

Accrochez-vous ! Dans ce thème, il y a du lourd, du très lourd : rien de moins qu'une mise à jour de Gnome. On ne parle pas d'une version corrective, du genre 3e chiffre, mais d'un 2nd. Arrive donc Gnome 3.14, avec en cadeau bonus, quelques ajouts de la version 3.16. Pour mémoire, RHEL 7.0 et 7.1 contenaient Gnome 3.8. Bien entendu, Gnome est accompagné d'une version de GTK+ correspondante.

Ce saut dans les versions de Gnome apporte, entre autres :

  • GNOME Software, bien entendu associé à yum pour installer les logiciels ;
  • le menu "Statut système", regroupant certaines informations systèmes jusqu'alors séparées ;
  • l'affichage d'un menu d'authentification dans le cas d'une connexion à un hot-spot Wi-Fi.
Développement

Démarrons cette dernière partie en abordant la gestion de code source, en particulier l'utilisation de Subversion : il est maintenant compilé avec RELRO (Read-Only RELocation data), ce qui apporte une protection contre des attaques basées sur une corruption de la mémoire. Si des failles de ce type venaient à être découvertes, elles seront(seraient ?) par conséquent plus difficiles à exploiter.

Côté Java, OpenJDK 7 prend maintenant en charge les algorithmes basés sur les courbes elliptiques dans le cas de connexions TLS. Red Hat précise dans ses notes de version que ces algorithmes sont dans la plupart des cas préférables aux anciennes solutions cryptographiques pour créer des connexions réseau sécurisées.

On terminera cette partie en abordant le langage Python, qui se voit lui aussi amélioré d'un point de vue sécurité. Tout d'abord, un certain nombre de fonctionnalités de sécurité sont ajoutées à la bibliothèque standard, lesquelles sont décrites dans le PEP 466. On citera, entre autres, l'apparition de SNI (Server Name Indication), de nouveaux protocoles TLSv1.x, ainsi que de nouveaux algorithmes de hachage dans le module hashlib. Un autre PEP mis en place dans RHEL 7.2 est le 493, qui concerne la vérification certificats SSL/TLS.

Appel à volontaires

Cette dépêche, contrairement à celle sur le noyau, ne mobilise pas de nombreuses personnes lors de sa rédaction, et cela commence à peser sur le moral de votre serviteur (qui avait beaucoup apprécié les apports des 13 contributeurs à la dépêche sur RHEL 7.0) et dont le temps disponible baisse pour celles-ci (alors que l'actualité autour de Red Hat et de certains produits upstream est, au contraire, en hausse : on notera par exemple l'absence de dépêche sur les dernières versions de Katello, ou des avancées de CentOS).

Si vous souhaitez apporter votre pierre à l'édifice, sachez que Red Hat publie plusieurs mois avant une RHEL stable une version bêta, accompagnée de notes de version, généralement assez proches de la version finale (à quelques rares exceptions près). Créer un squelette de dépêche RHEL est simple et généralement réalisé par mes soins dès que j'apprends la disponibilité de la bêta.

Télécharger ce contenu au format Epub

Lire les commentaires

FusionDirectory 1.0.9.2 est sorti

Lundi 11 Janvier

L’équipe de FusionDirectory est heureuse de vous annoncer la publication de la version 1.0.9.2 de FusionDirectory. Pour ceux qui ne connaissent pas FusionDirectory, il s’agit d’un gestionnaire d’infrastructure. Il est à LDAP ce que Webmin pouvait être à NIS/NIS+ : une interface Web modulaire de gestion complète d’un annuaire LDAP. Sa modularité permet d’offrir aussi la gestion de services qui ne sont pas directement interopérables avec LDAP.

La 1.0.9.2 version dispose de nouvelles fonctionnalités importantes, quelques correctifs majeurs ainsi que mineurs.

Nouvelles fonctionnalités :

  • FusionDirectory intègre maintenant le support CAS ;
  • le système de réinitialisation de mot de passe regarde maintenant l'attribut supannMailPerso si le greffon supann est installé ;
  • le greffon SSH gère les clefs publiques de type ecdsa-sha2-nistp256 ;
  • FusionDirectory a maintenant la possibilité de générer des mots de passe aléatoires lors de l'utilisation de templates ;
  • la gestion de Argonaut dans FusionDirectory a été réécrite ;
  • la possibilité de lister tous les tab qui sont actifs sur un objet a été rajoutée à FusionDirectory-shell.

Principaux correctifs :

  • les dernières classes du greffon FAI ont été migrées vers notre API simplePlugin ;
  • lors de la migration d'utilisateurs avec fusiondirectory-setup –migrate-users, il peut maintenant migrer des utilisateurs qui ont des attributs samba ;
  • dans un cas bien particulier l'utilisateur était effacé lorsqu'on le changeait de branche en raison de la présence d'objectClass obsolètes ;
  • l'onglet FAI ne contient plus d'options pour le noyau ;
  • l'effacement des boites de messageries à travers cyrus et sieve fonctionne à nouveau ;
  • le greffon FusionInventory a été amélioré.

Corrections mineures :

  • le greffon SSH accepte maintenant des clefs avec des espaces dans les commentaires ;
  • les listes dans le greffon Supann sont triées en ordre alphabétique ;
  • la méthode de messagerie Cyrus Sendmail n’était plus utilisée et a été supprimée ;
  • la méthode FAI d'Argonaut a été nettoyée.

Greffons supprimés :

Le greffon rsyslog n'est plus géré : il nécessitait un backend SQL et n’était plus vraiment utilisé.

Télécharger ce contenu au format Epub

Lire les commentaires

Comment j’en suis venu à découvrir Linux, par Ian Murdock

Lundi 11 Janvier

Ian Murdock est l’initiateur de la distribution Debian GNU/Linux. C’est à ce titre qu’il est mondialement connu. Il nous a malheureusement quitté le 28 décembre 2015.

Au mois d’août 2015, il a raconté comment il avait découvert les logiciels libres. Cet article, publié le 17 août sur son blog, sonne comme le début d’un testament qu’il aurait voulu rédiger.

Ce témoignage, comme celui de Linus Torvalds, montre comment, il y a plus de 20 ans, on découvrait les logiciels libres. À cette époque, Internet naissait et allait changer le monde…

Découvrez la traduction du blog de Ian dans la seconde partie de l’article (version originale publiée sous CC by 4.0).

Sommaire Comment j’en suis venu à découvrir Linux

Par Ian Murdock, 17 août 2015

J’ai vu ma première station Sun à l’hiver 1992, alors que j’étais en premier cycle à l’Université Purdue. À ce moment, j’étais étudiant à la Keanner School of Management, et un amour d’enfance pour les ordinateurs fut ravivé par un cours obligatoire de programmation informatique que j’ai suivi durant le semestre d’automne (nous avions le choix entre le COBOL et le FORTRAN — qui même en 1992 semblait très démodé — et j’ai donc pris le COBOL qui me paraissait être le plus « business » des deux).

À peu près dix ans auparavant, mon père, un professeur d’entomologie à Purdue, avait remplacé au travail sa machine à écrire par un Apple II+. Pensant que son fils de neuf ans pourrait s’éclater avec, il l’apporta à la maison un week-end avec un jeu ressemblant à Space Invaders qu’il avait acheté au ComputerLand local. J’ai passé des heures sur cet ordinateur ce week-end-là. J’accompagnais bientôt Papa au labo à chaque opportunité pour passer autant de temps que possible sur l’ordinateur.

Étant un garçon de neuf ans, j’étais attiré au début, de façon prévisible, par les jeux et l’intérêt que je leur portais me conduisit à ma première exposition à la programmation : des magazines d’informatique qui incluaient des listes de code de jeux très simples, que je tapais laborieusement dans l’Apple — et après des heures de travail, j’espérais n’avoir fait aucune erreur (l’Apple II, au moins au sortir de la boîte, utilisait un simple éditeur ligne par ligne, par conséquent revenir en arrière et effectuer des changements était très fastidieux, sans mentionner en premier lieu la recherche d’erreurs).

Peu de temps après, j’ai rencontré Lee Sudlow tandis que je traînais au labo les week-ends. Lee était un des étudiants de deuxième cycle de Papa et avait commencé à utiliser l’Apple pour l’appuyer dans ses expériences. Lee était toujours heureux d’expliquer ce qu’il faisait, alors que je lui tournais autour zyeutant au-dessus de son épaule, son obligeance était sans doute motivée — au moins en partie — par le fait que le morveux de neuf ans scrutant chacun de ses gestes était le fils de son conseiller académique. Ne me rendant pas compte de ce genre de choses, je le regardais avec fascination taper du code dans l’Apple — code qu’il inventait lui-même, et non qu’il lisait dans un magazine informatique.

Entre l’apprentissage par l’exemple à travers l’étude du code des magazines et la tutelle occasionnelle de Lee, j’écrivais peu de temps après des jeux et autres programmes simples, d’abord en Applesoft BASIC et plus tard en assembleur pour 6502. Pour encourager mon intérêt croissant, Papa finit par acheter un Apple IIe pour la maison, et mon histoire d’amour avec l’informatique continua pendant plusieurs autres années. Néanmoins, en entrant dans mes années d’adolescence, l’ordinateur fut progressivement remplacé par des choses plus pressantes, comme le baseball, la musique, les filles, et au milieu des années 1980, la poussière s’amassait sur l’Apple dans le placard de ma chambre aux côtés de mes collections de romans Les Frères Hardy et de figurines Star Wars.

Mon obsession pour l’informatique est restée dormante durant les six années suivantes, jusqu’à ce qu’elle soit réactivée fortuitement durant ce cours de COBOL à l’automne 1992. Lorsque le cours se termina, j’ai naturellement perdu mon compte sur l’ordinateur central IBM 3090 sur lequel nous effectuions nos exercices et travaux de laboratoire. Heureusement, en tant qu’étudiant, j’avais droit à un compte personnel sur l’une des machines du centre informatique de l’université, soit l’IBM soit l’un des trois mini-ordinateurs Sequent Symmetry qui tournait sous DYNIX, une variante du système d’exploitation UNIX. Un ami m’a convaincu qu’UNIX était plus intéressant et avait davantage un brillant avenir que les machines virtuelles et moniteurs conversationnels d’IBM ; j’ai donc suivi son conseil, et je fis une demande pour un compte sur l’une des machines Sequent. La semaine suivante, j’étais le fier titulaire d’un compte sur sage.cc, complété par l’allocation princière de 500 kilo-octets d’espace disque. (Oui, je suis sarcastique — 500 kilo-octets est un espace misérable même pour 1992. J’ai fini par trouver des moyens d’y faire face).

J’eus un appétit vorace pour UNIX cet hiver. Je passais la plupart de mes soirées dans le sous-sol du bâtiment des mathématiques me prélassant dans la phosphorescente lueur verte des terminaux Z-29, explorant dans les moindres recoins le système UNIX. Un silence sinistre régnait dans ces salles de terminaux, où seul le son du clac, clac, clac de quelques douzaines de claviers persistait, interrompu parfois par un occasionnel chuchotement « Hé, regarde ça… »
Souvent, après une nuit d’exploration, je quittais le bâtiment par un détour pour passer devant une fenêtre de verre plat derrière laquelle le centre informatique abritait ses machines. Je contemplais avec émerveillement le Sequent Symmetry de la taille d’un réfrigérateur que je venais d’utiliser, je scrutais ses lumières clignotantes en sachant que des centaines de personnes se trouvaient encore à l’intérieur, même si ce n’était que virtuellement, grâce à la magie du temps partagé, une technique que les ordinateurs avancés utilisaient pour diviser la puissance de calcul de la machine entre plusieurs utilisateurs, fournissant l’illusion à chacun d’entre eux d’être le seul et l’unique à l’exploiter. Par-dessus tout, j’observais avec envie les opérateurs système assez privilégiés pour s’asseoir de l’autre côté de la fenêtre maniant dans la console le pouvoir tout-puissant du « superuser ».

Insatisfait par les Z-29, je commençais à rôder autour du campus la nuit tombée avec un ami, Jason Balicki, pour voir ce qui pouvait être trouvé d’autre. Jason suivait depuis quelques années le parcours des sciences informatiques, il savait donc où chercher (même si nous faisions nos explorations — cela faisait partie du plaisir — en entrant la nuit dans les bâtiments et en essayant les poignées des différentes salles, qui semblaient contenir des ordinateurs, pour voir si elles étaient restées ouvertes).

J’ai appris que les meilleurs labos se trouvaient dans le bâtiment de « management des sciences de l’ingénieur » (connu sur le campus par son malheureux acronyme, ENAD), où plusieurs salles de terminaux X offraient une interface graphique noir et blanc aux Sequent et autres machines UNIX du campus. Bientôt, mon lieu préféré de « hacking » (un terme que Jason me fit découvrir) se trouva dans un des laboratoires de terminaux X, qui étaient techniquement réservés aux seuls étudiants en ingénierie, une restriction qui n’était protégée par aucun mot de passe — et que nous ignorions scrupuleusement.

Mais la richesse du bâtiment de l’ENAD se trouvait dans ses laboratoires de stations de travail SUN. Contrairement aux modestes Z-29 et même aux terminaux X comparativement avancés, les SUN étaient des œuvres d’art, avec leurs boîtiers aux lignes pures et leurs écrans couleur haute résolution. Jason exposait en outre qu’ils faisaient tourner le meilleur UNIX existant, SunOS, même si les SUN étaient considérablement mieux verrouillés que les terminaux X, exigeant un compte sur le réseau du département d’ingénierie pour y accéder ; je n’ai donc pas eu l’opportunité de me servir vraiment de SunOS avant un bon moment.

J’accédais également à UNIX depuis la maison via mon ordinateur basé sur un Intel 80286 et un modem 2400 bauds, qui m’épargnait une longue marche vers le labo d’informatique à travers le campus, particulièrement les jours de grand froid. Être capable d’accéder au Sequent depuis la maison était génial, mais je voulais reproduire l’expérience des terminaux X du bâtiment de l’ENAD. De la sorte un jour, en janvier 1993, j’entrepris de trouver un serveur X qui aurait pu tourner sur mon PC. Au cours de cette recherche sur Usenet, je suis tombé sur quelque chose nommé « Linux ».

Linux n’était pas un serveur X bien sûr, mais c’était quelque chose de bien mieux : un système d’exploitation complet pour PC ressemblant à UNIX, quelque chose que je n’avais même pas pu envisager et qui existait bien. Malheureusement, il réclamait au minimum un processeur 386, et mon ordinateur n’avait qu’un 286. J’ai commencé alors à mettre des sous de côté afin d’acquérir une machine suffisamment rapide pour le faire fonctionner, et pendant que j’économisais, je dévorais tout ce que je trouvais sur l'objet de mon désir. Quelques semaines plus tard, je postais un message sur le groupe Usenet d’informatique de Purdue demandant si quelqu’un sur le campus utilisait Linux — et je reçus une réponse d’un étudiant en informatique, Mike Dickey, qui m’invita volontiers à venir voir son installation Linux.
Empli d’inspiration, j’ai acheté une boîte de trente disquettes et j’ai commencé le lent processus de téléchargement de Linux sur celles-ci depuis une salle d’informatique du bâtiment Krannert, même si je devais encore patienter un mois de plus avant de pouvoir m’offrir un ordinateur capable d’effectuer une telle installation. Finalement, je n’ai pas pu attendre. Jason et moi avons trouvé dans l’une des résidences une salle d’informatique, qui n’avait pas été fermée, contenant un seul PC et, un soir de février, au milieu de la nuit, nous nous sommes mis à installer Linux sur cet ordinateur. Je me demande encore parfois ce qu’a dû penser l’étudiant malchanceux arrivé en premier le lendemain matin.

Le noyau Linux avait été créé environ une année et demie auparavant par Linus Torvalds, un étudiant de vingt-et-un ans en premier cycle d’informatique à l’Université d’Helsinki. Passionné par les ordinateurs depuis longtemps, Torvalds avait suivi un parcours à peu près similaire au mien, cependant il avait commencé son parcours en programmation sur un Commodore Vic-20, et n’avait pas été distrait par les intérêts traditionnels d’un adolescent durant les années 1980. La première exposition de Torvalds à UNIX datait de 1990 durant un cours universitaire et, comme moi, ce fut le coup de foudre au premier regard.

Durant l’automne de la même année, Torvalds suivit un cours sur les systèmes d’exploitation qui se basait sur le livre Operating Systems: Design and Implementation d’Andrew Tanenbaum, un professeur d’informatique de l’Université libre d’Amsterdam. L’ouvrage de Tanenbaum enseignait les systèmes d’exploitation par une série d’exemples au travers d’un clone d’UNIX pour PC qu’il avait écrit, nommé MINIX ; son livre contenait le code source complet de MINIX — le code de programmation humainement lisible (et modifiable) — ainsi qu’une série de disquettes pour que les lecteurs puissent installer, utiliser, et modifier le système d’exploitation.

Intrigué, Torvalds acheta un PC au début de l’année 1991, et rejoignit la communauté MINIX en plein essor, des dizaines de milliers de membres compétents largement réunis par le groupe de discussion Usenet comp.os.minix. Il commença alors non seulement à expérimenter MINIX mais aussi les nouvelles capacités de commutation de contexte du processeur Intel 80386 de son ordinateur. (La commutation de contexte facilite le fonctionnement de plus d’un programme à la fois sur le processeur, l’un des prérequis d’un système à temps partagé comme celui du Sequent Symmetry, que j’allais découvrir l’année suivante à Purdue). Durant l’été 1991, les expériences de Torvalds avec la commutation de contexte commençaient à évoluer en un noyau de système d’exploitation à part entière, la pièce maîtresse du code d’un système d'exploitation permettant l’accès au processeur, à la mémoire, aux disques ainsi qu’aux autres composants de l’ordinateur, et qui fournit une interface simplifiée à ces fonctions informatiques, qui permettent à des applications complexes d’être écrites plus aisément (Glyn Moody, Rebel Code: Inside Linux and the Open Source Revolution, Basic Books, 2002, p. 8, 13, 32-42).

MINIX n’était pas le seul projet existant de système d’exploitation animant les amateurs en 1991, bien qu’il fût l’un des rares à être suffisamment complet pour être utilisé, et l’un des seuls à pouvoir fonctionner sur un modeste ordinateur. Le projet de système d’exploitation le plus connu jusque-là était GNU, présidé par Richard Stallman. Ce dernier, qui programmait depuis le milieu des années 1960 et qui a été développeur système au MIT de 1971 à 1983, était un « hacker » de la vieille école, un individu qui s’implique dans l’informatique pour l’amour même de l’informatique, parfois aussi de façon militante (comme pour Stallman), et pour la croyance que toute information devrait être librement partagée.

Le but du projet GNU était de produire un système d’exploitation libre (non seulement gratuit, mais aussi libre dans le sens qu’il serait librement modifiable) compatible avec UNIX (GNU était une sorte d’acronyme récursif pour « GNU’s Not UNIX », une sorte parce que cette dénomination employait une technique puissante souvent utilisée par les programmeurs appelée récursion, qui implique un calcul s’utilisant lui-même comme l’une de ses variables). Stallman lança le projet GNU en 1983 en réponse au marché fleurissant du logiciel propriétaire, dans lequel le code source n’était pas modifiable, et le plus souvent même inaccessible.

Le logiciel propriétaire était un fait relativement nouveau au début des années 1980 et, pour Stallman, une évolution très perturbante. Jusqu’à cette époque, les logiciels étaient pour la plupart distribués librement avec le matériel informatique, et les hackers partageaient souvent des copies de ce code source avec leurs propres modifications et améliorations. Stallman considérait cette tendance grandissante favorisant le logiciel propriétaire tout simplement comme le premier pas vers un 1984 numérique, où les utilisateurs d’ordinateurs, et finalement toute la société, seraient maintenus prisonniers par les intérêts cupides d’entreprises commerciales, et il était déterminé à stopper ce mouvement.

À la mi-1991, Stallman et un groupe informel de volontaires avaient assemblé quasiment l’ensemble du système d’exploitation GNU — un compilateur, un débogueur, un éditeur, un interpréteur de commandes (ou « shell »), et une variété d’outils et de bibliothèques qui ressemblaient à UNIX, mais en mieux — les versions du projet GNU étaient presque universellement considérées comme supérieures à celles de son éponyme. La seule pièce manquante était le noyau, et une petite équipe venait d’être formée pour écrire ce dernier élément à la Free Software Foundation de Stallman, une organisation à but non lucratif qu’il avait créé en 1985 pour superviser le développement de GNU et servir d’une certaine manière de gardien du logiciel libre. Les hackers à travers le monde pensaient qu’il ne s’agirait que d’une question de temps avant que GNU soit achevé et disponible, et qu’ils disposent enfin d’un système d’exploitation libéré du fardeau propriétaire.

À l’autre bout de la planète, le noyau de système d’exploitation de Torvalds devenait suffisamment complet pour être distribué au monde entier. Dans un message aujourd’hui célèbre publié sur comp.os.minix le 25 août 1991, Torvalds écrivit :

Bonjour à tous ceux qui utilisent minix -

Je suis en train d’écrire un système d’exploitation (libre) pour des compatibles PC-AT 386/486 (juste un hobby, ça ne sera pas grand et professionnel comme GNU). Cela mijote depuis avril, et ça commence à être prêt. J’aimerais bien avoir des retours sur les choses que les gens aiment ou non dans minix, comme mon système y ressemble d’une certaine manière (même conception du système de fichiers (pour des raisons pratiques) parmi d’autres choses).

La réponse fut immédiate et très enthousiaste. Alors que tout le monde s’attendait à ce que GNU soit terminé de façon imminente, il n’était toujours pas disponible, au moins dans une forme qui aurait pu être utilisée sans une base échafaudée à partir d’UNIX. Et même si MINIX était populaire, il n’était pas gratuit, bien qu’il fût peu coûteux en comparaison des autres systèmes UNIX. Mais peut-être le plus important, MINIX était conçu d’abord comme une aide à l’enseignement, et non comme un logiciel de production. Tanenbaum avait donc horreur d’inclure les nombreux patchs et modifications du système d’exploitation qui étendaient ses capacités, qu’il recevait massivement tous les jours de hordes de passionnés du monde entier, craignant que leur ajout ne rende MINIX trop compliqué et, en conséquence, plus difficile à comprendre pour ses étudiants.

L’appât que représentait un système d’exploitation pour PC similaire à UNIX, aussi imparfait soit-il, libre et pouvant évoluer à la vitesse souhaitée par sa communauté, était une trop grande tentation pour beaucoup d’utilisateurs MINIX, qui se réunirent rapidement en nombre autour du nouveau système de Torvalds, surnommé à l’automne 1991 « Linux ». Mais Linux n’était qu’un noyau — il nécessitait en plus l’installation d’une variété d’outils et d’applications pour qu’il puisse effectivement faire quelque chose. Heureusement, la plupart de ces outils existaient déjà grâce au projet GNU de Stallman.

En 1992, quelques utilisateurs intrépides débutèrent le rassemblement de collections d’images disquettes qui combinaient Linux et la chaîne d’outils GNU afin de faciliter le fonctionnement du système et l’émergence de nouveaux utilisateurs. Ces collections (plus tard nommées « distributions ») s’amélioraient progressivement, et au moment où j’acquis finalement mon PC en mars 1993, la distribution Soflanding Linux System (ou SLS) s’était développée en une trentaine de disquettes et incluait maintenant une quantité d’applications — et oui, également un logiciel identique à celui qui faisait fonctionner les terminaux X du bâtiment de l’ENAD.

Quoi qu’il en soit, je n’ai jamais trouvé le temps d’essayer de me connecter depuis mon PC au serveur X basé maintenant sur Linux du Sequent, ce qui aurait été terriblement lent à 2400 bauds — plusieurs milliers de fois plus lent que la vitesse actuelle. Je disposais à présent d’un UNIX rien qu’à moi, un UNIX que je pouvais explorer juste là, sur mon bureau. Et cette exploration je l’ai faite, dans un véritable cours intensif UNIX. Lorsque je me suis remis de l’excitation d’être le « superuser », cette puissance indicible que je n’avais pu auparavant qu’admirer au travers d’une vitre, je suis devenu captivé non pas tellement par Linux lui-même mais par le processus qui l’a vu naître — des centaines d’individus hackant depuis leur petit coin du système et utilisant Internet pour échanger du code, et lentement mais sûrement améliorer le système grâce à chacune des modifications.
J’ai alors entrepris de faire une contribution personnelle à cette communauté grandissante, une nouvelle distribution appelée Debian qui serait plus facile d’utilisation et plus robuste, parce qu’elle serait construite et maintenue collaborativement par ses utilisateurs, un peu comme Linux.

Mise à jour

Le 21 août 2015

Wow. La réponse à mon dernier article How I came to find Linux a été fulgurante.

Peut-être est-ce parce que j’ai relu pour la énième fois Hackers de Stephen Levy, mais je pense que le récit de notre génération doit être raconté. C’était réellement une période différente par rapport à celle d’aujourd’hui — les capacités de calcul et de stockage étaient très peu abondantes ; la connectivité était rare, pas du tout répandue ; et l’idée d’un monde de l’information organisé et universellement accessible restait de la science-fiction.

Je ne suis pas sûr de la forme que prendra finalement cette histoire. Cela pourrait être un livre, une suite dans l’esprit de Hackers (ce qui serait certainement une manière appropriée d’y penser, puisque Hackers se termine avec un jeune Richard Stallman fondant le projet GNU, et le récit de notre génération débute justement à ce moment). Cela pourrait être un podcast, notre version de The Glory of Their Times. Cela pourrait juste être une série d’essais comme celui que j’ai écrit. Quel que soit le format choisi, cette chose que je pense comme un « Projet de l’histoire du libre » est en train de prendre forme.

Avant que je ne perde trop de temps dans cette idée, je pensais malgré tout vous soumettre ce projet.

Quelqu’un d’intéressé  ?

-ian

Télécharger ce contenu au format Epub

Lire les commentaires

Pages