Linux France

S'abonner à flux Linux France
Mis à jour : il y a 43 min 14 sec

Pydza : jeu libre cherche âme seule

Vendredi 15 Janvier

Pydza est un jeu 2D (2 dimensions) libre de plateforme de type Mario. Pydza est développé en Python avec Pygame. Doté de graphismes soignés, il est de plus multi-plateformes et multilingue. Au gré de votre aventure, vous parcourez un monde peuplé d’ingrédients de pizza, écrasant des tomates sur pattes et attrapant des parts de pizza (source Framasoft).
Ce jeu a été développé dans le cadre d'un projet tutoré de première année de DUT Informatique, à l'IUT d'Orsay, université Paris-Sud (Paris XI) en 2006. Les auteurs sont : Rémy Coutable, Alban Feron et Margueritte Pierre-Elie aidés de leur professeur M. Éric Petitjean.
Le jeu n'a plus d'activité depuis 2008 et le site officiel a disparu. Il ne reste que la première version sur sourceforge(http://pydza.sourceforge.net/). Nous voici donc, encore devant un jeu libre abandonné. Mais comme nous disposons des codes sources (du moins jusqu'à la version 1.15) il peut être repris par qui en a envie.

L'association LanPower met à disposition sur son site une version 2.2 de 2008 avec installeur créé par l'association à partir du fichier zip récupéré avant la fermeture du site officiel. La licence est la GPLV3. Cependant, le jeu n'est pas totalement libre au sens strict du terme puisque les musiques de Steve Allen sont sous licence CC by-nc-sa 3.0 (on notera de plus la présence de MSVCR71 pour la version Windows).

Télécharger ce contenu au format Epub

Lire les commentaires

Sondages sur les serveurs web Netcraft et SecuritySpace de décembre 2015

Vendredi 15 Janvier

Netcraft est un site web connu pour sa réalisation de sondages sur le logiciel utilisé par les serveurs web sur Internet, ainsi que pour la détection (et l'historique) de ces mêmes logiciels sur requête de ses visiteurs.

Chaque mois, Netcraft publie le résultat de son sondage. Le sondage du mois de décembre est donc disponible, et la deuxième partie de dépêche vous propose un commentaire de ce sondage.

Security Space publie aussi un sondage chaque mois sur les serveurs web (qui aurait besoin d'un peu de toilettage ceci dit).

Sondage Netcraft

Il faut d'abord noter que ce sondage de "popularité des serveurs web" ne peut être considéré comme exhaustif, mais avec un panel de plus de 901 millions de noms d'hôtes sondés il peut être considéré comme raisonnablement représentatif.

Sans surprise, Apache HTTP Server reste le serveur web le plus utilisé du sondage (50% des sites actifs, 37% des sites en général), talonné par Nginx (16% des sites actifs, 17% en général). Microsoft IIS ferme le podium avec presque 10% d'utilisation active (27% des sites en général). Tendanciellement, Nginx et IIS sont plutôt en croissance et Apache HTTP Server plutôt en décroissance.

Alors quoi, rien n'a changé depuis juillet 2012 ? Est-ce que ce classement a encore de l'intérêt ? En fait, au-delà de la progression de Nginx, on peut souligner que le total des serveurs non-mentionnés dépasse celui qui ferme le podium : il y a donc une certaine variété de serveurs web utilisés.

Au final, il est dommage que Netcraft se contente d'afficher seulement certains grands noms, même lorsqu'ils ne signifient plus rien, comme Sun.

Sondage Security Space

Security Space donne un peu plus d'infos sur les serveurs HTTPS rencontrés (nom plus précis et parfois version utilisée pour ceux qui l'annoncent).

On peut aussi :

  • observer que 27% des serveurs annoncent encore du SSLv3 (pourtant obsolète depuis 2014 avec la faille POODLE et enterré en juin 2015 par la RFC 7568) ;
  • noter la présence persistante de Flash sur 6% des sites et la disparition des applets et webstart Java à 0,11% ;
  • constater le fait que 39% des sites visités utilisent des cookies (quasi systématiquement pour toutes les URL du site, et pour tout un sous-domaine dans 12,7% des cas) ;
  • apprendre que seulement 8% des sites utilisent de la répartition de charge DNS en ayant plusieurs IP ;
  • signaler que les serveurs de courriel associés aux domaines web visités sont Exim (53%) et Postfix (32%), tous deux en hausse ;
  • s'émerveiller que les 4 plus grosses autorités de certification contrôlent plus de 63% des certificats recensés ;
  • épiloguer sur le fait qu'Apache HTTP Server tourne principalement sur CentOS, Debian, Ubuntu, voire parfois Red Hat ou FreeBSD.
Télécharger ce contenu au format Epub

Lire les commentaires

PacketFence 5.6 est disponible

Jeudi 14 Janvier

Inverse a annoncé le 13 janvier 2016 la sortie de la version 5.6 de PacketFence, une solution de conformité réseau (NAC) entièrement libre (GPL v2), supportée et reconnue. PacketFence dispose de nombreuses fonctionnalités, comme un portail captif pour l'enregistrement ou la remédiation, une gestion centralisée des réseaux filaire et sans fil, la prise en charge du 802.1X, l'isolation niveau 2 des composantes problématiques, l'intégration au détecteur d'intrusions Snort et au détecteur de vulnérabilités Nessus. Cette solution peut être utilisée pour sécuriser efficacement aussi bien des réseaux de petite taille que de très grands réseaux hétérogènes.

La version 5.6 de PacketFence apporte de nombreuses améliorations telles qu'un module d'audit RADIUS permettant la traçabilité des événements sur le réseau, le regroupement des commutateurs pour leur appliquer une configuration commune, ou encore les filtres DHCP permettant d'effecteur des actions basées sur les empreintes numériques d'un appareil.

PacketFence possède un grand nombre de fonctionnalités. Parmi celles-ci, on retrouve :

  • l'enregistrement des composantes réseau grâce à un puissant portail captif ;
  • le blocage automatique, si souhaité, des appareils indésirables tels les Apple iPod, Sony PlayStation, bornes sans fil et plus encore ;
  • l'enrayement de la propagation de vers et virus informatiques ;
  • le freinage des attaques sur vos serveurs ou diverses composantes réseaux ;
  • la vérification de la conformité des postes présents sur le réseau (logiciels installés, configurations particulières, etc.) ;
  • la gestion simple et efficace des invités se connectant sur votre réseau ;
  • des sources d'authentification variées, incluant Facebook et Google.

PacketFence est une solution non-intrusive qui fonctionne avec une multitude d'équipements réseaux (filaire ou sans fil) tels ceux de 3Com, AeroHIVE, Allied Telesis, Aruba, BelAir/Ericsson, Brocade, Cisco, Dell/Force10, Enterasys, ExtremeNetworks, Extricom, Hewlett-Packard/H3C, Huawei, Intel, Juniper Networks/Trapeze, LG-Ericsson US, Meru Networks, Motorola, Netgear, Nortel/Avaya, Ruckus, Xirrus et plus encore.

Télécharger ce contenu au format Epub

Lire les commentaires

3ème édition d’AgoraCMS – Vendredi 1er avril 2016 - Paris - Ouverture de l’appel à communications

Jeudi 14 Janvier

Présent depuis 3 ans dans l’agenda des événements du numérique, AgoraCMS est un événement professionnel indépendant consacré aux outils de gestion de contenus (CMS). En complément des nombreux événements techniques, AgoraCMS se positionne comme un événement résolument tourné vers les décideurs : chefs de projet, DSI, directions de communication et autres profils moins techniques.

Rassemblant les différents acteurs de la profession au cours d’une journée complète de conférences, ateliers, tables rondes et démos, orientés vers les CMS et le monde numérique, AgoraCMS est la vitrine du dynamisme français dans cet univers complexe et le reflet de l’expertise des sociétés partenaires.

L'évènement prévoit plus de 350 participants.

Ouverture de l’appel à communications

Au programme, de nombreux retours d'expériences, tables rondes, conférences pratiques et ateliers seront proposés pour optimiser la gestion de contenus dans les entreprises.
Avec comme thématique phare « les CMS dans un contexte métier », les conférences et tables rondes auront toutes pour objectif de présenter les outils et méthodes qui existent pour accroître l'efficacité et la qualité des projets numériques.

Événement s’adressant aussi bien aux DSI, aux chefs de projets techniques, qu’aux directions de la communication et chefs de projets Web, le programme des conférences a la particularité de couvrir un large spectre de problématiques :

  • choisir son outil de gestion de contenu Web (CMS) et l'utilisation d'un CMS dans un contexte métier ;
  • développer son trafic et améliorer ses taux de conversions ;
  • les tendances 2016 du marketing Web appliquées aux CMS ;
  • la mobilité avec un CMS : applications, responsive Web, sites mobiles ;
  • UX et ergonomie utilisateur ;
  • l'intégration du CMS dans le SI ;
  • améliorer la performance et la sécurité de ses applications Web ;
  • les méthodes de développement.

De nombreux retours d’expériences viendront compléter les présentations.

Pour soumettre votre sujet de conférence, enregistrez directement votre proposition sur : http://www.agoracms.com/appel-a-communication

Attention : la date limite de rendu des sujets est fixée au 12 février 2016 à minuit !

Le comité de programme
  • Cyril PIERRE de GEYER, Directeur des Executive MBA à l'Epitech, ISG+EPITA et Directeur de l'organisme de formation chez Openska ;
  • Marine SOROKO, Directrice Associée de Core-Techs ;
  • Nicolas SILBERMAN - CTO et cofondateur de ThankYouMotion ;
  • Frédéric AATZ, Directeur de la Stratégie Interopérabilité & Open Source chez Microsoft ;
  • Maxime TOPOLOV, co-fondateur et CTO d'Adyax ;
  • Christophe CARNET, Directeur de projets et Responsable Qualité, RSSI chez AlterWay ;
  • Frédéric HOVART, Directeur Commercial de GLOBALIS ;
  • Christophe VILLENEUVE, Consultant IT et Community Manager chez Neuros.
Informations complémentaires Date et lieu

AgoraCMS se tient à la Maison des Associations de Solidarité (MAS) à Paris dans le 13ème arrondissement, le vendredi 1er avril 2016 de 9h à 18h.

MAS PARIS - 10/18 rue des Terres au Curé - 75013 PARIS

Accès

L'entrée est gratuite, mais l'évènement réservé aux professionnels.
L'inscription est obligatoire, et s'effectue sur le site d'AgoraCMS.

Télécharger ce contenu au format Epub

Lire les commentaires

Le retour de la Méthode R.A.C.H.E

Mercredi 13 Janvier

Il y a plus de 10 ans maintenant, en lisant le journal d'un certain mmh, je découvrais la Méthode R.A.C.H.E de l’International Institute of La RACHE. Il ne s'est pas passé une année depuis sans qu'un collègue ou moi-même y fasse allusion face à un projet à l'issue incertaine. Malheureusement, le domaine n'a pas été renouvelé en 2013 par le propriétaire, et un site parking plein de liens moisis y a pris place.

Malgré la déception, j'ai finalement réussi à racheter le domaine et à le remettre en route…

Le site actuel

Le site est maintenant hébergé sur une page GitHub, peut être forké et est ouvert à toutes les contributions.

Le but de cette réouverture est de faire perdurer cette note d'humour et de continuer à rire des métiers de l'informatique.

Je n'ai aucune idée de l’identité de l'auteur originel de cette page ni de la licence qu'il aurait souhaité pour ce contenu.

Le contenu déposé sur GitHub est par défaut sous licence CC-BY-4.0.

Contribuer au site web la-rache.com Installation de l'environnement de travail
  • forkez le projet : https://github.com/la-rache/la-rache.com ;
  • clonez votre fork : git clone https://github.com/<votre_user_github>/la-rache.com.git ;
  • allez dans le répertoire de travail : cd la-rache.com ;
  • installez NPM apt-get install npm ;
  • installez les dépendances : npm install.
Modification des sources
  • éditez le début de page et le pied de page dans src/parts ;
  • éditez les corps des pages dans src/*.html ;
  • éditez les images dans src/img ;
  • éditez les css dans src/css ;
  • éditez les js dans src/js.
Génération du code HTML
  • ./node_modules/grunt-cli/bin/grunt.
Visualisation du code
  • Ouvrez build/index.html avec votre navigateur préféré.
Partage de vos modifications
  • si vous avez ajouté de nouveaux fichiers : git add <fichier> ;
  • commentez vos modifications : git commit -am "<votre commentaire sur vos modifications" ;
  • poussez les dans votre repo git push ;
  • depuis votre espace GitHub, faites un merge request.
Télécharger ce contenu au format Epub

Lire les commentaires

Revue de presse de l'April pour la semaine 1 de l'année 2016

Mardi 12 Janvier

La revue de presse de l'April est régulièrement éditée par les membres de l'association. Elle couvre l'actualité de la presse en ligne, liée au logiciel libre. Il s'agit donc d'une sélection d'articles de presse et non de prises de position de l'association de promotion et de défense du logiciel libre.

Sommaire

[Le Point] Brighelli - L'école vendue (pas cher) à Microsoft

Par Jean-Paul Brighelli, le vendredi 8 janvier 2016. Extrait:

Sans le moindre appel d'offres, Microsoft vient de s'offrir 850 000 enseignants et plus de 12 millions d'élèves. "Une affaire!" juge Brighelli.

Lien vers l'article original: http://www.lepoint.fr/invites-du-point/jean-paul-brighelli/brighelli-l-ecole-vendue-pas-cher-a-microsoft-08-01-2016-2008088_1886.php

Voir aussi:

[Le Monde.fr] Le gouvernement néerlandais défend le chiffrement des données

Par Morgane Tual, le jeudi 7 janvier 2016. Extrait:

A contre-courant, le ministre de la sécurité et de la justice affirme, dans un texte officiel, que le chiffrement protège les citoyens, les entreprises et le gouvernement.

Lien vers l'article original: http://www.lemonde.fr/pixels/article/2016/01/07/le-gouvernement-neerlandais-defend-le-chiffrement-des-donnees_4842993_4408996.html

[ZDNet France] Linux et l'open source ont gagné, acceptez-le

Par Steven J. Vaughan-Nichols, le lundi 4 janvier 2016. Extrait:

2015 a été l'année durant laquelle Linux et le logiciel Open Source ont pris le pouvoir dans le monde de l'IT. Mais de nombreux fans du logiciel open source et propriétaires n'en ont toujours pas pris conscience.

Lien vers l'article original: http://www.zdnet.fr/actualites/linux-et-l-open-source-ont-gagne-acceptez-le-39830530.htm

[Techniques de l'Ingénieur] Coup de pouce de l’État en faveur de l’Open Source

Par la rédaction, le vendredi 8 janvier 2016. Extrait:

Quelques semaines après sa validation, les administrations peuvent consulter la version 2016 du socle interministériel des logiciels libres (SILL) afin de découvrir et utiliser les quelque 100 logiciels Open Source recommandés par l’État.

Lien vers l'article original: http://www.techniques-ingenieur.fr/actualite/articles/coup-de-pouce-de-letat-en-faveur-de-lopen-source-31088

Et aussi:

Voir aussi:

[Nouvelles de France Portail] Libertés numériques: sortir de l’idéologie totalitaire dominante et avoir une vrai volonté politique

Par Barbara Mazières, le jeudi 7 janvier 2016. Extrait:

Les mesures que souhaite prendre le ministère de l’Intérieur soi-disant pour la sécurité sur internet sont, une nouvelle fois, des mesures contraires à la défense de nos liberté : coupure obligatoire de tout réseau Wi-Fi ouvert (mesure abandonnée pour l’instant? mais il faut rester vigilant), menace et censure des sites, blocage des réseaux d’anonymisation et fourniture des clés de chiffrement des messageries font partie des pistes soumises à arbitrage.

Lien vers l'article original: http://www.ndf.fr/poing-de-vue/07-01-2016/78030

[L'Atelier] «Les villes ne se rendent pas compte du potentiel du citoyen-entrepreneur»

Par Aurore Geraud, le mercredi 6 janvier 2016. Extrait:

Rencontre avec le chercheur américain Boyd Cohen, sur sa vision de l'évolution du profil de l'entrepreneur à l'origine de la smart city de demain.

Lien vers l'article original: http://www.atelier.net/trends/articles/villes-ne-se-rendent-compte-potentiel-citoyen-entrepreneur_439456

Télécharger ce contenu au format Epub

Lire les commentaires

pkgsrc 2015Q4

Lundi 11 Janvier

Dans un message à des listes de diffusion pkgsrc et NetBSD, Jonathan Perkin a annoncé la disponibilité de la branche pkgsrc-2015Q4. Pkgsrc (prononcer package source) est une infrastructure de construction de logiciels tiers pour NetBSD, ainsi que pour d’autres systèmes de type UNIX. Il permet donc à NetBSD, mais aussi à GNU/Linux, SmartOS, Minix, OS X et de nombreux autres systèmes d’exploitation de disposer de nombreux logiciels sous forme source, mais aussi sous forme binaire.

Les développeurs pkgsrc fournissent une nouvelle version stable chaque trimestre. Comme son nom l’indique, pkgsrc 2015Q4 est donc la quatrième (et dernière) de l'année 2015 et est disponible depuis le premier janvier 2016.

Plus de détails sur cette version en particulier en seconde partie de dépêche, qui reprend grandement le courriel d'annonce.

Si vous ne connaissez toujours pas pkgsrc

À force de publier des dépêches sur le sujet (suivez le tag pkgsrc), espérons que vous commencez à connaître la chanson : pkgsrc, c'est le système de paquets logiciels pour NetBSD, issu d'un fork en 1997 de celui de FreeBSD. Nos amis au drapeau orange étant adeptes de la portabilité, il est logique que leur système de paquets puisse fonctionner ailleurs et compte toujours plus d'une vingtaine de plateformes compatibles, allant des systèmes BSD à Windows (grâce à Cygwin/Interix/Services For Unix) en passant par GNU/Linux, OS X et Solaris.

Pour être plus concret sur la portabilité de pkgsrc, certaines personnes maintiennent des dépôts de paquets binaires en dehors de ceux pour NetBSD. Ainsi, le dépôt de la société Joyent contient des ensembles de paquets pour SmartOS, GNU/Linux (CentOS & RHEL 6) mais aussi OS X. Pour cette plateforme, signalons aussi la présence du projet Save OS X, qui propose toujours articles et courtes vidéos introduisant pkgsrc pour le système à la pomme, en plus du nécessaire de bootstrap.

Enfin, ces initiatives ne sauraient être couronnées de succès sans pkgin, gestionnaire de paquets créé par iMil, actuellement en version 0.9.3.

Les chiffres du trimestre

Ce trimestre ne dispose plus de chiffres précis sur la quantité de paquets disponibles selon la plateforme, mais simplement des ordres d'idée :

  • plus de 16000 paquets pour NetBSD-current amd64 avec clang ;
  • plus de 14000 paquets pour FreeBSD amd64 avec clang ;
  • plus de 14000 paquets pour SmartOS i386/x86_64 avec gcc ;
  • plus de 13000 paquets pour Linux i386/x86_64 avec gcc ;
  • plus de 12000 paquets pour OpenBSD amd64 avec gcc ;
  • plus de 12000 paquets pour OS X El Capitan x86_64 avec clang ;
  • plus de 11000 paquets pour DragonFly 4.5 amd64 avec gcc ;
  • plus de 10000 paquets pour Bitrig amd64 avec clang.

Néanmoins le nombre total de paquets possibles reste disponible : 16846 contre 16764 au troisième trimestre.

Si ce genre de statistiques vous intéresse, il est possible de visiter le BulkTracker, qui recense des résultats de bulk builds, les compilations massives de paquets.

Ce trimestre, en termes de modifications, il y a eu :

  • 172 paquets ajoutés (225 le trimestre précédent) ;
  • 58 paquets retirés, dont 7 avec un successeur (27 et 8 au trimestre précédent) ;
  • 1185 paquets mis à jour (1392 au trimestre précédent) ;
  • 1 paquet a été renommé (1 au trimestre précédent).
Les changements

Commençons par la désormais habituelle campagne de nettoyage dont le but est de supprimer ce qui est obsolète, ou non utilisé. Nous voyons donc partir la branche 5.4 de PHP ainsi que la branche 1.9.3 de ruby, qui ont passé leur fin de vie.

Du côté des nouveautés, saluons l'arrivée rapide de la branche 7 de PHP ! PHP étant activement maintenue côté pkgsrc, il est fort probable qu'au moment de l'installation, ce n'est pas PHP 7.0 que vous obtiendrez, mais 7.0.2 ou 7.0.3. Python n'est pas en reste, puisque sa version 3.5 est elle aussi accessible. À noter que les paquets construits avec ces version de PHP et de Python ont pour préfixe, respectivement php70 et py35.

A part ces deux langages, quoi de neuf ?

Sevan Janiyan continue ses améliorations de paquets à travers de nombreuses plateformes, au premier rang desquelles on trouve Bitrig et OpenBSD.

Des changements "d'infrastructure" ont aussi eu lieu ce trimestre, avec l'ajout d'une somme de contrôle SHA512 pour les archives sources des paquets, le retrait de vieux code, et une réécriture de pkglint en go (l'ancienne version, en perl, est toujours accessible sous le nom pkglint4).

Actualités diverses

Il s'agit de la 49e version de pkgsrc. 2016Q1 sera donc la 50e : toutes les suggestions concernant la célébration de cette version sont les bienvenues !

Télécharger ce contenu au format Epub

Lire les commentaires

Red Hat Enterprise Linux 7.2

Lundi 11 Janvier

Red Hat a annoncé, ce 19 novembre 2015, la version 7.2 de Red Hat Enterprise Linux (RHEL), distribution commerciale destinée aux professionnels et aux entreprises.

Pour rappel, RHEL 7 est disponible depuis juin 2014 et apporte de nombreuses nouveautés, comme Docker, systemd et l'utilisation par défaut du système de fichiers XFS. RHEL 6 et 5 sont, malgré tout, encore maintenues par l'éditeur.

Il convient, bien entendu, de ne pas confondre RHEL 7.2 avec Red Hat Linux 7.2 sortie en octobre 2001 ;).

Vous trouverez en deuxième partie de cet article une sélection des changements apportés.

Sommaire Prise en charge du matériel

Une bien maigre mise à jour côté matériel pour démarrer cette version 7.2, puisque Red Hat n'a daigné signaler dans ses notes de version que la prise en charge officielle des cartes OSA-Express5s par l'outil qethqoat, présent dans le paquet s390utils. Pourquoi officielle ? Parce que cela était déjà présent en avant-première technologique dans RHEL 7.1.

En attendant, on peut noter que RHEL 7.2 est maintenant capable de gérer 12 To de mémoire vive sur un système x86_64. La précédente limite était de 6 To.

Installation et démarrage

Anaconda s'améliore en RHEL 7.2, à commencer par la résolution d'un problème réseau dans le cas d'une installation via Kickstart, dans le cas où celui-ci redéfinit la configuration réseau. Maintenant celle-ci est faite très tôt au niveau de l'installation, pour éviter de se retrouver dans le mode « urgence ».

Encore côté Anaconda, celui-ci est maintenant capable de créer des volumes LVM « en cache » et d'installer RHEL dessus, mais uniquement dans des installation via Kickstart.

Jamais deux sans trois, une autre amélioration concerne les actions sur les disques pendant l'installation. Auparavant, Anaconda et Blivet ne revenaient pas correctement sur les actions programmées sur les disques lorsque la sélection changeait, provoquant quelques problèmes. Avec cette mise à jour, Anaconda a été corrigé pour créer un instantané de la configuration de stockage d'origine et y revenir lorsque la sélection de disque change.

On continue sur Anaconda, qui voit arriver l'ajout d'⁠OpenSCAP. Il est donc maintenant possible (et optionnel) de créer une politique de sécurité, sans avoir recours à divers scripts pour la mettre en place. Concrètement, cela veut dire qu'une nouvelle section fait son apparition dans Kickstart ("%addon org_fedora_oscap"), ainsi qu'un nouvel écran dans l'installeur graphique. Le guide d'installation est mis à jour en conséquence. En plus de l'application d'une politique de sécurité, via sélection d'un profil, par exemple, le paquet openscap-scanner sera installé et effectuera un premier test pour s'assurer de la conformité du système installé. Le résultat de ce test sera accessible dans /root/openscap_data.

Pour en finir avec les nouveautés d'Anaconda, signalons que celui-ci n'a plus de timeout dans le cas d'un fichier kickstart présent sur un média optique. Auparavant, l'installeur attendait 30 secondes que l'utilisateur change de CD ou de DVD avant de passer en mode « urgence ». Maintenant, Anaconda affiche un message et attend soit que le fichier soit fourni, soit que le système redémarre.

Laissons Anaconda de côté et passons à GRUB2. Celui-ci souffrait en effet d'un problème dans le tri des noyaux, effectué par la commande grub2-mkconfig. Le résultat ? grub.cfg disposait certes des noyaux installés sur la machine, mais pas forcément dans le bon ordre, ce qui peut empêcher de démarrer sur le noyau le plus récent. Maintenant, GRUB2 utilise le paquet rpmdevtools pour trier les noyaux disponibles et générer correctement un fichier où le noyau le plus récent est listé en haut.

Stockage

Abordons d'abord le stockage par les systèmes de fichiers, dont certains font l'objet d'une mise à jour « d'envergure » :

  • l'outil gfs2-utils passe en version 3.1.8, ne dépend plus de Perl et apporte, entre autres, des améliorations de performances ;
  • ⁠XFS passe en version 4.1 ;
  • CIFS passe en version 3.17.

Outre ces mises à jour, on remarquera que GFS 2 empêche à présent les utilisateurs de dépasser leur quota en essayant de prédire l'augmentation d'espace avant d'effectuer une opération plutôt qu'en vérifiant le quota après celle-ci.

Virtualisation et conteneurs

RHEL 7.2 n'apporte pas de grandes révolutions côté virtualisation, mais quelques petites évolutions toujours appréciables. On commencera par l'exposition de la fonction MPX (Memory Protection Extensions, une fonction présente sur certains processeurs Intel) de l'hôte vers la machine virtuelle.

Une autre nouveauté intéressante est l'ajout d'un script nommé "dump-guest-memory.py". Comme son nom le laisse penser, celui-ci effectue une copie de la mémoire en cas de problème du noyau de la machine virtuelle.

La commande virt-v2v est maintenant pleinement prise en charge par Red Hat. Vous pourrez donc, par exemple, migrer vos machines virtuelles d'un hôte RHEL 5 Xen dom0 vers un RHEL 7 KVM.

Autre amélioration notable, l'arrivée de l'USB 3.0 dans les machines virtuelles, pour le moment en avant-première technologique.

Côté conteneurs, il y a de nombreuses mises à jour de paquets :

  • docker-1.8.2-8.el7 ;
  • flannel-0.5.3-8.el7 ;
  • cockpit-0.77-3.1.el7 ;
  • storaged-2.2.0-3.el7 ;
  • kubernetes-1.0.3-0.2.gitb9a88a7.el7 ;
  • atomic-1.6-6.gitca1e384.el7 ;
  • python-websocket-client-0.32.0-116.el7 ;
  • python-docker-py-1.4.0-118.el7.

Saluons aussi l'arrivée d'un nouveau paquet : docker-distribution. Bien entendu, Red Hat met aussi à jour toutes les images Atomic Host (variante de RHEL 7 optimisée pour les conteneurs Docker) et Docker disponibles.

Réseau

Dans RHEL 7.2, rien de moins que la pile TCP/IP a été mise à jour. Elle est maintenant en version 3.18, et apporte en particulier DCTCP, ainsi que des corrections pour TCP fast open.

De nouvelles API fournies par le noyau, glibc et libpcap permettent d'obtenir un horodatage précis à la nanoseconde. Tcpdump en profite donc aussi, et dispose donc d'options liées à ces nouvelles possibilités, comme par exemple l'option --time-stamp-precision qui permet de modifier la précision de l'horodatage lors de capture de paquets.

NetworkManager dispose lui aussi de son lot d'évolution :

  • son interface avec libreswan a été mise à jour en 1.6, qui appporte plusieurs corrections ;
  • il est possible de paramétrer le MTU d'une interface résultant d'un agrégat (bonding) ;
  • une meilleure gestion des conflits de routage (par exemple deux interfaces ayant la même route) ;
  • une option 'never-default' qui empêche Network Manager de prendre le pas sur les commandes 'ip route add' ;
  • prise en charge de Wake On Lan.

Beaucoup d'autres évolutions sont présentes au sujet des connexions VPN, ainsi que d'autres dont le but est de diminuer le temps de traitement des paquets réseau.

Sécurité

La partie sur l'installation abordait l'intégration d'OpenSCAP à Anaconda. Ce n'était que le début. Celui-ci est maintenant disponible en version 1.2.5, et est accompagné de la version 0.1.25 de sa documentation associée, scap-security-guide. Ces mises à jour permettent de disposer de profils de sécurité actuels et variés, comme un système générique, ou une conformité avec PCI-DSS v3.

SELinux se voit ajouter de nouvelles politiques, qui sont destinées à être utilisées par Red Hat Gluster Storage. En effet, jusqu'à RHEL 7.1, Gluster ne pouvait pas fonctionner lorsque SELinux était en mode Enforcing (sauf à créer soi-même les politiques).

Enfin, il est maintenant possible de désactiver les algorithmes d'échanges de clé GSSAPI, suite à la faille logjam.

Haute-disponibilité

RHEL 7.2 apporte aussi quelques améliorations de ce côté. On appréciera ainsi que systemd et pacemaker s'entendent mieux lors d'un arrêt système. Auparavant, ce manque de coordination provoquait un mauvais arrêt des ressources déclarées dans pacemaker.

Toujours du côté des ressources, les commandes pcs resource move et pcs resource ban affichent maintenant un avertissement afin de clarifier leur comportement. En effet, ces commandes créent des contraintes de localisation qui empêchent une ressource de fonctionner sur une machine donnée, lesquelles ne sont pas toujours claires.

Enfin, dans le cas du fencing, qui permet de cloisonner une ressource indisponible, parfois en effectuant un redémarrage électrique du serveur hébergeant la ressource en question, un correctif permet de redémarrer les deux alimentations d'un système redondé électriquement.

Authentification et interopérabilité

Comme pour RHEL 6.7 et 7.1, ces deux thèmes sont regroupés dans les notes de version. Pour cette version, on remarquera la montée de version d'OpenLDAP, qui passe en version 2.4.0. Au-delà des corrections de bogues, cette version apporte des améliorations, dont l'ajout des règles ORDERING aux descriptions d'attribut policy.

Côté SSSD, il y a plein de choses :

  • un mécanisme de cache est disponible, même en mode en-ligne ;
  • on peut faire correspondre un utilisateur à un UID et GID spécifique ;
  • SSSD peut maintenant interdire un accès SSH à un compte verrouillé ;
  • prise en charge des cartes smart card pour l’authentification locale ;
  • et bien d'autres encore !

NSS n'est pas en reste, avec l'activation de TLS 1.1 et 1.2 par défaut, la prise en compte des certificats ECDSA, ainsi que la possibilité pour les clients OpenLDAP de choisir leur cipher suite par défaut.

Un nouvel utilitaire fait son apparition : ipa-winsync-migrate. Son rôle est de réaliser une migration d'une intégration utilisant WinSync à une intégration utilisant Active Directory. L'utilitaire migre automatiquement les utilisateurs WinSync dans une forêt Active Directory.

Enfin, on soulignera l'arrivée de Ipsilon, un logiciel permettant d'intégrer les protocoles de fédération web comme SAML, OpenID ou Persona. Bien que n'étant présent qu'en avant-première technologique pour le moment, le logiciel est déjà utilisé notamment par le projet Fedora pour offrir une authentification centralisée de type SSO depuis plusieurs mois. De plus en plus de produits SaaS tels que Google Apps ou Office 365 prennent en charge SAML, c'est donc une solution arrivant à point nommé.

Environnement de bureau

Accrochez-vous ! Dans ce thème, il y a du lourd, du très lourd : rien de moins qu'une mise à jour de Gnome. On ne parle pas d'une version corrective, du genre 3e chiffre, mais d'un 2nd. Arrive donc Gnome 3.14, avec en cadeau bonus, quelques ajouts de la version 3.16. Pour mémoire, RHEL 7.0 et 7.1 contenaient Gnome 3.8. Bien entendu, Gnome est accompagné d'une version de GTK+ correspondante.

Ce saut dans les versions de Gnome apporte, entre autres :

  • GNOME Software, bien entendu associé à yum pour installer les logiciels ;
  • le menu "Statut système", regroupant certaines informations systèmes jusqu'alors séparées ;
  • l'affichage d'un menu d'authentification dans le cas d'une connexion à un hot-spot Wi-Fi.
Développement

Démarrons cette dernière partie en abordant la gestion de code source, en particulier l'utilisation de Subversion : il est maintenant compilé avec RELRO (Read-Only RELocation data), ce qui apporte une protection contre des attaques basées sur une corruption de la mémoire. Si des failles de ce type venaient à être découvertes, elles seront(seraient ?) par conséquent plus difficiles à exploiter.

Côté Java, OpenJDK 7 prend maintenant en charge les algorithmes basés sur les courbes elliptiques dans le cas de connexions TLS. Red Hat précise dans ses notes de version que ces algorithmes sont dans la plupart des cas préférables aux anciennes solutions cryptographiques pour créer des connexions réseau sécurisées.

On terminera cette partie en abordant le langage Python, qui se voit lui aussi amélioré d'un point de vue sécurité. Tout d'abord, un certain nombre de fonctionnalités de sécurité sont ajoutées à la bibliothèque standard, lesquelles sont décrites dans le PEP 466. On citera, entre autres, l'apparition de SNI (Server Name Indication), de nouveaux protocoles TLSv1.x, ainsi que de nouveaux algorithmes de hachage dans le module hashlib. Un autre PEP mis en place dans RHEL 7.2 est le 493, qui concerne la vérification certificats SSL/TLS.

Appel à volontaires

Cette dépêche, contrairement à celle sur le noyau, ne mobilise pas de nombreuses personnes lors de sa rédaction, et cela commence à peser sur le moral de votre serviteur (qui avait beaucoup apprécié les apports des 13 contributeurs à la dépêche sur RHEL 7.0) et dont le temps disponible baisse pour celles-ci (alors que l'actualité autour de Red Hat et de certains produits upstream est, au contraire, en hausse : on notera par exemple l'absence de dépêche sur les dernières versions de Katello, ou des avancées de CentOS).

Si vous souhaitez apporter votre pierre à l'édifice, sachez que Red Hat publie plusieurs mois avant une RHEL stable une version bêta, accompagnée de notes de version, généralement assez proches de la version finale (à quelques rares exceptions près). Créer un squelette de dépêche RHEL est simple et généralement réalisé par mes soins dès que j'apprends la disponibilité de la bêta.

Télécharger ce contenu au format Epub

Lire les commentaires

FusionDirectory 1.0.9.2 est sorti

Lundi 11 Janvier

L’équipe de FusionDirectory est heureuse de vous annoncer la publication de la version 1.0.9.2 de FusionDirectory. Pour ceux qui ne connaissent pas FusionDirectory, il s’agit d’un gestionnaire d’infrastructure. Il est à LDAP ce que Webmin pouvait être à NIS/NIS+ : une interface Web modulaire de gestion complète d’un annuaire LDAP. Sa modularité permet d’offrir aussi la gestion de services qui ne sont pas directement interopérables avec LDAP.

La 1.0.9.2 version dispose de nouvelles fonctionnalités importantes, quelques correctifs majeurs ainsi que mineurs.

Nouvelles fonctionnalités :

  • FusionDirectory intègre maintenant le support CAS ;
  • le système de réinitialisation de mot de passe regarde maintenant l'attribut supannMailPerso si le greffon supann est installé ;
  • le greffon SSH gère les clefs publiques de type ecdsa-sha2-nistp256 ;
  • FusionDirectory a maintenant la possibilité de générer des mots de passe aléatoires lors de l'utilisation de templates ;
  • la gestion de Argonaut dans FusionDirectory a été réécrite ;
  • la possibilité de lister tous les tab qui sont actifs sur un objet a été rajoutée à FusionDirectory-shell.

Principaux correctifs :

  • les dernières classes du greffon FAI ont été migrées vers notre API simplePlugin ;
  • lors de la migration d'utilisateurs avec fusiondirectory-setup –migrate-users, il peut maintenant migrer des utilisateurs qui ont des attributs samba ;
  • dans un cas bien particulier l'utilisateur était effacé lorsqu'on le changeait de branche en raison de la présence d'objectClass obsolètes ;
  • l'onglet FAI ne contient plus d'options pour le noyau ;
  • l'effacement des boites de messageries à travers cyrus et sieve fonctionne à nouveau ;
  • le greffon FusionInventory a été amélioré.

Corrections mineures :

  • le greffon SSH accepte maintenant des clefs avec des espaces dans les commentaires ;
  • les listes dans le greffon Supann sont triées en ordre alphabétique ;
  • la méthode de messagerie Cyrus Sendmail n’était plus utilisée et a été supprimée ;
  • la méthode FAI d'Argonaut a été nettoyée.

Greffons supprimés :

Le greffon rsyslog n'est plus géré : il nécessitait un backend SQL et n’était plus vraiment utilisé.

Télécharger ce contenu au format Epub

Lire les commentaires

Comment j’en suis venu à découvrir Linux, par Ian Murdock

Lundi 11 Janvier

Ian Murdock est l’initiateur de la distribution Debian GNU/Linux. C’est à ce titre qu’il est mondialement connu. Il nous a malheureusement quitté le 28 décembre 2015.

Au mois d’août 2015, il a raconté comment il avait découvert les logiciels libres. Cet article, publié le 17 août sur son blog, sonne comme le début d’un testament qu’il aurait voulu rédiger.

Ce témoignage, comme celui de Linus Torvalds, montre comment, il y a plus de 20 ans, on découvrait les logiciels libres. À cette époque, Internet naissait et allait changer le monde…

Découvrez la traduction du blog de Ian dans la seconde partie de l’article (version originale publiée sous CC by 4.0).

Sommaire Comment j’en suis venu à découvrir Linux

Par Ian Murdock, 17 août 2015

J’ai vu ma première station Sun à l’hiver 1992, alors que j’étais en premier cycle à l’Université Purdue. À ce moment, j’étais étudiant à la Keanner School of Management, et un amour d’enfance pour les ordinateurs fut ravivé par un cours obligatoire de programmation informatique que j’ai suivi durant le semestre d’automne (nous avions le choix entre le COBOL et le FORTRAN — qui même en 1992 semblait très démodé — et j’ai donc pris le COBOL qui me paraissait être le plus « business » des deux).

À peu près dix ans auparavant, mon père, un professeur d’entomologie à Purdue, avait remplacé au travail sa machine à écrire par un Apple II+. Pensant que son fils de neuf ans pourrait s’éclater avec, il l’apporta à la maison un week-end avec un jeu ressemblant à Space Invaders qu’il avait acheté au ComputerLand local. J’ai passé des heures sur cet ordinateur ce week-end-là. J’accompagnais bientôt Papa au labo à chaque opportunité pour passer autant de temps que possible sur l’ordinateur.

Étant un garçon de neuf ans, j’étais attiré au début, de façon prévisible, par les jeux et l’intérêt que je leur portais me conduisit à ma première exposition à la programmation : des magazines d’informatique qui incluaient des listes de code de jeux très simples, que je tapais laborieusement dans l’Apple — et après des heures de travail, j’espérais n’avoir fait aucune erreur (l’Apple II, au moins au sortir de la boîte, utilisait un simple éditeur ligne par ligne, par conséquent revenir en arrière et effectuer des changements était très fastidieux, sans mentionner en premier lieu la recherche d’erreurs).

Peu de temps après, j’ai rencontré Lee Sudlow tandis que je traînais au labo les week-ends. Lee était un des étudiants de deuxième cycle de Papa et avait commencé à utiliser l’Apple pour l’appuyer dans ses expériences. Lee était toujours heureux d’expliquer ce qu’il faisait, alors que je lui tournais autour zyeutant au-dessus de son épaule, son obligeance était sans doute motivée — au moins en partie — par le fait que le morveux de neuf ans scrutant chacun de ses gestes était le fils de son conseiller académique. Ne me rendant pas compte de ce genre de choses, je le regardais avec fascination taper du code dans l’Apple — code qu’il inventait lui-même, et non qu’il lisait dans un magazine informatique.

Entre l’apprentissage par l’exemple à travers l’étude du code des magazines et la tutelle occasionnelle de Lee, j’écrivais peu de temps après des jeux et autres programmes simples, d’abord en Applesoft BASIC et plus tard en assembleur pour 6502. Pour encourager mon intérêt croissant, Papa finit par acheter un Apple IIe pour la maison, et mon histoire d’amour avec l’informatique continua pendant plusieurs autres années. Néanmoins, en entrant dans mes années d’adolescence, l’ordinateur fut progressivement remplacé par des choses plus pressantes, comme le baseball, la musique, les filles, et au milieu des années 1980, la poussière s’amassait sur l’Apple dans le placard de ma chambre aux côtés de mes collections de romans Les Frères Hardy et de figurines Star Wars.

Mon obsession pour l’informatique est restée dormante durant les six années suivantes, jusqu’à ce qu’elle soit réactivée fortuitement durant ce cours de COBOL à l’automne 1992. Lorsque le cours se termina, j’ai naturellement perdu mon compte sur l’ordinateur central IBM 3090 sur lequel nous effectuions nos exercices et travaux de laboratoire. Heureusement, en tant qu’étudiant, j’avais droit à un compte personnel sur l’une des machines du centre informatique de l’université, soit l’IBM soit l’un des trois mini-ordinateurs Sequent Symmetry qui tournait sous DYNIX, une variante du système d’exploitation UNIX. Un ami m’a convaincu qu’UNIX était plus intéressant et avait davantage un brillant avenir que les machines virtuelles et moniteurs conversationnels d’IBM ; j’ai donc suivi son conseil, et je fis une demande pour un compte sur l’une des machines Sequent. La semaine suivante, j’étais le fier titulaire d’un compte sur sage.cc, complété par l’allocation princière de 500 kilo-octets d’espace disque. (Oui, je suis sarcastique — 500 kilo-octets est un espace misérable même pour 1992. J’ai fini par trouver des moyens d’y faire face).

J’eus un appétit vorace pour UNIX cet hiver. Je passais la plupart de mes soirées dans le sous-sol du bâtiment des mathématiques me prélassant dans la phosphorescente lueur verte des terminaux Z-29, explorant dans les moindres recoins le système UNIX. Un silence sinistre régnait dans ces salles de terminaux, où seul le son du clac, clac, clac de quelques douzaines de claviers persistait, interrompu parfois par un occasionnel chuchotement « Hé, regarde ça… »
Souvent, après une nuit d’exploration, je quittais le bâtiment par un détour pour passer devant une fenêtre de verre plat derrière laquelle le centre informatique abritait ses machines. Je contemplais avec émerveillement le Sequent Symmetry de la taille d’un réfrigérateur que je venais d’utiliser, je scrutais ses lumières clignotantes en sachant que des centaines de personnes se trouvaient encore à l’intérieur, même si ce n’était que virtuellement, grâce à la magie du temps partagé, une technique que les ordinateurs avancés utilisaient pour diviser la puissance de calcul de la machine entre plusieurs utilisateurs, fournissant l’illusion à chacun d’entre eux d’être le seul et l’unique à l’exploiter. Par-dessus tout, j’observais avec envie les opérateurs système assez privilégiés pour s’asseoir de l’autre côté de la fenêtre maniant dans la console le pouvoir tout-puissant du « superuser ».

Insatisfait par les Z-29, je commençais à rôder autour du campus la nuit tombée avec un ami, Jason Balicki, pour voir ce qui pouvait être trouvé d’autre. Jason suivait depuis quelques années le parcours des sciences informatiques, il savait donc où chercher (même si nous faisions nos explorations — cela faisait partie du plaisir — en entrant la nuit dans les bâtiments et en essayant les poignées des différentes salles, qui semblaient contenir des ordinateurs, pour voir si elles étaient restées ouvertes).

J’ai appris que les meilleurs labos se trouvaient dans le bâtiment de « management des sciences de l’ingénieur » (connu sur le campus par son malheureux acronyme, ENAD), où plusieurs salles de terminaux X offraient une interface graphique noir et blanc aux Sequent et autres machines UNIX du campus. Bientôt, mon lieu préféré de « hacking » (un terme que Jason me fit découvrir) se trouva dans un des laboratoires de terminaux X, qui étaient techniquement réservés aux seuls étudiants en ingénierie, une restriction qui n’était protégée par aucun mot de passe — et que nous ignorions scrupuleusement.

Mais la richesse du bâtiment de l’ENAD se trouvait dans ses laboratoires de stations de travail SUN. Contrairement aux modestes Z-29 et même aux terminaux X comparativement avancés, les SUN étaient des œuvres d’art, avec leurs boîtiers aux lignes pures et leurs écrans couleur haute résolution. Jason exposait en outre qu’ils faisaient tourner le meilleur UNIX existant, SunOS, même si les SUN étaient considérablement mieux verrouillés que les terminaux X, exigeant un compte sur le réseau du département d’ingénierie pour y accéder ; je n’ai donc pas eu l’opportunité de me servir vraiment de SunOS avant un bon moment.

J’accédais également à UNIX depuis la maison via mon ordinateur basé sur un Intel 80286 et un modem 2400 bauds, qui m’épargnait une longue marche vers le labo d’informatique à travers le campus, particulièrement les jours de grand froid. Être capable d’accéder au Sequent depuis la maison était génial, mais je voulais reproduire l’expérience des terminaux X du bâtiment de l’ENAD. De la sorte un jour, en janvier 1993, j’entrepris de trouver un serveur X qui aurait pu tourner sur mon PC. Au cours de cette recherche sur Usenet, je suis tombé sur quelque chose nommé « Linux ».

Linux n’était pas un serveur X bien sûr, mais c’était quelque chose de bien mieux : un système d’exploitation complet pour PC ressemblant à UNIX, quelque chose que je n’avais même pas pu envisager et qui existait bien. Malheureusement, il réclamait au minimum un processeur 386, et mon ordinateur n’avait qu’un 286. J’ai commencé alors à mettre des sous de côté afin d’acquérir une machine suffisamment rapide pour le faire fonctionner, et pendant que j’économisais, je dévorais tout ce que je trouvais sur l'objet de mon désir. Quelques semaines plus tard, je postais un message sur le groupe Usenet d’informatique de Purdue demandant si quelqu’un sur le campus utilisait Linux — et je reçus une réponse d’un étudiant en informatique, Mike Dickey, qui m’invita volontiers à venir voir son installation Linux.
Empli d’inspiration, j’ai acheté une boîte de trente disquettes et j’ai commencé le lent processus de téléchargement de Linux sur celles-ci depuis une salle d’informatique du bâtiment Krannert, même si je devais encore patienter un mois de plus avant de pouvoir m’offrir un ordinateur capable d’effectuer une telle installation. Finalement, je n’ai pas pu attendre. Jason et moi avons trouvé dans l’une des résidences une salle d’informatique, qui n’avait pas été fermée, contenant un seul PC et, un soir de février, au milieu de la nuit, nous nous sommes mis à installer Linux sur cet ordinateur. Je me demande encore parfois ce qu’a dû penser l’étudiant malchanceux arrivé en premier le lendemain matin.

Le noyau Linux avait été créé environ une année et demie auparavant par Linus Torvalds, un étudiant de vingt-et-un ans en premier cycle d’informatique à l’Université d’Helsinki. Passionné par les ordinateurs depuis longtemps, Torvalds avait suivi un parcours à peu près similaire au mien, cependant il avait commencé son parcours en programmation sur un Commodore Vic-20, et n’avait pas été distrait par les intérêts traditionnels d’un adolescent durant les années 1980. La première exposition de Torvalds à UNIX datait de 1990 durant un cours universitaire et, comme moi, ce fut le coup de foudre au premier regard.

Durant l’automne de la même année, Torvalds suivit un cours sur les systèmes d’exploitation qui se basait sur le livre Operating Systems: Design and Implementation d’Andrew Tanenbaum, un professeur d’informatique de l’Université libre d’Amsterdam. L’ouvrage de Tanenbaum enseignait les systèmes d’exploitation par une série d’exemples au travers d’un clone d’UNIX pour PC qu’il avait écrit, nommé MINIX ; son livre contenait le code source complet de MINIX — le code de programmation humainement lisible (et modifiable) — ainsi qu’une série de disquettes pour que les lecteurs puissent installer, utiliser, et modifier le système d’exploitation.

Intrigué, Torvalds acheta un PC au début de l’année 1991, et rejoignit la communauté MINIX en plein essor, des dizaines de milliers de membres compétents largement réunis par le groupe de discussion Usenet comp.os.minix. Il commença alors non seulement à expérimenter MINIX mais aussi les nouvelles capacités de commutation de contexte du processeur Intel 80386 de son ordinateur. (La commutation de contexte facilite le fonctionnement de plus d’un programme à la fois sur le processeur, l’un des prérequis d’un système à temps partagé comme celui du Sequent Symmetry, que j’allais découvrir l’année suivante à Purdue). Durant l’été 1991, les expériences de Torvalds avec la commutation de contexte commençaient à évoluer en un noyau de système d’exploitation à part entière, la pièce maîtresse du code d’un système d'exploitation permettant l’accès au processeur, à la mémoire, aux disques ainsi qu’aux autres composants de l’ordinateur, et qui fournit une interface simplifiée à ces fonctions informatiques, qui permettent à des applications complexes d’être écrites plus aisément (Glyn Moody, Rebel Code: Inside Linux and the Open Source Revolution, Basic Books, 2002, p. 8, 13, 32-42).

MINIX n’était pas le seul projet existant de système d’exploitation animant les amateurs en 1991, bien qu’il fût l’un des rares à être suffisamment complet pour être utilisé, et l’un des seuls à pouvoir fonctionner sur un modeste ordinateur. Le projet de système d’exploitation le plus connu jusque-là était GNU, présidé par Richard Stallman. Ce dernier, qui programmait depuis le milieu des années 1960 et qui a été développeur système au MIT de 1971 à 1983, était un « hacker » de la vieille école, un individu qui s’implique dans l’informatique pour l’amour même de l’informatique, parfois aussi de façon militante (comme pour Stallman), et pour la croyance que toute information devrait être librement partagée.

Le but du projet GNU était de produire un système d’exploitation libre (non seulement gratuit, mais aussi libre dans le sens qu’il serait librement modifiable) compatible avec UNIX (GNU était une sorte d’acronyme récursif pour « GNU’s Not UNIX », une sorte parce que cette dénomination employait une technique puissante souvent utilisée par les programmeurs appelée récursion, qui implique un calcul s’utilisant lui-même comme l’une de ses variables). Stallman lança le projet GNU en 1983 en réponse au marché fleurissant du logiciel propriétaire, dans lequel le code source n’était pas modifiable, et le plus souvent même inaccessible.

Le logiciel propriétaire était un fait relativement nouveau au début des années 1980 et, pour Stallman, une évolution très perturbante. Jusqu’à cette époque, les logiciels étaient pour la plupart distribués librement avec le matériel informatique, et les hackers partageaient souvent des copies de ce code source avec leurs propres modifications et améliorations. Stallman considérait cette tendance grandissante favorisant le logiciel propriétaire tout simplement comme le premier pas vers un 1984 numérique, où les utilisateurs d’ordinateurs, et finalement toute la société, seraient maintenus prisonniers par les intérêts cupides d’entreprises commerciales, et il était déterminé à stopper ce mouvement.

À la mi-1991, Stallman et un groupe informel de volontaires avaient assemblé quasiment l’ensemble du système d’exploitation GNU — un compilateur, un débogueur, un éditeur, un interpréteur de commandes (ou « shell »), et une variété d’outils et de bibliothèques qui ressemblaient à UNIX, mais en mieux — les versions du projet GNU étaient presque universellement considérées comme supérieures à celles de son éponyme. La seule pièce manquante était le noyau, et une petite équipe venait d’être formée pour écrire ce dernier élément à la Free Software Foundation de Stallman, une organisation à but non lucratif qu’il avait créé en 1985 pour superviser le développement de GNU et servir d’une certaine manière de gardien du logiciel libre. Les hackers à travers le monde pensaient qu’il ne s’agirait que d’une question de temps avant que GNU soit achevé et disponible, et qu’ils disposent enfin d’un système d’exploitation libéré du fardeau propriétaire.

À l’autre bout de la planète, le noyau de système d’exploitation de Torvalds devenait suffisamment complet pour être distribué au monde entier. Dans un message aujourd’hui célèbre publié sur comp.os.minix le 25 août 1991, Torvalds écrivit :

Bonjour à tous ceux qui utilisent minix -

Je suis en train d’écrire un système d’exploitation (libre) pour des compatibles PC-AT 386/486 (juste un hobby, ça ne sera pas grand et professionnel comme GNU). Cela mijote depuis avril, et ça commence à être prêt. J’aimerais bien avoir des retours sur les choses que les gens aiment ou non dans minix, comme mon système y ressemble d’une certaine manière (même conception du système de fichiers (pour des raisons pratiques) parmi d’autres choses).

La réponse fut immédiate et très enthousiaste. Alors que tout le monde s’attendait à ce que GNU soit terminé de façon imminente, il n’était toujours pas disponible, au moins dans une forme qui aurait pu être utilisée sans une base échafaudée à partir d’UNIX. Et même si MINIX était populaire, il n’était pas gratuit, bien qu’il fût peu coûteux en comparaison des autres systèmes UNIX. Mais peut-être le plus important, MINIX était conçu d’abord comme une aide à l’enseignement, et non comme un logiciel de production. Tanenbaum avait donc horreur d’inclure les nombreux patchs et modifications du système d’exploitation qui étendaient ses capacités, qu’il recevait massivement tous les jours de hordes de passionnés du monde entier, craignant que leur ajout ne rende MINIX trop compliqué et, en conséquence, plus difficile à comprendre pour ses étudiants.

L’appât que représentait un système d’exploitation pour PC similaire à UNIX, aussi imparfait soit-il, libre et pouvant évoluer à la vitesse souhaitée par sa communauté, était une trop grande tentation pour beaucoup d’utilisateurs MINIX, qui se réunirent rapidement en nombre autour du nouveau système de Torvalds, surnommé à l’automne 1991 « Linux ». Mais Linux n’était qu’un noyau — il nécessitait en plus l’installation d’une variété d’outils et d’applications pour qu’il puisse effectivement faire quelque chose. Heureusement, la plupart de ces outils existaient déjà grâce au projet GNU de Stallman.

En 1992, quelques utilisateurs intrépides débutèrent le rassemblement de collections d’images disquettes qui combinaient Linux et la chaîne d’outils GNU afin de faciliter le fonctionnement du système et l’émergence de nouveaux utilisateurs. Ces collections (plus tard nommées « distributions ») s’amélioraient progressivement, et au moment où j’acquis finalement mon PC en mars 1993, la distribution Soflanding Linux System (ou SLS) s’était développée en une trentaine de disquettes et incluait maintenant une quantité d’applications — et oui, également un logiciel identique à celui qui faisait fonctionner les terminaux X du bâtiment de l’ENAD.

Quoi qu’il en soit, je n’ai jamais trouvé le temps d’essayer de me connecter depuis mon PC au serveur X basé maintenant sur Linux du Sequent, ce qui aurait été terriblement lent à 2400 bauds — plusieurs milliers de fois plus lent que la vitesse actuelle. Je disposais à présent d’un UNIX rien qu’à moi, un UNIX que je pouvais explorer juste là, sur mon bureau. Et cette exploration je l’ai faite, dans un véritable cours intensif UNIX. Lorsque je me suis remis de l’excitation d’être le « superuser », cette puissance indicible que je n’avais pu auparavant qu’admirer au travers d’une vitre, je suis devenu captivé non pas tellement par Linux lui-même mais par le processus qui l’a vu naître — des centaines d’individus hackant depuis leur petit coin du système et utilisant Internet pour échanger du code, et lentement mais sûrement améliorer le système grâce à chacune des modifications.
J’ai alors entrepris de faire une contribution personnelle à cette communauté grandissante, une nouvelle distribution appelée Debian qui serait plus facile d’utilisation et plus robuste, parce qu’elle serait construite et maintenue collaborativement par ses utilisateurs, un peu comme Linux.

Mise à jour

Le 21 août 2015

Wow. La réponse à mon dernier article How I came to find Linux a été fulgurante.

Peut-être est-ce parce que j’ai relu pour la énième fois Hackers de Stephen Levy, mais je pense que le récit de notre génération doit être raconté. C’était réellement une période différente par rapport à celle d’aujourd’hui — les capacités de calcul et de stockage étaient très peu abondantes ; la connectivité était rare, pas du tout répandue ; et l’idée d’un monde de l’information organisé et universellement accessible restait de la science-fiction.

Je ne suis pas sûr de la forme que prendra finalement cette histoire. Cela pourrait être un livre, une suite dans l’esprit de Hackers (ce qui serait certainement une manière appropriée d’y penser, puisque Hackers se termine avec un jeune Richard Stallman fondant le projet GNU, et le récit de notre génération débute justement à ce moment). Cela pourrait être un podcast, notre version de The Glory of Their Times. Cela pourrait juste être une série d’essais comme celui que j’ai écrit. Quel que soit le format choisi, cette chose que je pense comme un « Projet de l’histoire du libre » est en train de prendre forme.

Avant que je ne perde trop de temps dans cette idée, je pensais malgré tout vous soumettre ce projet.

Quelqu’un d’intéressé  ?

-ian

Télécharger ce contenu au format Epub

Lire les commentaires

Sortie de WinCompose 0.7.5

Dimanche 10 Janvier

TL;DR : j’ai écrit un logiciel libre pour Windows pour avoir une touche Compose et qui est franchement bien foutu, essayez-le.

J’utilise Linux depuis 20 ans, mais mon travail m’amène à souvent utiliser Windows. La pauvreté de l’offre en matière de configuration du bureau (window manager et mécanismes d’input) est une source de frustration infinie et un frein certain à ma productivité par rapport à mon utilisation d’Unix, et je ne pense pas être le seul.

NdM : Sam Hocevar est un développeur français (re)connu pour son implication et ses contributions multiples au logiciel libre (VideoLAN, Debian, libcaca, Wikimedia, etc.).

Une de mes exigences est de pouvoir écrire du texte typographiquement correct dans différentes langues sans efforts inutiles, notamment les majuscules accentuées ou ligaturées (É Â Ç Ñ Æ) et les guillemets et autres caractères de ponctuation (« » “ ” ‘ ’ … ¿ ¡ —) mais aussi certains symboles plus ou moins utiles (© ™ € ♥ ¶ × → · ½ ⅓ ¼ ±).
L’existence du tableau de caractères spéciaux à copier-coller sur LinuxFr.org témoigne que c’est un problème pour un grand nombre, même dans des communautés très informées techniquement.

Je suis habitué à utiliser ma touche Alt de droite en tant que touche Compose sous Xorg. Pour ceux qui ne connaîtraient pas, cette touche active un mode où les caractères suivants vont être « composés » ensemble de manière plus ou moins naturelle:

  • Compose A E → Æ
  • Compose + - → ±
  • Compose / o → ø

Ce n’est donc pas pour moi uniquement une question d’habitude, c’est aussi parce que c’est :

  • facile : aucune habitude à changer, pas de layout exotique à apprendre ;
  • intuitif : pas assez de place dans mon cerveau pour retenir que ¢ c’est Alt·1·5·5 ou Ctrl·Shift·U·+·2·3·c (véridique) alors que je peux faire Compose·|·c ;
  • rapide : je tape vite ; pas envie d’attendre qu’un petit menu apparaisse pour choisir mon caractère.

Sous Windows, ayant essayé AllChars, Unichars, FreeCompose, CKFW, et compose-key, je n’ai jamais retrouvé le même confort que sous Xorg. C’est pourquoi j’ai commencé à écrire WinCompose il y a deux ans, sous licence WTFPL évidemment. Je n’utilise plus que ça.

Les principaux points forts en sont :

  • léger, discret, pas intrusif, configurable, désactivable, …
  • utilisation directe des règles de composition de Xorg pour être à l’aise tout de suite ;
  • traduit collaborativement, ou en train d’être traduit, en 25 langues ;
  • une interface graphique donne accès à la liste de toutes les séquences possibles :

Voilà, je me suis dit que ça pourrait en intéresser certains. J’ai assez peu d’utilisateurs, parce que je ne spamme pas tous les sites d’annonces, mais aussi tout simplement parce que c’est typiquement le genre d’outil dont on sait rarement a priori qu’il pourrait nous servir. Je suis à la recherche de plus d’utilisateurs pour ① faire des heureux, et ② avoir du feedback pour améliorer le logiciel.

Si vous voulez troller en m’expliquant que je devrais plutôt utiliser un TypeMatrix avec la variante expérimentale néo-allemande de bépo, faites-vous plaisir aussi, c’est open bar !

Télécharger ce contenu au format Epub

Lire les commentaires

Pages