Linux France

S'abonner à flux Linux France
Mis à jour : il y a 27 min 11 sec

Le groupe de travail sensibilisation de l'April publie une nouvelle version de l'Expolibre

Mercredi 10 Février

La première version de l'Expolibre lancée en 2006 par le réseau de la Ligue de l'enseignement dans les Alpes du sud, l'association Linux-Alpes et APITUX a rencontré un franc succès. En 2008, le groupe sensibilisation de l'April publiait une deuxième version disponible en format ouvert, notamment grâce au travail de François Poulain. Pour les 10 ans de l'Expolibre, nous vous proposons une exposition entièrement renouvelée, tant dans sa forme que dans son contenu, sous la houlette d'Antoine Bardelli.

Les observateurs les plus attentifs avaient pu l’apercevoir en avant première sur le stand de l'April à l'occasion du Village du Libre pour Alternatiba Ile-de-France 2015. Pour permettre aux groupes d'utilisateurs de Logiciels Libres, aux espaces publics d'accès à Internet, aux bibliothèques, aux médiathèques, aux clubs informatiques, et à toutes les associations intéressées d'en profiter à l'approche du Libre en Fête, l'April publie aujourd'hui une nouvelle version de l'Expolibre.

Expolibre est une exposition itinérante expliquant les logiciels libres au grand public. Au travers des différents thèmes abordés, ces panneaux présentent la philosophie du logiciel libre, mouvement qui se développe depuis le début des années 1980. L'objectif est de sensibiliser aux enjeux de société liés à cette révolution informatique. Dans l'esprit du logiciel libre, cette exposition est « libre » et nous vous invitons à la télécharger pour la diffuser le plus largement, la copier, l'exposer et bien sûr l'adapter à vos besoins. Les panneaux imprimés sur bâches grand format seront également prochainement proposés à la location.

C'est une grande satisfaction pour l'April de mettre à disposition ce nouvel outil de promotion du logiciel libre.

Télécharger ce contenu au format Epub

Lire les commentaires

Retour sur le FOSDEM 2016 à Bruxelles

Mercredi 10 Février

La 16e édition du FOSDEM a eu lieu le week-end dernier à Bruxelles. Le FOSDEM est un des plus gros événements autour du logiciel libre dans le monde, et il cible un public très technique. FOSDEM signifie « Free and Open Source Software Developers' European Meeting » soit « rencontre européenne des développeurs de logiciels libres et open source ».

Cette dépêche revient sur l'événement, raconté principalement par les membres de la communauté XMPP ayant été présents.

Note : cette dépêche traite principalement de XMPP car ce sont les sujets suivis par les principaux contributeurs, les commentaires sont là pour compléter sur les autres sujets

Sommaire

Comme le FOSDEM attire beaucoup de monde d’un peu partout sur la planète, c’est souvent l’occasion pour différents projets d’organiser des rencontres entre ses développeurs et utilisateurs avant ou après l’événement.

XMPP summit 19

Le 19e XMPP « summit » (sommet) regroupant les membres de la communauté XMPP s’est ainsi tenu les jeudi et vendredi précédents le FOSDEM. Cisco nous a hébergés, en banlieue de Bruxelles.

MIX

La grande star de cette année a incontestablement été MIX (pour « Mediated Information eXchange » soit « échange modéré d'informations », anciennement appelé « MUC 2 »).

La XEP ou spécification XEP-0369 n'en est qu'à sa version 0.1 (état « expérimental »). Les progrès de la spécification ainsi que les implémentations, et par conséquent les boucles de retour sur expérience vont prendre du temps, sans doute quelques mois, sachant que les discussions ont permit de bien avancer.

Des débat ont eu lieux sur des sujets aussi importants que la façon d'envoyer des messages (normalement ou via un nœud Pubsub ?) ou plus amusants comme « comment doit-on appeler une entité MIX ? ». Cette dernière question a vu s'affronter les partisans de « room » (salle) et ceux de « channel » (canal). C'est a priori ce dernier terme qui sera retenu.

Chiffrement de bout en bout

Comme chaque année, c’est un peu le marronnier de la communauté XMPP, le chiffrement de bout en bout (E2E pour « end-to-end ») a été abordé, mais par une partie seulement des participants ; le sujet ayant été abordé à la fin, une grosse moitié a continué à discuter de MIX pendant que l’autre travaillait sur le chiffrement.

Le sujet principal était la proposition en cours de standardisation « OMEMO ». OMEMO acronyme récursif de « OMEMO Multi-End Message and Object Encryption », basé sur Axolotl. Nous avons également évoqué PGP, OTR, et aussi les proxys/mandataires re-chiffrants du futur.

PAM pour Pubsub Account Management

L'idée est de ne plus centrer XMPP sur le client, mais sur le compte, en d'autres termes sur le bare JID (user@domain) au lieu du full JID (user@domain/resource). La XEP n'est pas encore acceptée : XEP-xxxx: Pubsub Account Management.

Blogage décentralisé

Nous avons également traité des cas d'usage de XMPP autour du blogage avec une présentation du travail effectué cette année autour de PubSub.

Reconnection plus simple et plus rapide

Il est clair que XMPP a besoin d'un mécanisme de (re-)connexion beaucoup plus rapide et beaucoup plus simple. XEP-0305: XMPP Quickstart (statut deffered) était centré uniquement sur le pipelining.

Après un long inventaire des paquets échangés à l'initialisation, nous avons constaté leur nombre vertigineux, et les états d'attentes trop nombreux.

Quelques idées ont fait surface :

  • Retirer des paquets
    • connection directe au port 5223 en TLS, ce qui permet d'esquiver STARTTLS
    • utilisation de « TLS re-use »
  • Déplacer des paquets après que l'initialisation soit « terminée » (à définir)
  • Regrouper des paquets prêts à l'envoi côté client
  • Pipelining toujours
  • Reconnection basée sur des jetons (« tokens »)
Reconnection à base de jetons (« tokens »)

La reconnection sera (un peu) plus simple et donc (un peu) plus rapide, avec l'aide de jetons d'accès (« access token ») et jetons de rafraîchissement (« refresh token »), ceci étant très inspiré de OAuth. La XEP est proposée (discussion) et une implémentation serveur est d'ores et déjà disponible dans une branche de MongooseIM, dont le merge se fera pour la future version 1.7.0.

La salle des développeurs Real Time Openfire

Dave Cridland a évoqué le renouveau de la communauté de « Openfire », qui serait un des serveurs XMPP les plus populaires, et un des plus faciles à installer/administrer.

État de XMPP et de l'IM

Nicolas Vérité (Nÿco), Product Owner de MongooseIM, a présenté les 3 générations d'IM, le trou de la vague, et le grand nettoyage nécessaire. La conclusion étant que XMPP revient et est là pour rester.

XMPP au-delà des standards

Matthew Wild, développeur principal de Prosody, le serveur XMPP sans doute le plus en vogue, montre qu'il existe une vie XMPP au-delà des spécifications, et qu'il existe un mouvement à créer, centré sur les implémentations.

Moteur de blog décentralisé

Goffi, aussi nommé Jérôme Poisson, a montré via Libervia (Salut à Toi) que le blogage sur XMPP était possible, ajoutant les aspects temps-réel au concept, et aussi la résistance intrinsèque au spam. Il a également fait une présentation dans la « devroom » (salle à thème du Fosdem) Python sur l'utilisation de ce langage dans le projet.

Lightning de Movim

Timothée Jaussoin, surnommé edhelas, a donné une « lightning talk » (présentation éclair) sur Movim.

Free RTC (communications temps-réel libres)

Daniel Pocock a donné une conférence également intéressante dans le Main Track : il fait les mêmes constatations et propose les mêmes solutions que Matthew Wild et Nicolas Vérité, mais dans un contexte plus large, pas seulement dans le monde XMPP.

Real Time Lounge

Dans le village associatif, un espace « Temps-Réel » offrait de confortables coussins pour discuter ou geeker bien confortablement. Cela couvrait XMPP, SIP, WebRTC, mais aussi Ring et Matrix.

Les à-côtés

Le FOSDEM est avant tout une fantastique occasion de rencontrer beaucoup de gens intéressants, et une grande partie des discussions se font en dehors des conférences et des stands. Le « beer event » qui ouvre les festivités est particulièrement célèbre. Il y a des événements spécifiques organisés à l'occasion du FOSDEM, soit les jours précédents, soit les jours suivants.

Ainsi ce fut l'occasion pour une partie de la communauté Diaspora* de discuter avec une partie de la communauté XMPP, ou de rencontrer des membres de LinuxFr.org.

Par ailleurs Haiku

Si aucun stand Haiku n'était visible, trois conférences lui étaient consacrées, dans trois devrooms différentes : distros, desktop, BSD. La première a permis de montrer la gestion de paquets du système. La seconde a détaillé les différents toolkits disponibles sous Haiku (y compris Qt5). Enfin, la troisième entendait remercier la communauté BSD pour ce qu'elle a apporté à cet OS.

Les stands

De nombreux stands étaient bien sûr présents. Les classiques stands de distributions bien sûr (même si Debian se cachait bien), mais également ReactOS, la réécriture libre de Windows.

Le rez-de-chaussée du bâtiment K proposait les stands les plus renommés, dont celui de la FSFE.

À l'étage on trouvait également Perl (avec une mascotte à l'échelle 1/2, et des bouteilles de cuvée Perl), un stand OpenOffice ou encore des infos sur les programmes « Summer of Code » et « Code-In » de Google.

Télécharger ce contenu au format Epub

Lire les commentaires

Les journaux LinuxFr.org les mieux notés du mois de janvier 2016

Mercredi 10 Février

LinuxFr.org propose des dépêches et articles, soumis par tout un chacun, puis revus et corrigés par l'équipe de modération avant publication. C'est la partie la plus visible de LinuxFr.org, ce sont les dépêches qui sont le plus lues et suivies, sur le site, via Atom/RSS, ou bien via partage par messagerie instantanée, par courriel, ou encore via médias sociaux.

Ce que l’on sait moins, c’est que LinuxFr.org vous propose également à tous de tenir vos propres articles directement publiables, sans validation a priori des modérateurs. Ceux-ci s'appellent des journaux. Voici un florilège d'une dizaine de ces journaux parmi les mieux notés par les utilisateurs… qui notent. Lumière sur ceux du mois de janvier 2016, le mois où finalement un volontaire copie-colle les introduction des dépêches précédentes, porté par les résolutions de la nouvelle année.

Les 10 journaux les mieux notés pour janvier 2016 sont donc :

Télécharger ce contenu au format Epub

Lire les commentaires

LinuxMAO - Éditorial de février 2016

Mercredi 10 Février

Depuis le dernier éditorial de janvier 2016, il a du s'en passer des choses pour chacun d'entre vous. Pour le site de linuxmao.org les nouveautés sont : une joute musicale (la sixième) en cours, un nouvel admin' pour l'accueil des nouveaux arrivants, un record historique du nombre d'utilisateurs uniques ayant visité linuxmao.org, quarante-deux nouvelles inscriptions (ça va faire sourire les geeks ça :-) ), une mise à jour de Tiki (le système de gestion de contenus qui sous-tend le site linuxmao.org)… et pas mal d'autres choses à lire plus en détails ci-dessous.

Sommaire Quoi de neuf ?

Et oui, 42 nouvelles inscriptions sur le site, et donc un gros coucou à vous 42 : crapette, lili0809, Aynil44, blyzzard, Dubix, Airlen, Djachoum, DocOlivier, Soileh, papypom, kmouflages, kisimba, Dim, Wil, acces, tenryu, oviri, Ergory, Tabayo, Arkadi, cassius36, Lutin, Aks, Do14Qc, anarchlinux, Lme59, PATOUCH84, jp4662, Sooncacq, dadoudidon, rosbif, nicodudo, philippeg, File7, KMOMIX, mostagaga, dechichulien, eldritch, bissohm, Danychou, doc et Jimmy-S !

En parlant de nouveaux utilisateurs, Linuxmao a, depuis quelques jours, intégré une nouvelle personne dans les rangs de l'équipe d'administration. Plus précisément, un nouvel admin-accueil qui se nomme alfybe et qui prend donc en charge une partie de l'accueil des nouveaux arrivants sur le site. Bravo alfybe !

Musique sur linuxmao

Il est à noter que la joute musicale #6 est en cours : [Joute 6] Danse de minuit et qu'elle se finit dans une semaine, le 14 février à minuit. Toute participation est la bienvenue !

Autre chose plutôt très intéressante côté musique, Samuel vient de finir la production d'un album réalisé sous Linux et explique dans ce fil de discussion des éléments techniques et/ou artistiques qu'il a utilisés au niveau enregistrement, mixage et mastering. À lire de toute urgencetranquillité.

Et aussi, quelques morceaux ont été publiés, comme :

  • zebassprophet qui partage plusieurs morceaux enregistrés lors d'une "gamejam" dans le fil de discussion : ritual, morceau de gamejam,
  • Sakrecoer/Set qui partage son morceau : PinGnu,
  • et bluedid29/Didier qui présente un morceau de Noël : Noyeladidreg.
Musique en dehors de linuxmao

Voici une liste de lecture des morceaux déposés en janvier chez Dogmazic : Dogmazic janvier 2016. Le mois de janvier a été productif chez Dogmazic puisque nous parlons là de 73 nouveaux morceaux déposés dans l'archive.
(Note : pour lancer la lecture, cliquez en haut à gauche sur "Ajouter tout" puis sur le triangle de lecture dans le cadre qui apparaît sur la droite.)

Nouvelles du monde

La conférence Linux Audio (LAC) prévue n'aura finalement pas lieu dans sa forme habituelle cette année. Elle sera remplacée par une mini-LAC (lien en anglais) prenant place en Allemagne à Berlin entre les 8 et 10 Avril 2016.

Sur linuxmao

pianolivier et moi-même (olinuxx) avons mis Tiki (le logiciel SGC qui sous-tend le site linuxmao.org) à jour. Voir [FAIT] Mise à jour du CMS Tiki 12.2 -> 12.5.

Côté "documentation sur les matériels", le site et sa partie "Portail matériel", s'enrichit d'informations concernant les interfaces audio et/ou MIDI : Asus Xonar DGX, Mackie Onyx 1620i, Edirol UM 2, Yamaha AW1600, Terratec Phase 88 Rack FireWire, Yamaha AG06 et Focusrite Saffire 6 USB. Merci à tous les rapporteurs d'information de participer à ce portail ! Cela permet à de plus en plus de personnes de se faire une idée du matériel audio et/ou MIDI qui fonctionne, ce qui fonctionne à moitié, et ce qui ne fonctionne pas du tout sous GNU/linux.

Les chiffres habituels pour les curieux, pour le mois de janvier 2016, linuxmao.org a eu : 27 650 visiteurs uniques (c'est le record officiel depuis le début de l'aventure de ce site, le précédent record était de 26 093 visiteurs uniques pour le mois de janvier 2010), 527 350 pages servies, 2 220 832 hits, et 27,83 Go de bande passante utilisée.

Coté logiciel sur LinuxMAO
  • Le synthétiseur 6PM de m2v2 est passé en version 0.80.1.
  • À noter également la sortie officielle de LibraZiK qui est un projet de distribution audio pour débutant et en français.
  • Création et partage du logiciel et de sa page dédiée MidiTool4LazyPeople qui est développé par un membre de linuxmao : RoKN.
  • J'ai (olinuxx) réalisé une petite veille logicielle. Merci aux rapporteurs d'informations : jams, balthazar et pierrotlo entre autres.
  • Un gros, gros, gros travail en cours d'ardoisebleue sur les différentes pages de ZynAddSubFX. Il nous en dit :

au départ, je souhaitais réaliser un titre pour la joute 6 en utilisant exclusivement ZynAddSubFX pour créer des sons, mais, en explorant le logiciel, je me suis aperçu qu'un support technique en français serait le bienvenu. Je me suis donc décidé à approfondir les pages ZynAddSubFX Moteurs et ZynAddSubFX prise en main. D'ici quelques semaines, ces ajouts devraient être terminés ; laissant çà et là des commentaires à voir concernant les commandes et paramètres que je n'ai pu décrypter. À ce moment, je compte bien sur les utilisateurs avertis de ZynAddSubFX pour aller rectifier et augmenter cette documentation. À très bientôt. Ardoisebleue.

C'est bien l'esprit de linuxmao ça, merci ardoisebleue !

Côté logiciel en dehors de linuxmao

Quelques mises à jour (parmi d'autres, certainement), dont certaines sont intéressantes par le fait qu'elles arrivent plusieurs années après par rapport à la précédente; spécifiquement Tuxguitar qui s'offre une nouvelle version après 7 ans !

  • Qtractor vient d'être mis à jour en version 0.7.4 ;
  • Qmidiroute passe à la version 0.4 (après plus de 6 ans depuis la dernière version 0.3.0) ;
  • AMS passe à la version 2.1.2 (après presque 2 ans depuis la dernière version 2.1.1) ;
  • Yoshimi passe à la version 1.3.8.2 ;
  • seq24 passe à la version 0.9.3 (après plus de 5 ans depuis la dernière version 0.9.2) ;
  • AVlinux prépare une nouvelle version et annonce les versions précédentes comme obsolètes ; à noter que Glen MacArthur (le bonhomme derrière AVlinux) dit qu'il n'y aura que peu de travail d'empaquetage à présent et qu'il pense dorénavant AVlinux comme une distribution prête à rouler, conseillant l'utilisation des dépôts de KXstudio pour les applications additionnelles ;
  • Tuxguitar en version 1.3.1 (la dernière datait d'il y a 7 ans ! ) ;
  • Mixxx en version 2.0 ;
  • Ardour en version 4.6 ;
  • abcm2ps en version 8.10.1 ;
  • Yoshimi en version 1.3.8.2.
Post scriptum

Merci aux petits coups de main de ardoisebleue, programLyrique et sri_raoul pour la rédaction de cet éditorial.

Et bonne musique libre à vous !
olinuxx

Télécharger ce contenu au format Epub

Lire les commentaires

Lettre ouverte à Emmanuel Macron au sujet de la réforme de la formation professionnelle

Mardi 9 Février

Les professionnels du Logiciel Libre en France, ce ne sont pas que les développeurs ou les administrateurs, ce sont également les milliers de formateurs qui dispensent des formations spécialisées dans des domaines aussi variés que l'administration système Linux, la programmation shell, la tenue d'un blog professionnel, les techniques de référencement (SEO) ou encore l'utilisation de LibreOffice ou de Scribus.

Jusqu'en 2015, ces formations étaient le plus souvent prises en compte dans le cadre du DIF (Droit Individuel à la Formation), ce qui permettait par exemple aux salariés d'une entreprise ou d'une association de se faire subventionner voire financer intégralement leur formation, sans avoir à en assumer l'entière charge financière.

En 2015, la réforme de la formation professionnelle a mis un coup de hache dans un système qui fonctionnait pourtant très bien. Cette réforme est avant tout un immense gâchis, car elle met en péril la survie de tous les formateurs indépendants.

Fondateur de la société Microlinux et formateur indépendant dans le Gard, j'ai adressé une lettre ouverte au Ministre de l'Économie Emmanuel Macron pour dénoncer les effets catastrophiques de la réforme de la formation professionnelle.

Monsieur le Ministre de l'Économie,

Permettez que je vous tende ma carte de visite. Je m'appelle Nicolas Kovacs, je suis autrichien, j'ai quarante-huit ans, et je vis en France depuis 1991. Installé dans un petit village du Gard, j'ai créé mon entreprise de services informatiques Microlinux en 2009.

Lorsque François Hollande a été élu Président de la République en 2012, je faisais partie de ceux qui se réjouissaient et sabraient le champagne. Aujourd'hui, près de trois ans et demi plus tard, il ne reste malheureusement pas grand-chose de cette euphorie initiale.

Je m'adresse ici à vous au sujet de la réforme de la formation professionnelle. Réforme calamiteuse, qui consiste peu ou prou à rendre caduque toute formation qui n'est pas certifiante. Réforme funeste, qui fait que des milliers de formateurs indépendants mettent actuellement la clé sous la porte en France. Réforme contre-productive, car elle met en péril aussi bien l'emploi que l'accès à l'emploi dans notre pays.

Permettez que je revienne brièvement sur mon parcours de micro-entrepreneur :

En 2008, puisque je ne trouvais pas de travail dans une région notoirement sinistrée par le chômage, l'idée de créer mon propre emploi a commencé à germer petit à petit dans un coin de ma tête. Créer une entreprise spécialisée dans le logiciel libre (Linux), et qui installerait aux entreprises et aux collectivités locales de la région des réseaux informatiques ultra-stables, à coût réduit. Ce qui a été déterminant pour moi, c'était le statut d'auto-entrepreneur (au temps où celui-ci ne s'appelait pas encore "micro-entrepreneur") nouvellement instauré par le gouvernement de l'époque, notamment la simplification des démarches administratives par rapport aux statuts classiques trop contraignants pour tout créateur d'entreprise à envergure modeste. Mon entreprise informatique Microlinux a été créée le 3 août 2009. Un grand pas pour moi, un petit pas pour l'humanité.

Ces premières années "d'amorçage de pompe", j'ai travaillé sept jours sur sept, soixante-dix heures par semaine en moyenne, j'ai fait une croix sur les jours de repos, et si je n'ai pas jeté l'éponge, c'est que je dois beaucoup à ma ténacité habituelle et au soutien indéfectible de ma compagne. Aujourd'hui, près de sept ans plus tard, tous ces efforts commencent petit à petit à porter leurs fruits, et je considère sans fausse modestie que mon entreprise est un succès, pour plusieurs raisons :

  • l'entreprise existe encore et n'a pas fait faillite ;
  • j'arrive à payer mon loyer, à remplir le frigidaire et à payer mes facturese ; je ne peux rien économiser, certes, mais c'est déjà pas male ;
  • je suis mon propre patron, et je fais un travail qui me passionnee ;
  • depuis quelques mois, j'arrive même à me libérer une journée le week-end pour aller faire une randonnée ou un peu d'escalade.

Or, voici que l'existence de mon entreprise — tout comme celle de milliers d'entrepreneurs indépendants — est tout bonnement menacée par votre réforme de la formation professionnelle.

Depuis sa création, Microlinux est également organisme de formation professionnelle. La formation continue constitue une part significative de mon activité, environ un tiers, avec des variations selon les années. Je suis également auteur d'une série d'ouvrages informatiques pour l'éditeur Eyrolles (le plus grand éditeur d'ouvrages techniques en France). Mes stagiaires, jusque-là, étaient le plus souvent des salariés d'associations ou de PME de la région, qui profitaient de leur DIF (Droit Individuel à la Formation) pour suivre une formation en Administration Linux.

Je sais bien que votre gouvernement est fâché avec les nouvelles technologies et les logiciels libres, et qu'au vu des récents contrats signés entre le géant Microsoft et le Ministère de l'Éducation Nationale, vous préférez jeter l'argent par les fenêtres en achetant des licences propriétaires à prix d'or, en engraissant ainsi un monopoliste américain. Les entreprises et les associations, quant à elles, ne peuvent se permettre de dilapider l'argent qu'elles n'ont pas. Une manière assez simple de faire des économies (et plein d'autres bonnes choses au passage) c'est de migrer l'infrastructure numérique de Windows vers Linux, comme la Gendarmerie Nationale ou la NASA (et bien d'autres) l'ont fait.

Votre réforme de la formation professionnelle a mis un terme au bon déroulement des formations existantes, en venant mettre des bâtons dans les roues d'honnêtes entrepreneurs indépendants. La nouveauté, c'est que le DIF (Droit Individuel à la Formation) ne s'appelle plus DIF mais CPF (Compte Personnel de Formation). En soi, le Compte Personnel de Formation est une bonne idée, puisqu'il est désormais possible de cumuler les heures de formation d'année en année, et même de contrat en contrat.

Malheureusement, toutes ces heures cumulées ne serviront à rien en pratique pour la plupart des organismes de formation, étant donné que toutes les formations doivent désormais être obligatoirement certifiantes. Le gouvernement a certes cherché à supprimer des formations qu'il considère comme trop récréatives, comme les cours de poterie ou les stages de relaxation. Le problème, c'est que vous avez par là même vidé l'eau du bain avec le bébé, puisque les formations non certifiantes - c'est-à-dire l'écrasante majorité des formations en France - sont ainsi toutes passées à la trappe. Dans le secteur numérique, par exemple, ce sont toutes les formations autour du référencement, des blogs professionnels, de la retouche d'images, les formations pratiques autour de Photoshop, de la suite Adobe, d'AutoCAD, les formations bureautiques autour des suites Office, ou encore les formations d'administration des réseaux et des serveurs en général et de Linux en particulier, etc. Tout cela a été balayé par le tsunami ravageur de votre réforme. Des milliers de formateurs indépendants ont dû ou sont en train de mettre la clé sous la porte à cause de votre réforme, étant donné que ces formations ne sont désormais plus prises en compte dans le cadre du DIF (ou du CPF, peu importe comment vous l'appelez) et que pratiquement aucun stagiaire n'a les moyens de les financer intégralement.

Permettez-moi une métaphore gastronomique. C'est un peu comme si vous annonciez haut et fort votre détermination à lutter contre le chômage dans le milieu de la restauration, et la première chose que vous faites, vous obligez les pizzaïolos, les chefs de cantine et les cuistots de brasserie de France et de Navarre à arborer une étoile Michelin pour pouvoir exercer leur profession. Les détracteurs rétorqueront que la recherche de la qualité constitue une incitation louable pour les professionnels. La pratique montrera qu'une telle réforme profitera avant tout aux restaurants trois étoiles. Ou alors, pour revenir à nos moutons, aux grandes entreprises de formation établies, qui ont l'habitude de payer leurs formateurs au lance-pierres. J'en sais quelque chose, pour avoir moi-même enseigné dans de telles conditions. Il y a comme une odeur de lobbying dans l'air.

Avant cette réforme, près de 60.000 formations par mois étaient prises en charge dans le cadre du DIF. Depuis la réforme, on obtient un total de 86.000 formations par an (Source : http://www.cpformation.com). Je ne vois que deux interprétations possibles. Soit les français ont subitement besoin de dix fois moins de formations. Soit vous avez tout simplement détruit le secteur de la formation indépendante. Ce démantèlement semble aller de pair avec une dématérialisation de vos services administratifs, confrontant les utilisateurs à une expérience de déshumanisation totale. Les portails Web mis en place constituent ainsi un amalgame déplaisant de rigueur et de pagaille. Des pages Web au visuel certes agréable, mais dont le contenu suit une logique de navigation pour le moins erratique. Des sites entiers dépourvus de la moindre rubrique d'aide, sans la moindre adresse de contact, sans le moindre numéro de téléphone. Par-ci par-là, des liens vers des documents PDF sans le moindre commentaire. Les documents officiels étant, quant à eux, rédigés non pas en français, mais en hexagonal.

Alors non, je n'ai pas les moyens d'embaucher une équipe pour se pencher plusieurs semaines durant sur les formalités de certification de ma formation. Je ne suis pas Don Quichotte, je n'ai pas de temps à perdre à me battre contre les moulins à vent de l'administration française, ni sauter à travers les cerceaux en feu qu'elle me tend. Il y a des jours où je me demande si je ne vais pas tout bonnement faire couler mon entreprise et revenir à la case départ en me mettant au chômage. J'aurais enfin le temps de bouquiner, de faire de l'escalade trois ou quatre fois par semaine, ou de découvrir les nombreux parcours VTT de la région. Peut-être m'inscrire à un stage de poterie ou un stage de relaxation.

En tant que formateur en Administration Linux, j'ai actuellement plusieurs demandes formulées par des salariés qui ont cumulé des heures de CPF. Je ne peux pas répondre à leur demande, pour la simple raison que les formations que je dispense avec succès depuis sept ans ne figurent pas sur votre liste agréée de formations officiellement certifiantes. Ces salariés ont maintenant le choix entre quatre formations certifiantes dispensées par une multinationale agréée par votre ministère. Ces formations ne leur sont d'aucun intérêt.

Monsieur le Ministre de l'Économie, si vous souhaitez - comme vous l'affirmez - relancer l'économie de ce pays et préserver des dizaines de milliers d'emplois, de grâce, revoyez votre copie. Repensez la réforme de la formation professionnelle. Vous clamez haut et fort votre volonté de lutter contre le chômage. Au vu des faits, c'est l'emploi que vous combattez.

Salutations citoyennes,

Nicolas Kovacs

-- Montpezat, le 2 février 2016

Télécharger ce contenu au format Epub

Lire les commentaires

Revue de presse de l'April pour la semaine 5 de l'année 2016

Mardi 9 Février

La revue de presse de l'April est régulièrement éditée par les membres de l'association. Elle couvre l'actualité de la presse en ligne, liée au logiciel libre. Il s'agit donc d'une sélection d'articles de presse et non de prises de position de l'association de promotion et de défense du logiciel libre.

Sommaire

[cio-online.com] Édito: l'abus de propriété intellectuelle nuit à la propriété intellectuelle

Par Bertrand Lemaire, le vendredi 5 février 2016. Extrait:

Les conflits se multiplient entre éditeurs de logiciels et entreprises utilisatrices, notamment autour des audits de licences. Mais, en fait, il n'y a rien de neuf sous le soleil: la rapacité justifiée par la propriété intellectuelle veut réduire à néant une autre propriété intellectuelle, celle des clients utilisateurs.

Lien vers l'article original: http://www.cio-online.com/actualites/lire-edito%A0-l-abus-de-propriete-intellectuelle-nuit-a-la-propriete-intellectuelle-8210.html

[LeMonde.fr] Le Parlement européen veut reprendre la main sur le TiSA, l’autre grand traité qui effraie

Par Maxime Vaudano, le jeudi 4 février 2016. Extrait:

Dans l’univers très anxiogène des grands accords commerciaux négociés derrière des portes closes, le traité transatlantique Tafta/TTIP en préparation entre l’Europe et les Etats-Unis occupe depuis bientôt trois ans le devant de la scène de notre côté de l’Atlantique – quand les Américains s’intéressent davantage au traité transpacifique, officiellement signé le 4 février 2016.

Lien vers l'article original: http://transatlantique.blog.lemonde.fr/2016/02/04/le-parlement-europeen-veut-reprendre-la-main-sur-le-tisa-lautre-grand-traite-qui-effraie

[ouest-france.fr] Il donne accès à une informatique plus éthique

Par Anne-Emmanuelle Lambert, le mercredi 3 février 2016. Extrait:

Depuis septembre, Nicolas Barteau, un Alençonnais de 36 ans, est entrepreneur salarié de la coopérative d'activités et d'emplois Crescendo, basée à Flers. Son boulot: animateur numérique spécialisé dans les logiciels libres.

Lien vers l'article original: http://www.ouest-france.fr/normandie/alencon-61000/il-donne-acces-une-informatique-plus-ethique-4017462

[ZDNet France] Lancement de l'Open Source School

Par Thierry Noisette, le mercredi 3 février 2016. Extrait:

Smile et l'EPSI lancent l'OSS, école d'enseignement supérieur et de formation continue dans l'open source, avec une aide d'Etat de 1,4 million comme investissement d'avenir.

Lien vers l'article original: http://www.zdnet.fr/actualites/lancement-de-l-open-source-school-ecole-superieure-pour-le-logiciel-libre-soutenue-par-le-cnll-39832062.htm

Et aussi:

[L'Express.fr] Partenariat entre Microsoft et l'Éducation nationale: bugs en vue?

Par Sandrine Chesnel, le mercredi 3 février 2016. Extrait:

Un collectif d'associations et entreprises du numérique a déposé un recours auprès du ministère de l'Education nationale pour demander l'annulation d'un partenariat signé en novembre avec Microsoft. Un accord accusé d'illégalité.

Lien vers l'article original: http://www.lexpress.fr/education/partenariat-entre-microsoft-et-l-education-nationale-bugs-en-vue_1759758.html

Et aussi:

Voir aussi:

[rts.ch] "L'iPhone d'Apple est un ordinateur-prison", selon le père du logiciel libre

Par Delphine Gendre, le mardi 2 février 2016. Extrait:

Lors de son passage à Fribourg lundi, le pape du logiciel libre Richard Stallman a accordé un entretien à la RTS. L'Américain de 63 ans a notamment souligné le côté intrusif des logiciels standards.

Lien vers l'article original: http://www.rts.ch/info/sciences-tech/7463886--l-iphone-d-apple-est-un-ordinateur-prison-selon-le-pere-du-logiciel-libre.html

Et aussi:

[Next INpact] Le registre gouvernemental de lobbyistes prend forme

Par Xavier Berne, le mardi 2 février 2016. Extrait:

Annoncé il y a plus d’un an par François Hollande, le registre gouvernemental de lobbyistes devrait prendre forme dans le projet de loi qui sera porté dans quelques semaines devant le Parlement par Michel Sapin. Selon une première version du texte consultée par Mediapart, le dispositif serait cependant largement perfectible.

Lien vers l'article original: http://www.nextinpact.com/news/98331-le-registre-gouvernemental-lobbyistes-prend-forme.htm

Télécharger ce contenu au format Epub

Lire les commentaires

Cinq ans de projets libres : bilan et retour d'expérience sur la contribution

Lundi 8 Février

Voilà 5 ans que je produis du logiciel libre. J'ai pris l'habitude de publier chaque année mon retour d'expérience sur ce sujet. J'ai parlé de mes premiers pas, de mes doutes, de ce que j'ai appris sur le code, des présentations publiques, de la communauté et enfin de l'impact du logiciel libre sur l'entreprise. C'est déjà un bon tour de la question.

Sommaire

Voilà 5 ans que je produis du logiciel libre. J'ai pris l'habitude de publier chaque année mon retour d'expérience sur ce sujet. J'ai parlé de mes premiers pas, de mes doutes, de ce que j'ai appris sur le code, des présentations publiques, de la communauté et enfin de l'impact du logiciel libre sur l'entreprise. C'est déjà un bon tour de la question. Alors qu'est ce qui ferait un bon sujet pour cette année ? Et bien je vais simplement vous parler de la contribution. C'est l'essence du projet libre, je ne pouvais passer à côté. À travers cet article, je vais donc vous raconter ce que j'ai ressenti en étant des deux côtés de la barrière. Mais, avant de rentrer plus dans les détails, je vous donne le contexte avec un résumé de mes aventures de l'année passée !

Ce que j'ai fait

J'ai encore beaucoup codé et principalement en Coffeescript pour le navigateur et le serveur (Node.js). Je voulais développer mieux et essayer d'autres langages mais je n'y suis pas arrivé. J'ai beaucoup travaillé dans l'urgence et n'ai pas testé de nouveaux outils.

J'ai surtout focalisé mes efforts sur Cozy. En effet, le projet a pris de l'ampleur. La communauté s'est beaucoup développée. J'ai aussi plus de collègues. Autre fait notable, maintenant je travaille non seulement avec des gens très compétents mais aussi avec des personnalités du milieu ! Parmi eux nous trouvons Tristan Nitot qui a notamment fondé Mozilla Europe, et Bruno Michel qui, entre autres choses, a refait et maintient LinuxFr.org. J'ai donc évolué dans un environnement très stimulant et instructif.

Mais surtout cette année, chez Cozy, nous avons eu à gérer beaucoup de contributions tant internes (des collègues) qu'externes. D'un côté l'équipe Cozy s'est affirmée et a grandi. De l'autre, de nombreuses personnes sont venues contribuer. L'impact n'est donc pas négligeable… Car faire les bonnes choses pour que les gens travaillent bien en équipe est difficile. Mais bien intégrer des contributions diverses et aléatoires l'est encore plus (heureusement que je n'étais pas seul pour y faire face). Malgré ça j'ai quand même pu contribuer à droite et à gauche. Dans la suite, je vais donc vous faire part de comment j'ai vécu l'expérience en tant que contributeur et intégrateur de contributions.

Contribuer Faire un rapport de bug

C'est l'action de transmettre la description d'un bug que l'on a rencontré aux auteurs du logiciel. C'est un acte qui parait anodin mais qui requiert d'être bien fait pour être productif. En effet, si le message rédigé n'est pas compréhensible, il n'est pas traitable. Rédiger un rapport de bug demande de la rigueur sur la rédaction. Cela demande aussi de bien décrire le contexte dans lequel le bug se produit.
J'en ai peu rédigé mais j'étais, à chaque fois, content de le faire. Par contre, j'ai parfois été un peu déçu par les réponses reçues. En effet, les réactions des développeurs sont diverses : dans certains cas, les demandes sont ignorées ou fermées un peu brutalement (les développeurs ont vite fait de mettre ça sur le dos d'une dépendance). Heureusement elles peuvent être bien reçues et traitées. On est alors remercié, ce qui est plutôt sympa.

Exemple : Voici un rapport de bug que j'ai rédigé. L'interaction est intéressante. On me demande de rédiger un test en échec lié à mon bug. Un autre contributeur vient corriger le bug ensuite.

Corriger une documentation

C'est l'action d'ajouter un élément manquant ou de corriger une faute d'orthographe dans une documentation. Encore une fois, cela demande de bien rédiger mais au final cela ne prend pas trop de temps. Ce genre de corrections est toujours bien apprécié et accepté. C'est vraiment un bon moyen de commencer à contribuer à un projet.

Exemple : Là je corrige une documentation. Cela intervient après une discussion pour en savoir plus sur l'état du projet. Le mainteneur intègre vite la modification et me remercie.

Faire une correction de bug

Corriger un bug ne requiert pas de comprendre toute l'architecture de l'application. Ce qui est consommateur de temps c'est de s'assurer que les tests automatiques du projet fonctionnent toujours et d'en ajouter s'il en manque. Enfin, il faut bien commenter sa modification. Généralement cela se passe bien.
Attention, assurez-vous aussi que personne ne travaille déjà sur ce bug avant. Pour cela vous pouvez en discuter sur le ticket concerné.

Je n'ai malheureusement pas retrouvé d'exemple à ce sujet.

Ajouter une fonctionnalité

Je ne me suis lancé là-dedans qu'une fois et, malheureusement, l'expérience fut assez mauvaise. Ayant beaucoup utilisé le framework Express JS pour Node.js, je me suis dit qu'il serait intéressant d'y contribuer. J'ai donc choisi une demande d'amélioration simple de leur côté. Cela m'a demandé beaucoup de boulot. J'ai d'abord dû bien comprendre la demande et me documenter sur la fonctionnalité demandée (permettre au framework d'alimenter un traceur à des fins de debug).
J'ai posé de nombreuses questions pour être sûr que je n'étais pas à côté de la plaque. Ensuite j'ai dû comprendre une partie du code du framework. Enfin j'ai pu développer la fonctionnalité demandée. Au début j'ai eu du feedback intéressant du mainteneur principal sur ce que j'avais réalisé. Mais ensuite d'autres contributeurs sont venus donner leur avis. Pertinents mais un peu perfectionnistes à mon goût. J'ai quand même joué le jeu et ai subi plusieurs allers et retours. Finalement mon code n'a jamais été fusionné.
Conclusion, ajouter une fonctionnalité importante n'est pas toujours bien reçu. Il ne faut pas s'attendre forcément à un retour positif.

Exemple : Pour le projet Express, mon ajout aboutira à une discussion de 49 commentaires sans fusion au final. À l'inverse voici une modification bien reçue par l'auteur de Kresus, une application de gestion bancaire. Cette fois l'auteur est très content !

Faire une présentation sur une techno pas à soi.

J'ai fait deux présentations concernant la base de données dans le navigateur PouchDB. Les auteurs étaient très contents. Je me suis senti utile : c'était motivant pour eux et ça faisait découvrir une belle techno à plein de gens.

Exemple : Voilà la vidéo de ma présentation aux Human talks sur PouchDB. Les auteurs ont aussi manifesté leur joie sur les réseaux sociaux suite à ma contribution sur cette présentation faite à DotJS.

Faire un don

Des fois le moyen le plus simple d'aider est de faire un don. Cela peut permettre à un groupe ou organisation d'améliorer ses conditions de travail ou les services qu'il propose. Ainsi j'ai aidé l'April et le projet Salut à Toi. J'ai encore vu des gens contents !

Bénévolat

J'ai fait un peu de bénévolat au FOSDEM. Cela consistait à réaliser des actions simples comme m'occuper du vestiaire. C'est une contribution qui a permis de rendre l'événement un peu mieux. En plus, c'est à la portée de tout le monde. Pareil que pour le talk, le niveau de satisfaction était élevé ! C'est le genre de contributions auxquelles on ne pense pas toujours mais bien utile. Les gens de l'événement m'ont chaleureusement remercié et j'ai gagné du karma et un tee-shirt FOSDEM Volunteer.

.

C'est fini pour la partie contributeur. Passons maintenant à la partie recevoir une contribution. Mais avant ça, je voulais décerner une mention spéciale au projet PouchDB. L'accueil des auteurs et leur rigueur m'ont bien motivé !

Recevoir une contribution Recevoir une traduction

La traduction est une belle contribution car elle permet à des gens non techniques de participer. C'est très stimulant d'en recevoir une. Bien la gérer par contre n'est pas évident. Car lorsque les messages de l'application bougent, les traductions sont perdues. De plus les gens non techniques ne sont pas familiers des outils de gestion de version. Il faut donc souvent se tourner vers des outils en ligne dédiés à la traduction collaborative.

Ce que je fais : je remercie la personne et la renvoie vers Transifex, la plateforme que nous utilisons chez Cozy. Utiliser un outil dédié est beaucoup plus pratique que demander aux gens d'utiliser Git et Github.

Recevoir un rapport de bug

Une autre contribution à la portée de tous… Enfin de ceux familiers avec les outils de gestion de tickets ! C'est très satisfaisant d'en recevoir une car elle vous démontre que d'autres personnes se servent ou veulent se servir de votre application. Toutefois le rapport de bug se doit d'être bien rédigé pour ne pas faire perdre trop de temps en aller et retours. Recevoir beaucoup de rapports de bugs peut s'avérer oppressant.

Ce que je fais : je remercie la personne. Ensuite, je demande des détails si nécessaire. Lorsque le travail est terminé et livré, je vérifie avec la personne que le bug est bien résolu. Si c'est ok ou si je n'ai pas de nouvelles dans les semaines qui suivent je ferme le bug.

Exemple: Un rapport de bug simple et bien traité (remerciements et confirmation inclus).

Recevoir une demande d'amélioration, un feedback

De même que précédemment, c'est très satisfaisant et requiert au contributeur de maitriser un outil de gestion de tickets. Toutefois ces demandes sont généralement difficiles à prendre en compte. La liste des bugs et des idées est souvent déjà suffisante. Là où ça devient très parlant, c'est quand la demande se répète, on comprend donc qu'il faut faire quelque chose.

Ce que je fais : je remercie la personne et laisse le ticket ouvert jusqu'à implémentation de la fonctionnalité.
Plus récemment j'ai demandé aux contributeurs de plussoyer une demande si elle leur plait. C'est un bon moyen d'évaluer la popularité de celle-ci.

Exemple : Voilà une simple demande d'amélioration que j'ai traitée pour la lib request-json. Par contre des fois la demande est automatiquement fermée par Github suite à l'intégration du correctif, ce qui n'est pas très sympa pour le contributeur.

Recevoir une correction de bug

C'est une très bonne contribution à recevoir. Par contre, si le correctif n'est pas parfait, c'est délicat de demander d'améliorer des modifications (ajout de commentaires ou de tests par exemple). Heureusement, les contributeurs sont assez contents de bien faire le travail, donc on peut être exigeant. Une fois intégré, c'est une petite victoire. Le bug a été corrigé sans votre intervention et la communauté du logiciel se renforce !

Ce que je fais : Suite aux remerciements, je fais une revue du correctif et fusionne les changements si tout est ok. Je rajoute le nom du contributeur à la liste des contributeurs (quand j'y pense).

Exemple : Ici je remercie le contributeur et intègre ses changements. Il apparait ensuite dans liste des contributeurs.
Certains associent systématiquement une modification à un ticket. Même si je ne le fais pas, il faut bien admettre que c'est une bonne pratique.

Recevoir une correction de documentation

Très agréable aussi, ces corrections se valident très rapidement et rendent le projet plus crédible.

Ce que je fais : Je vérifie, je remercie, j'intègre des modifications et rajoute à la liste des contributeurs.

Exemple : Ici j'intègre des corrections d'anglais sur la doc de Cozy. Je montre ma joie et j'intègre.

Recevoir une fonctionnalité

Cette contribution est plus délicate. En effet d'un côté c'est très plaisant de la recevoir. De l'autre l'implémentation n'est pas toujours satisfaisante. En effet, pour le contributeur c'est difficile de coder dans le style du ou des mainteneurs principaux et de bien faire l'implémentation. Par contre si c'est bien fait, ce n'est que du bonheur !

Ce que je fais : Ma réaction est très variable. Ça n'arrive pas si souvent et c'est vraiment du cas par cas. Si j'ai une recommandation, c'est de bien expliquer dans un ticket avant de coder ce que vous comptez faire.
Pour les contributions mal fichues, je demande au contributeur de corriger. Pour les détails, je les prends à ma charge pour ne pas le décourager. Intégrer ce genre de modifications prend du temps dans tous les cas.

Exemple : Voici un ajout de fonctionnalité qui a demandé du boulot aux deux parties. Le code ne nous convenait pas tant dans l'architecture que dans le style. Nous avons fait la revue de code pour apprendre le style attendu. Ensuite nous avons aidé le contributeur à revoir son architecture pour qu'elle nous satisfasse.

Recevoir beaucoup de code

Cela n'arrive pas souvent mais quand c'est le cas, il n'y a pas à dire, on est très content ! Malheureusement, parfois ça devient difficile. Car intégrer toutes les modifications impose un certain rythme qui n'est pas facile à tenir.

Ce que je fais : ce n'est arrivé qu'une fois et j'ai fini par refuser les modifications qui m'étaient envoyées. Au début je faisais de mon mieux pour tout intégrer et faire en sorte que ça respecte la philosophie du projet. Mais je n'ai pas pu tenir le rythme. J'ai fini par fermer une demande de modifications. Le code n'était pas commenté, les commits étaient peu clairs et je n'avais plus le temps de remettre le tout au propre. Le contributeur s'est vexé et a arrêté de faire des modifications.

Exemple : Ce cas m'est arrivé pour le projet expérimental Cozy Light. Après de nombreux échanges, j'ai refusé cette modification. Je dois avouer que je ne savais pas du tout comment gérer la situation. Et l'effet s'est bien ressenti. Après ça le contributeur s'est vexé et a arrêté de contribuer.

Voir une app se développer sur la plateforme

Celle-ci est le genre de contribution qui n'existe pas pour tous les projets. Au mieux, les projets proposent au contributeur de faire des greffons. Mais le projet Cozy permet de réaliser des applications complètes. Pour les plateformes, c'est un peu la contribution ultime. En effet on voit un autre projet se développer au dessus d'un autre. Ensuite, le nouveau projet se constitue à son tour sa propre communauté !

Exemple : L'application Kresus est partie d'un fork d'une app existante. Un an après, voici le sujet Kresus sur le forum de Cozy. L'auteur y annonce ses nouveautés. Le sujet engendre une discussion de près de 200 messages. Tout le monde est content !

Voir un contributeur en aider un autre

Là on voit la communauté du projet qu'on a initié devenir autonome. C'est un peu l'extase pour le mainteneur !

Exemple : un contributeur se pose une question sur le processus d'installation. Un autre vient lui fournir une explication.

Recevoir des encouragements

Cela arrive par courriel, via le forum ou via IRC. Encore une fois c'est génial de recevoir ce type de message. Ça coûte pas grand chose, donc ne vous retenez pas si vous aimez bien un projet ! J'en ai encore reçu un hier. C'est très encourageant.

Conclusion

Et voilà, le bilan se termine ici. La contribution est le moment le plus exaltant du projet libre. Les esprits se connectent pour réaliser un travail collaboratif. La magie se crée. Quand j'ai commencé à écrire du code libre, ce qui m'attirait le plus était de faire les choses enfin proprement et à ma manière. Aujourd'hui, ce qui me motive le plus c'est de voir le projet vivre sa vie et d'observer les interactions des contributeurs.

L'acte de contribuer permet de faire avancer significativement les projets que vous aimez. Les mainteneurs gagnent du temps, sont aiguillés dans la bonne direction et sont plus motivés. C'est aussi l'occasion pour vous de progresser techniquement et sur le plan rédactionnel. Bref, c'est une bonne source de points de karma à portée de main. N'hésitez pas à en abuser !

Ce bilan est aussi l'occasion de clore un premier cycle exploratoire du monde du logiciel libre. J'ai couvert les thèmes principaux que sont la mise en place d'un projet, son évangélisation, le rapport à la communauté, comment il s'intègre dans une entreprise et enfin comment se vit une contribution.
Pour les cinq prochaines années, rien est décidé mais j'ai déjà quelques idées. En dehors de continuer à travailler sur Cozy et Newebe, je vais essayer de découvrir d'autres langages (Go et Lua probablement). Et ce en contribuant plutôt qu'en montant un nouveau projet. Une autre chose que j'aimerais bien faire est de tester un développement écrit en Espéranto plutôt qu'en anglais (au moins dans les commentaires). Je n'en dis pas plus pour le moment, car je réserve cette histoire pour un prochain épisode !

Télécharger ce contenu au format Epub

Lire les commentaires

Travailler avec des expressions rationnelles

Lundi 8 Février

Les expressions rationnelles sont un outil d'analyse de texte par un ordinateur. Elles permettent de décrire des enchaînements de caractères d'une complexité suffisamment grande pour être réellement utiles mais suffisamment faible pour être implémentées efficacement. Elles sont d'une importance capitale pour le théoricien des langages comme pour l'UNIX power-user.

Dans cette dépêche, nous :

  • décrivons brièvement la notion abstraite d'expression rationnelle et recensons les implémentations les plus courantes sur un système Unix ;
  • présentons quelques commandes permettant de rechercher des motifs décrits par une expression rationnelle dans un texte, réécrire des fichiers automatiquement ou transformer et analyser des fichiers structurés automatiquement en utilisant des expressions rationnelles ;
  • montrons comment améliorer votre productivité avec Emacs grâce aux expressions rationnelles.

Dans cette dépêche, nous allons nous pencher sur les expressions rationnelles (souvent nommées abusivement expressions régulières suite à une traduction littérale de regular expression). Elles permettent de représenter formellement un motif de recherche, par exemple : 1 caractère alphabétique majuscule suivi de 4 caractères minuscules, puis 2 chiffres, 1 point à la fin. Les expressions rationnelles représentent un outil puissant pour qui sait les utiliser à bon escient mais nécessitent une phase d'apprentissage non négligeable. La diversité des moteurs et des syntaxes n'aide pas non plus à leur simplicité, et les confusions entre les différents outils peuvent parfois donner des résultats surprenants.

    Sommaire

    Source: original en VO XKCD, traduction en VF

    Description abstraite et implémentations principales

    Les expressions rationnelles sont souvent utilisées comme brique de l'analyse des textes, pour faire de l'analyse lexicale. Elles sont issues des théories mathématiques des langages formels.

    Le concept ayant montré sa pertinence, il faut faire face à une richesse des implémentations : POSIX, puis chaque Unix à sa version, GNU, FreeBSD, puis Perl et Emacs pour les plus répandues. Certaines apportent des extensions (sucre syntaxique +, répétitions, groupes, et backtracking).

    Wikipédia fournit divers exemples illustratifs. Pour citer quelques exemples variés ici :

    • recherche de motif avec grep pour avoir un filtre pour sélectionner des lignes, pour identifier des fichiers, pour sélectionner des logs à une certaine date ou pour rechercher dans les pages de manuel, etc.
    • avec sed, transformation de logs en format Apache en format tabulaire, transformation de la sortie de docker ps, etc.
    • dans Emacs, mettre en valeur un motif dans du code pour une revue ou pour l'édition, extraire des listes d'un fichier avec re-search, etc.
    Les expressions rationnelles Posix basiques

    Les Expressions Rationelles Posix génèrent des machines à état fini déterministe. Elle ne sont ainsi pas capables de faire des retours en arrière.

    La commande grep

    Le premier usage des expressions rationnelles pour les utilisateurs de systèmes basés sur Linux ou Unix est en général la commande grep, qui permet de trouver toutes les lignes correspondant à une expression rationnelle. La syntaxe de la commande grep est simplement :

    grep <options> <expression rationnelle> <liste de fichiers>

    Pour les exemples ci-dessous, nous ferons des recherches dans le fichier french d'une Debian stable (informations de licence), ce fichier contenant la liste des mots de la langue française à raison d'un mot par ligne

    Dans une expression rationnelle, la première règle est que chaque caractère représente lui-même, par exemple l'expression rationnelle « rationnelles » correspond à « toute ligne contenant un r, suivi d'un a, suivi d'un t, suivi d'un i, suivi d'un o, suivi d'un n, suivi d'un autre n, suivi d'un e, suivi d'un l, suivi d'un autre l, suivi d'un e, suivi d'un s » :

    Chaque caractère ne représente pas vraiment lui-même, il existe des exceptions avec des méta-caractères qui décrivent autre chose qu'eux-mêmes. Un des plus utilisés de ces méta-caractères est le point, qui signifie « un caractère quelconque », par exemple l'expression rationnelle « rationnelle. » correspond à « toute ligne contenant un r, suivi d'un a, suivi d'un t, suivi d'un i, suivi d'un o, suivi d'un n, suivi d'un autre n, suivi d'un e, suivi d'un l, suivi d'un autre l, suivi d'un e, suivi d'un caractère quelconque » :

    Le problème des métacaractères est qu'on peut vouloir chercher du texte les contenant, par exemple dans notre dictionnaire il y a des abréviations terminant par un point. Pour qu'un métacaractère ne soit pas interprété, il faut le précéder d'un « \ », par exemple « \. » représente le caractère point. On peut alors s'amuser à chercher les abréviations d'au moins six caractères, en les décrivant comme « un caractère quelconque, suivi d'un autre caractère quelconque, suivi d'un troisième caractère quelconque, suivi d'un quatrième caractère quelconque, suivi d'un cinquième caractère quelconque, suivi d'un sixième caractère quelconque, suivi d'un point » :

    On remarquera que le point lui-même est un caractère quelconque.

    Un autre métacaractère utile est le crochet, qui permet de décrire un caractère pouvant correspondre à plusieurs valeurs, par exemple une voyelle non accentuée peut être représentée par « [aeiouy] » (qu'on peut lire comme « n'importe quel caractère étant soit un a, soit un e, soit un i, soit un u, soit un y »). Par exemple si vous voulez briller en société en citant des mots comportant 6 voyelles non accentuées à la suite :

    Deux métacaractères particuliers sont utiles entre crochets :

    • le tiret situé entre deux caractères permet de définir une liste de caractères qui se suivent, par exemple « [a-f] » définit « soit un a, soit un b, soit un c, soit un d, soit un e, soit un f »
    • l'accent circonflexe situé au début permet de définir une exclusion de caractères, par exemple « [^aeiouy] définit « un quelconque caractère qui ne soit ni un a, ni un e, ni un i, ni o, ni un u, ni un y ») Ces deux métacaractères sont cumulables, par exemple « [^a-z] » définit « un quelconque caractère qui ne soit pas une lettre », ce qui peut nous permettre de trouver tous les mots qui ont à la suite deux caractères qui ne sont pas des lettres :

    On peut économiser les copier/coller lorsque l'on veut chercher plusieurs fois la même information, en utilisant le symbole « \{min,max\} » qui permet d'indiquer que l'on cherche la présence d'un caractère successivement entre min et max fois, par exemple si vous cherchez les mots contenant deux « q » séparés par 5 à 7 lettres [1] :

    Il est possible avec certaines versions de grep de spécifier un seul chiffre entre accolades :

    • si on cherche exactement X occurrences on indique : « \{x\} »
    • si on cherche de 0 à X occurrences on indique : « \{,x\} »
    • si on cherche au moins X occurrences on indique : « \{x,\} » Ainsi, on pourrait donc abréger la recherche des mots contenant 6 voyelles non accentuées ainsi :

    Si on veut répéter plusieurs caractères au lieu d'un seul, il faut encadrer la recherche avec des « \( \) », Par exemple si vous bloquez dans une grille de mots croisés sur la définition « mot contenant 7 fois à la suite une consonne suivie d'une voyelle » :

    Le contenu trouvé à partir d'une expression entre parenthèses est dit « capturé », cela signifie qu'il est gardé en mémoire et peut être réutilisé dans l'expression rationnelle. La contenu capturé est accessible en utilisant « \1 », « \2 », « \3 », etc. (en général on ne peut pas dépasser \9). Le numéro de capture est défini en comptant le nombre de parenthèses ouvrantes précédant l'expression capturée. Cela permet par exemple de lister les mots contenant une anagramme de 4 lettres :

    On peut encore affiner les recherches en utilisant les ancres, qui permettent de situer où se situe une expression rationnelle dans la ligne :

    • le dollar, lorsqu'il est situé à la fin de l'expression rationnelle, représente la fin de la ligne
    • l'accent circonflexe, lorsqu'il est situé au début de l'expression rationnelle, représente le début de la ligne

    On peut cumuler les deux ancres dans la même expression, par exemple si on veut chercher les vrais anagrammes de 4 lettres :

    Pour en terminer avec les expressions rationnelles Posix basiques, il ne reste plus qu'un métacaractère à présenter, qui est l’astérisque. Ce caractère est équivalent à « {0,} ».

    Utiliser dans vi

    VimRegex détaille largement le sujet.

    Extension des expressions rationnelles

    Les extensions rationnelles basiques étant peu lisibles, la norme Posix a évolué pour intégrer les expressions rationnelles étendues, aussi appelées « ERE ».

    grep est mieux avec -E

    Les versions récentes de grep permettent d'utiliser les expressions rationnelles étendues avec l'option -E. Si vous ajoutez l'option -E à grep, vous devez modifier votre expression rationnelle ainsi :

    • \{ et \} deviennent { et }
    • \( et \) deviennent ( et )
    • tous les autres métacaractères (« . », « [ », «  ] », « - », « ^ », « $ », « * », « \1 », etc.) sont inchangés

    Outre cette suppression des « \ » superflus, les ERE apportent trois nouveaux métacaractères. Le premier est « ? » qui est un synonyme de « {0,1} », qui permet par exemple de chercher les anagrammes de 4 ou 6 lettres avec une seule expression :

    On dispose aussi de « + » qui est un synonyme de {1,}

    Enfin le dernier métacaractère spécifique aux ERE est le « | » qui permet de séparer plusieurs options :

    Les classes de caractères

    Posix prévoit des classes de caractère, qui sont des notations spécifiques entre crochets. À noter que les classes de caractères sont aussi bien gérées par les expressions rationnelles basiques que étendues (il n'y a donc pas besoin d'utiliser l'option -E pour en bénéficier), mais il existe des implémentations d'expressions rationnelles basiques non compatibles Posix qui ne les acceptent pas.

    Les classes de caractères sont des mots ou abréviations en anglais désignant ce à quoi ils correspondent et encadrés par « [: :] ».

    • [:digit:] : désigne un chiffre décimal (équivalent à [0-9])
    • [:lower:] : désigne une lettre minuscule (équivalent à [a-z])
    • [:upper:] : désigne une lettre majuscule (équivalent à [A-Z])
    • [:alpha:] : désigne une lettre minuscule ou majuscule (équivalent à [A-Za-z])
    • [:alnum:] : désigne une lettre minuscule ou majuscule ou un chiffre (équivalent à [A-Za-z0-9])
    • [:xdigit:] : désigne un chiffre hexadécimal (équivalent à [a-fA-F0-9])
    • [:space:] : désigne un caractère d'espacement (espace, tabulation, retour chariot, etc.)
    • [:blank:] : désigne un espace ou une tabulation horizontale (à ne pas confondre avec [:space:])
    • [:punct:] : désigne à un crochet ou un caractère de la classe suivante : ['!"#$%&()*+,./:;<=>?@^_`{|}~-]
    • [:cntrl:] : désigne un Caractère de contrôle
    • [:print:] : désigne un caractère affichable (ainsi qu'une espace), cette classe est à peu près le contraire de [:cntrl:]
    • [:graph:]: désigne l'ensemble des caractères visibles sauf les espaces, les caractères de contrôle, etc. Équivalent à [\x21-\x7E].
    Pour aller plus loin Attention au GLOB

    Dans les exemples précédents, il était important d'utiliser de simples guillemets pour éviter l'interprétation de caractères spéciaux par le shell.

    Outils pour tester vos expressions rationnelles

    Plusieurs outils s'offrent à vous pour tester et triturer dans tous les sens vos expressions rationnelles comme par exemple le site Regexpal qui propose notamment de la coloration syntaxique et se veut "temps réel" dans les modifications, ou regex101 permet de tester des expressions rationnelles Python, javascript ou pcre.

    Ne pas toujours utiliser les expressions rationnelles

    Les expressions rationnelles ne sont par exemple pas l'outil idéal pour analyser du XML ou de l'HTML.

    Jouer avec les expressions rationnelles

    Voir la dépêche Regexcrossword : un subtil mélange de sudoku et de mots croisés, à la sauce Regex, ainsi que la chasse au trésor du MIT en 2014, etc.

    Un peu de théorie Les automates finis

    La base théorique des expressions rationnelles se trouve dans la théorie des langages. Notamment elles permettent de décrire les langages rationnels. Elles sont fortement liées aux automates finis.

    Pour illustrer le parallèle nous allons utiliser les caractères et les quantificateurs de base :

    • a qui permet de reconnaitre la lettre a ;
    • ? qui permet de définir un groupe optionnel ;
    • * qui permet de définir un groupe se répétant zéro fois ou plus ;
    • + qui permet de définir un groupe se répétant une fois ou plus.
    Littérature

    [1] avec ça vous allez vraiment briller en société, il faudra juste trouver un moyen d'intégrer ça dans la conversation

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Un système d'exploitation français pour la souveraineté numérique

    Dimanche 7 Février

    C'est passé à l'Assemblée nationale française (en attendant le Sénat), au sein d'un texte comportant plusieurs volets : l'État français veut se doter d'un système d'exploitation afin d'obtenir une certaine souveraineté numérique. Le texte vise à la production d'un rapport envisageant la « possibilité créer un Commissariat à la souveraineté numérique » et précisant « les conditions de mise en place, sous l’égide de ce commissariat, d’un système d’exploitation souverain » (article 16 ter dans la version adoptée à l'Assemblée nationale).
    Si le sujet suscite des critique, la France n'est pas le seul pays à vouloir en quelque sorte protéger sa souveraineté numérique. Il y a des précédents, tous basés sur Linux. Tour d'horizon en seconde partie.

    Des précédents en France

    Déjà l'année dernière, on avait assisté à la création d'un Institut pour la souveraineté numérique. Le Conseil national du numérique, lors d'une de ses sessions de travail, avait abordé cette thématique. Même si la tentation est forte de dire que GNU/Linux serait la solution, ce n'est pas si évident.

    L'opérateur télécom Orange avait déjà envisagé d'avoir son propre système d'exploitation en 2010 (et avait sorti sa tablette Tabbee sous GNU/Linux). Et le ministre français de l’Économie, du Redressement productif et du Numérique Arnaud Montebourg avait déjà évoqué un système d'exploitation bleu, blanc, rouge en 2014 (en se basant sur le concept de « résogiciel français » du président de Skyrock, Pierre Bellanger).

    Ajoutons qu'il existe déjà un système « souverain » CLIP, basé sur Linux, développé par l'ANSSI, depuis 2005 pour les opérateurs d'importance vitale (OIV), prévu pour des cas d'usage spécifiques et pas pour une utilisation par le grand public ou les administrations en général. Il est « en phase préliminaire de déploiement ».

    Des précédents dans d'autres pays

    D'autres pays ont déjà créé des distributions pour garantir leur indépendance. En Espagne, l'Andalousie produit GuadaLinex et l'Argentine propose Huayra (ces deux distributions sont basées sur Debian). L'article de ZDNet cite aussi la Chine, l'Inde, le Brésil et la Turquie.

    On notera que tout le monde semble avoir opté pour une base Linux. Est-ce que la souveraineté numérique peut exister en dehors de Linux ? C'est le sujet de la dissertation à laquelle vous allez participer par vos commentaires.

    Et des critiques de toute part

    Le Monde rappelle que « La secrétaire d’Etat au numérique "ne croit pas à la possibilité d’un système d’exploitation souverain, qui serait peu opérant" » et des députés de la majorité et de l'opposition l'ont qualifié d'« erreur » et de « ridicule ». Et le directeur général de l'ANSSI l'a qualifié de « non-sens » et refuser l'idée d'un système noyauté (« plein de saletés ») pour les services de renseignement.

    Les critiques sont nombreuses : travail gigantesque, coût exhorbitant, usine à gaz en préparation, lubie du « made in France », fiascos précédents dans le secteur éducatif français et du « cloud souverain », railleries multiples via Twitter.

    En tout cas le projet de loi « Économie : pour une République numérique » a permis d'évoquer largement les logiciels libres au sein de l'Hémicycle.

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Firefox 44 débarque

    Dimanche 7 Février

    Firefox 44 a débarqué le 26 janvier 2016 (NdA : 44, débarquer, toussa…). Nous proposons dans cette dépêche les nouveautés pour les versions de bureau et mobile, ainsi que pour les développeurs.

    NdA : nous avons toujours besoin de toute aide afin de publier régulièrement les dépêches liées aux sorties de Firefox, rendez-vous sur l’espace de rédaction collaborative de LinuxFr.org (linuxfr.org/redaction).

    Sommaire Firefox bureau

    Commençons par ce qui ne change finalement pas : depuis la version précédente, seules les extensions signées par Mozilla sont acceptées par le navigateur. Ce comportement peut toutefois être désactivé à l’aide d’un réglage du navigateur qui devait disparaître avec la présente version. La suppression de ce réglage est repoussée.

    NB : La décision de n’accepter que les extensions signées dans Firefox, pour des raisons de sécurité selon Mozilla, fait débat parmi les utilisateurs de Firefox, et ce jusque dans les rangs de la distribution GNU/Linux Fedora. Elle a été temporairement désactivée dans le paquet.

    Quelques améliorations :

    • amélioration de la page d’avertissement dans les cas d’erreurs de certificats et de connexions non certifiées ;
    • lecture des vidéos avec le codec H.264 sous GNU/Linux lorsque FFmpeg est disponible ;
    • lecture des vidéos en WebM/VP9 sur les systèmes d’exploitation qui n’intègrent pas le MP4/H.264.
    • dans la chronologie de l'inspecteur d'animation, l'icône éclair à côté des animations tourne dans la partie compositeur
    • pour les connexions HTTPS seulement, les données peuvent être compressé avec la bibliothèque Brotli. Ce format de compression est en cours de normalisation au sein de l’IETF (plus d’informations)
    • les commandes de capture d'écran permettent le choix du rapport d'aspect de pixel dans les outils développeurs
    • la gestion des fontes web sous Linux utilise désormais le même code que sur les autres plateformes ;
    • utilisation d’une signature électronique SHA-256 pour les versions destinées à Windows à fin de suivre les nouvelles recommandations pour les signatures ;
    • validation plus stricte des polices web ;
    • désactivation du clavier à l'écran pour Windows 8 et Windows 8.1.
    Firefox Mobile

    Quelques améliorations :

    • Les utilisateurs peuvent maintenant choisir une page d’accueil à afficher au démarrage au lieu du panneau Top Sites ;
    • Ajout de la prise en charge des URI avec le protocole mms: ;
    • Page des comptes Firefox basée sur le web ;
    • Montrer les suggestions d’historique de recherche ;
    • Demander aux utilisateurs avant d’ouvrir une URI d’Intent dans un onglet de navigation privée ;
    • Onglets améliorés sur les téléphones ;
    • Utilisation du service d’impression Android pour la possibilité d’impression dans le cloud.
    Changements commun au bureau et Android Améliorations pour les développeurs

    Au menu :

    • Un clic droit sur un objet journalisé dans la console permet de le stocker comme une variable globale sur la page ;
    • Nouvel outil de mémoire pour inspecter le tas ;
    • API pour les Services Workers ;
    • Lecteur de JSON intégré pour voir, rechercher, copier et sauver intuitivement les données sans extensions ;
    • Sauter aux définitions de fonctions dans le débogueur avec Cmd-Clic ;
    • Extension et API de déboggage des WebSockets ;
    • La vue des règles montre désormais les styles en utilisant le texte de leur auteur, et les éditions dans la vue des règles sont désormais liées à l’éditeur de style ;
    • Obligation des signatures d’extensions.

    Outils visuels pour Animation :

    • visualiser et éditer les règles d’animations CSS keyframes directement depuis l’inspecteur ;
    • modifier visuellement les courbes cubic-bezier qui dirigent la manière dont les animations progressent à travers le temps ;
    • découvrir et inspecter les animations CSS et les transitions jouées dans la page ;
    • pour en savoir plus, rendez.vous sur http://devtoolschallenger.com/.

    Outils visuels pour les mises en forme et les styles :

    • montrer les règles dans la vue (?) pour vérifier la taille et la position et utiliser l’outil de mesure pour facilement détecter les problèmes d’espacement et d’alignement ;
    • utiliser les filtres CSS pour prévisualiser et créer des effets temps-réel comme les drop-shadows, sépia, etc. ;
    • en apprendre plus : http://devtoolschallenger.com/.
    Prochaines versions Firefox 46

    Poursuite de la mise en avant des connexions HTTPS : si vous entrez un couple identifiant/mots de passe sans passer par TLS, Firefox 46 affiche une alerte (Voir la page informative anglophone).
    (Crédit NextInpact)

    Firefox 46 acceptera les préfixes webkit (bug 1213126). On ne dira pas merci aux webmestres qui ne se préoccupent que des IPhones et nuisent à l'interopérabilité (Microsoft avec Edge a dû faire les mêmes concessions).

    Firefox 48 et suivants

    Les WebExtensions vont descendre progressivement dans Firefox, à partir de la version 45 et avec la version 48 pour objectif (vous pouvez suivre l’avancement du projet). Rappelons qu’elles sont déjà à l’honneur dans Firefox OS 2.5.

    Mozilla travaille à l’intégration de l’API Web Speech, logiquement l’approche est un peu moins centralisée que dans Chrome (voir la traduction du billet).

    WebGL 2 arrive dans Firefox Nigtly, faites chauffer vos GPU ;-)

    La navigation classique pourrait bénéficier de la même option de protection contre le traçage que celle introduite dans la version 42 au sein de la navigation privée, voir bug 1231359 et bug 1231373.

    Firefox (Bureau et Android) permettait de lancer des pseudo-applications qui s'appuient sur Firefox pour fonctionner, ce mode WebRT pourrait être retiré. Avec le retrait de Firefox OS du monde des ordiphones, c'est l'idée que le HTML pourrait servir de base à tout programme qui est moins promue chez Mozilla.

    Pendant ce temps là, chez Mozilla…

    La feuille de route de Servo a été mise à jour en ce début d’année. Il se dit par ailleurs dans les milieux autorisés que le maintien de la prise en charge de Windows XP par Firefox repousse l’intégration de morceaux de Servo dans ce dernier (processus nommé Oxidation), « vu que le support de Windows XP par Rust n’est pas complet ».

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Présentation technique de Canopsis

    Dimanche 7 Février

    Supervision et visualisation des données : des domaines de l'informatique qui nous permettent de surveiller, analyser une infra, des données afin de comprendre et éventuellement prédire des dysfonctionnements.

    De nombreux outils existent et excellent dans chacune de ces tâches. Les accorder ensemble afin d'unifier l'information permet ainsi de faciliter la prise de décision.

    C'est ce que l'on appelle l'hypervision.

    Canopsis se veut une solution d'hypervision (on évite l'appellation hyperviseur qui reste dans le langage courant spécifique à la virtualisation). Solution open-source sous licence AGPL3 développée par la société française Capensis, elle se veut simple d'utilisation, et suffisamment souple pour répondre à un maximum de besoin.

    Sommaire La problématique

    Dans une infra hétérogène, on dispose de nombreuses sources d'information :

    • côté supervision, on peut avoir un mélange de :
      • Nagios/Icinga
      • Centreon
      • Shinken
      • HPOV
      • Zabbix
      • SNMP
    • côté récolte de données, on peut avoir :
      • CollectD
      • Logstash
      • Munin
      • Telegraf (de la pile TICK)
    • ou encore :
      • des logs
      • des données stockées en base de données
      • un résultat de tests unitaires et fonctionnels (jMeter, Sikuli…)

    La mise en place d'un accès à l'ensemble de ces informations peut être fastidieuse, et dans la plupart des cas, l'utilisateur (l'administrateur technique et/ou fonctionnel) devra accéder à plusieurs interfaces et maîtriser plusieurs outils.

    Cela empêche d'avoir une vue d'ensemble cohérente et rend difficile l'anticipation ainsi que la prise de décision.

    Objectif : la solution

    C'est là que Canopsis intervient.

    Étape 1 : les connecteurs

    Dans un premier temps, nous devons récupérer les informations produites par cet ensemble hétérogène.

    Ainsi, pour chaque source de données, nous sommes en mesure de développer un connecteur, capable d'extraire les informations voulues, et de les transmettre à Canopsis sous la forme d'événements standardisés.

    Un certain nombre de connecteurs sont déjà disponibles sur le Gitlab.

    Le cas le plus simple est donc celui ci :

    #!/usr/bin/env python from time import time # lib qui nous permet de nous connecter au bus de données (cf étape 2) from kombu import Connection # module qui sera utilisé pour envoyer les événements from kombu.pools import producers # construction de l'événement selon le standard Canopsis event = { "timestamp": int(time()), # émetteur de l'événement "connector": "myconnector", "connector_name": "myconnector-instance0", # nature de l'événement "event_type": "check", # source de l'événement "source_type": "resource", "component": "<hostname>", "resource": "<job's name>", # données portées par l'événement "state": 0, # 0 = INFO, 1 = MINOR, 2 = MAJOR, 3 = CRITICAL "output": "<message>" } # construction de la routing_key, qui sert à identifier l'événement et à le router routing_key = "{0}.{1}.{2}.{3}.{4}".format( event['connector'], event['connector_name'], event['event_type'], event['source_type'], event['component'] ) if event['source_type'] == "resource": routing_key = "{0}.{1}".format( routing_key, event['resource'] ) # Connexion uri = 'amqp://cpsrabbit:canopsis@localhost:5672/canopsis' with Connection(uri) as conn: # Création de l'émetteur with producers[conn].acquire(block=True) as producer: # Publication producer.publish( event, serializer='json', exchange='canopsis.events', routing_key=routing_key )

    Bien évidemment, du moment qu'un connecteur envoie ses événements, il peut être développé dans n'importe quel langage, c'est le cas du connecteur Nagios qui se présente comme un Nagios Event Broker, et est donc développé en C.

    Étape 2 : le bus de données et les moteurs

    Les événements produits par les connecteurs sont transmis au bus de données de Canopsis, basé sur RabbitMQ.

    Source : http://igm.univ-mlv.fr/~dr/XPOSE2011/rabbitmq/usages.html

    Ces événements vont être consommés par des daemons que nous appelons moteurs.

    Leur but est simple :

    • traiter la donnée
    • enregistrer les informations pertinentes en base de données
    • transmettre, si nécessaire, l'événement à un ou plusieurs autres moteurs

    Nous avons, par exemple :

    • le moteur event_filter qui se charge de filtrer/modifier les événements entrants
    • le moteur context qui se charge d'enregistrer les informations sur l'entité cible de l'événement (connecteur source, composant/ressource qui a produit l'événement…)
    • le moteur perfdata qui s'occupe d'historiser les données de performance (comme remontées par Nagios ou CollectD)

    Comme pour les connecteurs, les moteurs peuvent être développés dans n'importe quel langage, bien que pour le moment nous les avons tous faits en Python.

    Étant un daemon, un moteur dispose de 2 fonctions :

    • une pour consommer les événements (dans un thread à part)
    • une pour exécuter une tâche régulièrement (recharger la configuration, envoyer des stats…)

    Ainsi que la configuration suivante :

    [engine:myengine] # chemin Python de la méthode de consommation event_processing=canopsis.myfeature.process.event_processing # chemin Python de la méthode exécutée régulièrement beat_processing=canopsis.myfeature.process.beat_processing # nom de l'exchange AMQP sur lequel écouter (par défaut: amq.direct) exchange_name=canopsis.event # RK à consommer routing_keys=nagios.#,shinken.# # intervalle entre 2 exécutions du beat_processing (en secondes) beat_interval=60 # liste des moteurs sur lesquels retransmettre l'événement reçu, possiblement modifié (par défaut: aucun) next=myengine2,myengine3

    Et donc l'implémentation se résume à :

    def event_processing(engine, event, **_): # traiter l'événement return event def beat_processing(engine, **_): # faire des choses Étape 3 : les schémas

    Toutes les données qui véhiculent dans le bus et qui sont sauvegardées en base sont munies de schémas les décrivant.

    Ces schémas servent à plusieurs choses :

    • valider que la donnée est bien formatée
    • décrire comment la donnée sera représentée
    • décrire comment la donnée sera éditée

    Ces deux derniers points permettent de générer une partie du code de l'UI (cf étape 5).

    À terme, ils serviront également à :

    • décrire comment la donnée sera utilisée
    • décrire comment la donnée pourra être transformée

    Ce qui permettra de générer une partie du code backend (cf étape 4).

    Le formalisme qui permet d'écrire un schéma est actuellement inspiré du standard JSON Schema :

    { "title": "MyData", "description": "Schéma décrivant la donnée, comment l'afficher et l'éditer" // description de la donnée "type": "object", "properties": { "color": { "type": "string", "required": true, /* comment la donnée sera affichée/éditée * le rôle 'color' : * - affichera un carré de couleur lorsqu'on l'affichera * - affichera un colorpicker lorsqu'on l'éditera */ "role": "color", // les champs suivants servent pour le formulaire "title": "Couleur de la donnée", "description": "Tooltip d'aide" } }, // les champs suivants aident à générer le formulaire d'édition "categories": [ { "title": "General", "keys": ["color"] } ] }

    L'id d'un schéma est construit de la manière suivante :

    • mydata
    • mydata.mydata2 : ici mydata2 hérite de mydata

    On obtient donc en base de données :

    { "_id": "<id du schema>", "schema": // le schéma à proprement parler } Étape 4 : gérer et servir la donnée

    Maintenant que nous avons la structure pour récupérer la donnée, et que nous sommes en mesure de la schématiser, il faut mettre en place les mécanismes permettant d'interagir avec et de la servir à l'UI.

    A. Les managers

    La gestion de la donnée est prise en charge par ce que l'on appelle les managers. Pour bien comprendre son rôle, il faut plonger un peu dans le code.

    Un configurable est un objet Python dont les propriétés sont définies par son fichier de configuration :

    from canopsis.configuration.configurable import Configurable from canopsis.configuration.configurable.decorator import conf_paths from canopsis.configuration.configurable.decorator import add_category from canopsis.configuration.model import Parameter CONF_PATH = 'myfeature/manager.conf' # {sys.prefix}/etc/{CONF_PATH} CATEGORY = 'MYFEATURE' # Définition du contenu de la catégorie CONTENT = [ Parameter('foo'), Parameter('bar', parser=int) ] # ajoute un fichier de configuration à lire par le configurable @conf_paths(CONF_PATH) # permet de spécifier la catégorie de configuration depuis laquelle on peut lire les paramètres @add_category(CATEGORY, content=CONTENT) class MyFeatureManager(Configurable): pass

    Ainsi, avec le fichier de configuration suivant :

    [MYFEATURE] foo=bar bar=42

    Ou :

    { "MYFEATURE": { "foo": "bar", "bar": 42 } }

    En effet, le configurable va tester différents drivers, actuellement on dispose de INI et JSON mais il est envisageable d'avoir un driver MongoDB ou autre

    Lorsque l'on instanciera la classe, on obtiendra :

    obj = MyFeatureManager() assert obj.foo == "bar" assert obj.bar == 42

    Et à partir de cette classe Configurable on va définir l'arbre d'héritage suivant :

    Un ConfigurableRegistry permet de spécifier, dans un paramètre de configuration, un autre Configurable à instancier :

    otherconfigurable_value = canopsis.myotherfeature.manager.MyOtherFeatureManager

    Et on y accèdera, dans l'instance, de la manière suivante :

    assert isinstance(self['otherconfigurable'], MyOtherFeatureManager)

    Le MiddlewareRegistry fait de même pour les Middleware (qui identifient un protocole ainsi qu'un type de données) :

    mymiddleware_uri = protocol-datatype-datascope://

    De même que pour le ConfigurableRegistry, on y accède de la manière suivante :

    assert self['mymiddleware'].connected()

    En général, un manager sera un MiddlewareRegistry, ce qui permettra de changer de techno utilisée, sans modifier le code :

    [MYFEATURE] mystorage_uri = mongodb-timed-mydata:// # mystorage_uri = influxdb-timed-mydata:// mymanager_value = canopsis.myotherfeature.manager.MyOtherFeatureManager # mymanager_value = canopsis.myotherfeature.manager2.MyOtherFeatureManager2

    Et ce manager sera utilisé par le moteur et le webservice.

    En reprenant l'exemple du moteur :

    from canopsis.common.utils import singleton_per_scope from canopsis.myfeature.manager import MyFeatureManager def event_processing(engine, event, manager=None, **_): if manager is None: # instancie la classe une seule fois par module manager = singleton_per_scope(MyFeatureManager) # faire des choses avec l'événement et le manager return event def beat_processing(engine, event, manager=None, **_): if manager is None: manager = singleton_per_scope(MyFeatureManager) # faire des choses avec le manager B. Les webservices

    Afin de servir la donnée à l'UI, on dispose d'une application WSGI découpée en modules, que l'on appelle webservice.

    Ces derniers se trouvent dans le paquet Python canopsis.webcore.services.

    Et grâce au code suivant (à placer dans le __init__.py), on peut avoir plusieurs paquets Python fournissant du code à cet emplacement :

    from pkgutil import extend_path __path__ = extend_path(__path__, __name__)

    Bref, un webservice s'écrit très simplement :

    # couche d'abstraction qui nous permettra de passer de Bottle à Flask from canopsis.common.ws import route from canopsis.common.utils import singleton_per_scope from canopsis.myfeature.manager import MyFeatureManager # Sera appelé par l'application WSGI pour charger les routes HTTP def exports(ws): # ici `ws` désigne donc le webserver manager = singleton_per_scope(MyFeatureManager) # ici on créé la route /foo qui accepte la méthode GET @route(ws.application.get) def foo(): return manager.foo # l'API retournera : # { # "total": 1, # "data": ["bar"], # "success": true # } # cette fois ci, on créé la route /bar/:baz @route(ws.application.get) def bar(baz): return (manager.bar == baz) Étape 5 : l'application web

    Côté backend, on dispose désormais du nécessaire pour fournir à l'UI tout ce dont elle a besoin.
    Ainsi, nous avons également travaillé la modularité de cette UI, basée sur Ember, au maximum.

    A. Les briques

    Afin de répondre à cette problématique de modularité, nous avons mis en place un système de briques, permettant de sélectionner les fonctionnalités effectivement chargées.

    Concrètement, on peut voir une brique comme étant un addon apportant plusieurs fonctionnalités telles que :

    • nouveaux éléments graphiques (composants)
    • nouveaux outils de rendus (widgets, renderers)
    • nouveaux outils d'éditions (éditors)

    Pour construire une brique, il suffit de créer un paquet NPM avec le package.json suivant :

    { "name": "<nom de la brique>", "description": "<description de la brique>", "version": "0.1.0", // il s'agit du fichier principal de la brique, il pointera vers la version de dev ou minifiée "main": "init.js", "scripts": { "test": "echo \"Error: no test specified\" && exit 1", "compile": "rm -Rf tmp/build && broccoli build tmp/build && cp tmp/build . -RT", "lint": "eslint src", "doc": "./node_modules/canopsis-ui-toolbelt/scripts/buildDoc", "minify": "node node_modules/canopsis-ui-toolbelt/scripts/minify.js" }, "repository": { "type": "git", "url": "<url du dépôt>" }, "author": "<auteur>", "license": "AGPL-3.0", "devDependencies": { "broccoli": "^0.16.9", "broccoli-funnel": "^1.0.1", "broccoli-merge-trees": "^1.0.0", "broccoli-sourcemap-concat": "^1.1.6", "broccoli-template": "^0.1.1", "broccoli-uglify-js": "^0.1.3", // outil de gestion des briques Canopsis "canopsis-ui-toolbelt": "https://git.canopsis.net/canopsis/canopsis-ui-toolbelt/repository/archive.tar.gz?ref=<branche git de canopsis-ui-toolbelt>", "jsdoc": "^3.3.0", "pre-commit": "^1.1.1" }, "pre-commit": [ "lint", "doc" ] }

    Puis, dans un dossier src on placera le code source de la brique :

    • components/mycomponent/component.js
    • components/mycomponent/template.hbs
    • renderers/renderer-myrole.hbs
    • editors/editor-myrole.hbs
    • widgets/mywidget/controller.js
    • widgets/mywidget/mywidget.hbs
    • mixins/mymixin.js

    L'outil canopsis-ui-toolbelt se charge de :

    • récupérer récursivement tout le code JS dans le dossier src
    • référencer le code JS dans le fichier init.js qui représente la brique
    • récupérer récursivement tout les templates (*.hbs) dans le dossier src
    • référencer les templates également dans le fichier init.js
    • référencer les templates dans Ember.TEMPLATES :
      • pour un composant, il est requis d'avoir le dossier components/<mycomponent>, afin que le template soit reconnu comme étant un template de composant
      • pour le reste, le nom du template dans Ember sera le nom du fichier sans extension

    NB: Le découpage n'est donc obligatoire que pour les composants, le reste peut être mis en vrac dans src.

    Une fois que l'on a créé tout cela (ou récupéré le dépôt Git), on peut finaliser la brique :

    $ npm install $ npm run compile

    Chaque fichier source contiendra au moins un Ember Initializer :

    Ember.Application.initializer({ name: 'MyModule', after: ['Dependency1', 'Dependency2'], initialize: function(container, application) { var Dependency1 = container.lookupFactory('deptype:dependency1'), Dependency2 = container.lookupFactory('deptype:dependency2'); // do stuff application.register('modtype:mymodule', /* stuff */); } });

    Cela permet ainsi de s'assurer du bon chargement de chaque module.

    Au final, pour installer une brique, il suffit de :

    • cloner le dépôt finalisé dans : /opt/canopsis/var/www/canopsis
    • lancer la commande webmodulemanager enable mybrick afin de l'activer au chargement de l'UI

    L'ensemble des briques existantes (hormis celle par défaut livrées avec Canopsis) sont disponible ici.

    B. Les composants

    Le composant, l'élément le plus basique de l'UI, sera utilisé par tout les autres éléments.
    Il s'agit simplement d'un composant Ember avec un template à fournir.

    On définira notre composant dans src/components/mycomponent/component.js :

    Ember.Application.initializer({ name: 'MyComponent', after: [], initialize: function(container, application) { var MyComponent = Ember.Component.extend({ init: function() { this._super.apply(this, arguments); // faire des choses }, actions: { // on implémente les actions, déclenchable depuis le template foo: function() { alert('bar'); } } }); application.register('component:component-mycomponent', MyComponent); } });

    Et le template dans src/components/mycomponent/template.hbs :

    <h1>My awesome component</h1> <a {{action foo}}>Launch action</a> C. Les renderers/éditeurs

    Une fois nos composants définis, on est en mesure de les utiliser dans des renderers ou des éditeurs.

    Le but de ces éléments est simple :

    • lorsqu'on demande l'affichage d'une donnée avec le composant renderer :
      • le champ role du schéma JSON est également lu
      • si un renderer du même nom est trouvé, il est utilisé dans le template
      • sinon, on affiche la donnée telle quelle
    • lorsqu'un formulaire d'édition est généré à partir du schéma JSON, en utilisant le composant editor :
      • le champ role est lu
      • si un éditeur du même nom est trouvé, il est utilisé dans le formulaire
      • sinon, on utilise l'éditeur par défaut

    Les renderers/éditeurs ne sont donc que de simple templates HTMLBars.

    On aura le renderer dans src/renderers/renderer-myrole.hbs :

    <p>My rendered data: {{value}}</p> {{component-mycomponent}}

    Et l'éditeur dans src/editors/editor-myrole.hbs :

    <p>My data is being edited :</p> {{input type="password" value=attr.value}} {{component-mycomponent}} D. Les widgets

    Enfin, on aura les widgets, qui seront en mesure d'utiliser composants et
    renderers afin d'implémenter des outils de visualisation de données plus complexes.

    Un widget est un MVC complet :

    • on implémente un contrôleur
    • on implémente des mixins qui viendront s'appliquer à la vue
    • on écrit un template

    Ce qui donne :

    Ember.Application.initializer({ name: 'MyWidget', after: ['WidgetFactory'], initialize: function(container, application) { var WidgetFactory = container.lookupFactory('factory:widget'); var widgetOptions = {}; var MyWidgetViewMixin = Ember.Mixin.create({ didInsertElement: function() { this._super.apply(this, arguments); // faire des choses }, willDestroyElement: function() { this._super.apply(this, arguments); // faire des choses }, actions: { // actions de la vue } }); var widget = WidgetFactory('mywidget', { viewMixins: [ MyWidgetViewMixin ], actions: { // actions du contrôleur }, init: function() { // faire des choses }, findItems: function() { // méthode appelée lors de la récupération des données pour le template } }, widgetOptions); application.register('widget:mywidget'); } });

    Ensuite, il est nécessaire de créer un schéma widget.mywidget.json qui sera utilisé pour configurer le widget lors de son ajout dans une vue :

    { "title": "MyWidget", "description": "Schéma de configuration de MyWidget", "metadata": { // icône dans le formulaire d'ajout de widget "icon": "fa fa-cog" }, "categories": [ { "title": "General", "keys": ["foo"] } ], "type": "object", "properties": { "foo": { "title": "Foo", // nom du champ dans le formulaire "description": "Foo field", // tooltip dans le formulaire "type": "string", "role": "myrole" } } } E. Les mixins

    Lorsque l'on a des fonctionnalités communes à plusieurs widgets (comme le PeriodicRefresh qui actualise le widget régulièrement), il convient de factoriser le code en un mixin.

    Ce dernier pourra être ajouté et configuré au widget via l'UI, et ensuite appliquer la-dite configuration au contrôleur du widget :

    Ember.Application.initializer({ name:'MyMixin', after: ['MixinFactory'], initialize: function(container, application) { var Mixin = container.lookupFactory('factory:mixin'); var get = Ember.get; var MyMixin = Mixin('mymixin', { mixinsOptionsReady: function() { this._super.apply(this, arguments); var mixinOptions = get('mixinOptions.mymixin'); // faire des choses } }); application.register('mixin:mymixin', MyMixin); } });

    Et il ne manque plus que le schéma mixin.mymixin.json décrivant la configuration du mixin :

    { "title": "MyMixin", "description": "Schéma de configuration de MyMixin", "metadata": { // description affiché dans l'UI "description": "Add stuff to widget" }, "categories": [ { "title": "General", "keys": ["bar"] } ], "type": "object", "properties": { "bar": { "title": "Bar", "description": "Bar field", "type": "string" } } } F. Les vues

    Tout les outils sont désormais à notre disposition pour construire nos dashboards.

    Donc si on résume :

    • une vue est composée de widgets
    • un widget est composé de composants et de mixins

    L'UI fournit les outils qui permettent de construire ces vues, le résultat final est un document JSON stocké en base :

    { "_id": "id de ma vue", "description": "description de ma vue" "crecord_name": "nom de ma vue", "crecord_type": "view", "author": "<user qui a créé la vue>", "enable": true, "internal": false, "tags": [], // le widget initial de la vue "containerwidget": { // identifiant du widget "xtype": "widgetcontainer", "title": "container title vbox", // le widget "widgetcontainer" s'attend à avoir un champ "items" "items": [ { // le widget "widgetwrapper" sert à inclure des widgets dans un container pour les placer correctement "xtype": "widgetwrapper", "title": "wrapper", // le widget encapsulé : "widget": { "xtype": "mywidget", "title": "My awesome widget", // configuration spécifique au widget "foo": "bar", // mixins appliqués via l'UI : "mixins": [ { "name": "periodicrefresh", // paramètres du mixin "refreshInterval": 60 }, { "name": "mymixin", // paramètres du mixin "bar": "baz" } ] } } ], // le container de base de la vue à un widget de layout par défaut "mixins": [ { "name": "lightlayout" } ] } }

    La totalité de l'UI est générée à partir de ces vues JSON, et est donc complètement personnalisable.

    Le bac à événements

    Parmi les vues par défaut qui sont livrées avec Canopsis, on trouve le Bac à événements.

    Cette vue fournit un dashboard de supervision commun, unifiant ainsi la totalité des superviseurs remontant des informations à Canopsis.

    Depuis ce bac, on voit apparaître les différentes alarmes avec comme informations :

    • leurs sources d'émission (le connecteur)
    • leurs sources cible (composant/ressource, qui dans la plupart des cas correspond au couple host/service)
    • le dernier message associé à un check (Nagios, Shinken, Centreon, …)
    • le statut de l'alarme associé au check :
      • Off : aucune alarme n'est présente
      • On Going : un problème a été remonté et n'est toujours pas résolu
      • Stealthy : une alarme a été remontée et est immédiatement repassée OK (durée paramétrable)
      • Flapping : il y a eu X changements d'état en 1h sur l'alarme (durée et fréquence paramétrable)
      • Cancelled : l'alarme a été annulée par un utilisateur (pour éviter les faux-positifs)
    • l'état du check :
      • INFO : tout va bien
      • MINOR : équivalent au Warning de Nagios
      • MAJOR : équivalent au Critical de Nagios
      • CRITICAL : les Unknown de Nagios sont remontés en tant que tel, mais cela ne se limite pas à cette notion
      • UNKNOWN : état non pris en charge à l'heure actuelle, c'est tout ce qui est supérieur à CRITICAL (3)
    • la présence d'un acquittement et/ou d'un ticket :
      • les connecteurs pour Nagios, Shinken, etc… peuvent remonter les acquittements posés
      • depuis Canopsis, on peut en poser manuellement
    • la date du dernier changement d'état

    Sur chaque alarme, on peut réaliser différentes actions :

    • l'acquittement (permet de déverrouiller les autres actions), cela émettra le même événement qui serait remonté par un superviseur, soit un événement de type ack
    • une suppression de l'acquittement, cela émettra un événement de type ackremove
    • une annulation de l'alarme, cela émettra un événement de type cancel
    • une fois l'alarme annulée, on peut annuler cette action, cela émettra un événement de type uncancel
    • une déclaration de ticket :
      • cela émettra un événement de type declareticket
      • cet événement pourra être capturé par le moteur event_filter pour déclencher un job (voir plus bas) qui communiquera le ticket à un outil tiers (par exemple iTop)
    • une association de ticket existant :
      • cela émettra un événement de type assocticket
      • on peut imaginer que le job qui communique la déclaration du ticket à l'outil tiers récupère le numéro du ticket nouvellement créé, et l'associe automatiquement
    • une requalification de l'événement :
      • cela changera l'état du check manuellement, et ce dernier gardera cet état jusqu'à la résolution de l'alarme
      • cela émettra un événement de type check, comme le superviseur
      • la seule différence est la présence d'un champ keep_state qui vaut true dans l'événement

    Toutes ces actions permettent ainsi d'unifier une supervision hétérogène, et l'administrateur (technique) ne devra utiliser/maîtriser qu'un seul outil.

    Sélecteur et widget météo : simplifier la supervision

    Lorsque l'on supervise une grosse infrastructure, les informations remontées via les checks deviennent tout de suite beaucoup plus conséquentes. C'est pourquoi nous avons mis en place la possibilité d'agréger ces checks afin d'avoir une visibilité plus simple sur l'infra.

    Cette agrégation se fait à l'aide des sélecteurs :

    • on créé un filtre d'événements
    • on applique un algorithme à l'état de chaque check qui matche le filtre (actuellement seul l'algo Worst State est disponible)
    • on produit un événement de type selector qui contient :
      • l'état agrégé
      • le champ output qui est le rendu du template spécifié dans la configuration du sélecteur
    • si le sélecteur est configuré pour, on déclenche le calcul des SLA :
      • sur une période de temps (spécifiée dans la configuration du sélecteur)
      • on calcule le pourcentage de temps passé sur chaque état possible
      • on produit une métrique pour chacune de ces métriques, ainsi qu'un événement de type sla
      • l'état remonté par l'événement correspond aux seuils de SLA configurés dans le sélecteur

    Le résultat est finalement affichable avec un widget weather :

    NB: Le sélecteur peut afficher également des checks unitairement

    On peut ainsi noter les couleurs suivantes :

    • vert : l'état du sélecteur est INFO
    • jaune : l'état du sélecteur est MINOR
    • orange : l'état du sélecteur est MAJOR
    • rouge : l'état du sélecteur est CRITICAL
    • violet : toutes les alarmes du sélecteur ont été acquittée
    • la couleur du widget est celle du pire état des sélecteurs positionnés dans celui ci

    Un clic sur le sélecteur dans le widget nous redirigera sur le Bac à événements, filtré avec le filtre du sélecteur.

    Monitoring et séries

    Chaque connecteur, moteur, et sélecteur produisent des données de performances :

    • temps d'exécution d'un check
    • usage CPU/RAM/Disque
    • temps moyen passé sur un événement
    • nombre moyen d'événements par seconde
    • donnée de SLA

    Tout cela est remonté dans Canopsis dans un événement via le champ perf_data_array :

    { // info de l'événement classique "perf_data_array": [ { "metric": "nom_de_ma_metrique", "value": 42.1337, "type": "GAUGE", // GAUGE, COUNTER, ABSOLUTE ou DERIVE // champs optionnels "unit": "...", "min": 0, "max": 1337.42, "warn": 1000, "crit": 1300 } ] }

    Ces données vont être historisée dans Canopsis. On peut donc noter 4 types de métriques :

    • GAUGE : on historise la valeur telle quelle
    • COUNTER : lorsque l'on récupère la valeur, on fait l'addition des valeurs historisées
    • ABSOLUTE : on historise la valeur absolue
    • DERIVE : il s'agit de la valeur dérivée par rapport au temps

    Une métrique est ensuite identifiée par :

    • le composant de l'événement
    • la ressource de l'événement
    • le nom de la métrique dans le tableau de perfdata

    Le tout peut être affiché dans un chart :

    On est ainsi en mesure de sélectionner un ensemble de métrique avec un filtre basé sur des expressions régulières :

    • co:.*\.myhost re:cpu-.* me:system me:user me:wait

    Qui se traduit en filtre MongoDB :

    { '$and': [ {'component': {'$regex': '.*\.myhost'}}, {'resource': {'$regex': 'cpu.*'}}, { '$or': [ {'name': {'$regex': 'system'}}, {'name': {'$regex': 'user'}}, {'name': {'$regex': 'wait'}} ] } ] }

    Une fois les identifiants de métriques récupérés, on peut aller demander les points stockés en base, dans une fenêtre de temps bien définie.

    Une série est donc munie :

    • d'un filtre de métrique
    • d'une période d'agrégation avec un opérateur d'agrégation (le manager de perfdata nous retournera les données agrégées)
    • d'une période de consolidation
    • d'une formule de consolidation

    Ici la partie consolidation sert à consolider les différents points agrégés en un seul, afin de produire une nouvelle métrique.

    La formule se construit de la manière suivante :

    • on a des opérateurs qui prennent en paramètre un filtre de métrique qui sera appliqué sur l'ensemble de métriques déjà sélectionnées
    • ces opérateurs retournent un point consolidé
    • on peut les utiliser dans une expression mathématique classique

    Par exemple, SUM("me:.*") / COUNT("me:.*"), permet de réaliser une moyenne.

    Les tâches ordonnancées et les notifications

    Parmi les moteurs de Canopsis, certains sont dédiés à une fonction précise : exécuter une tâche.

    Il y a donc un moteur scheduler qui, régulièrement, va chercher à exécuter des jobs configurés selon une règle de récurrence.
    En fonction du type de job, ce dernier sera redirigé au moteur correspondant, que l'on appellera un taskhandler.

    Cela permet de construire un équivalent de crontab au sein de Canopsis.

    Ces taskhandlers ne servent pas uniquement à l'exécution de tâches ordonnancées, ils peuvent être utilisés en tant que notification :

    • une règle du moteur event_filter peut déclencher l'exécution d'un job si l'événement reçu matche le filtre de la règle
    • par exemple, à la réception d'un événement declareticket, on peut lancer l'exécution d'un job réalisant une requête d'insertion de ticket à un outil tiers
    Conclusion

    Grâce à tout ces éléments, Canopsis est en mesure de répondre à de nombreux besoins, allant de la supervision simple, à l'analyse poussée de données afin de générer des rapports sur une infrastructure (ou autre).

    Notre objectif premier est la modularité du projet, afin de pouvoir fournir une solution sur mesure et de ne pas transformer l'outil en énorme usine à gaz. Pour résumer, on a répondu à cette problématique avec :

    • le découpage du backend en projets Python embarquant : un manager, éventuellement un moteur et un webservice
    • le découpage du frontend en briques embarquant : des composants, des renderers, des éditeurs, des mixins, des widgets
    • la schématisation des données et à l'avenir des actions possibles sur cette dernière (transformation, schématisation de l'API des managers, …)
    • le développement d'API générique permettant le changement de technologies sans modification du code

    Beaucoup de choses ont été faites, et beaucoup de travail reste à faire, notamment :

    • la finalisation des rôles Ansible
    • l'intégration d'une notion de graphe pour les entités qui sont le centre de toutes les données stockées par Canopsis, afin de rendre le système complètement réflexif
    • une séparation totale du backend et du frontend, permettant d'utiliser l'un sans l'autre
    • génération de code à partir des schémas

    Bref, Canopsis est en constante évolution, et touche à de nombreuses problématiques toutes plus intéressantes les unes que les autres.

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Agenda du Libre pour la semaine 6 de l'année 2016

    Dimanche 7 Février

    Calendrier web, regroupant des évènements liés au Libre (logiciel, salon, atelier, install party, conférence) en France, annoncés par leurs organisateurs. Voici un récapitulatif de la semaine à venir. Le détail de chacun de ces 28 événements est en seconde partie de dépêche.

    Sommaire Agenda du Libre pour la semaine 6 de l'année 2016 [Kunheim] Formation Linux - Le lundi 8 février 2016 de 18h00 à 22h00.

    Tous les lundis à partir de 18h00 jusqu'à 22h00 venez découvrir ou vous former sur Linux et les logiciels libres.
    Ces séances de formation ont lieu à la salle "Kegreiss" au 56 rue principale - Kuhneim - face à la mairie - cette salle est accessible aux personnes à mobilité réduite.
    Nous vous attendons nombreux. Le Team Linux

    [Paris] Atelier OpenData - Le lundi 8 février 2016 de 19h00 à 22h00.

    L'atelier « Opendata : les enjeux des données ouvertes » est organisé par Ritimo et animé par Regards Citoyens.
    Il est à destination du monde associatif (venir avec son portable). L'entrée est libre et l'inscription obligatoire.
    Extrait de la présentation :

    [Teyran] Notions PC - Le mardi 9 février 2016 de 09h00 à 10h00.

    Réaliser une carte d’invitation avec le traitement de texte LibreOffice Writer
    Writer est le composant de traitement de texte de LibreOffice. En plus des fonctionnalités habituelles d’un traitement de texte (correcteur orthographique, dictionnaire des synonymes et de coupure de mots, autocorrection, rechercher et remplacer, génération automatique de table des matières et d’index, mailing et autres) Writer fournit des modèles et styles, des méthodes de mise en page incluant les cadres, les colonnes et les tableaux, incorporer ou lie des images, des feuilles de calcul et d’autres objets, il a des outils de dessins natifs, possède un suivi de modification, exporte en PDF, incluant les repères de texte…
    La participation aux ateliers nécessite :

    [Castelnau-le-Lez] Section GNU/Linux - Le mardi 9 février 2016 de 10h00 à 12h00.

    Rendez-vous hebdomadaire, tous les mardis, salle 38 de la mjc (hors vacances scolaires).
    L’équipe de Montpel’libre vous propose une permanence de dépannages pour vous aider à vous familiariser avec votre système GNU/Linux au quotidien.
    Le contenu de l’atelier s’adapte aux problèmes des personnes présentes et permet ainsi d’adapter l’acquisition de nouvelles compétences au rythme de chacun.

    [Castelnau-le-Lez] Atelier de développement et programmation - Le mardi 9 février 2016 de 10h00 à 12h00.

    Rendez-vous hebdomadaire, tous les mardis, salle 40 de la mjc (fermé pendant les vacances).
    Cet atelier de développement est essentiellement axé sur les langages du Web : html, css (même si ce ne sont pas des langages à proprement parler) javascript et PHP, possibilité aussi d’utiliser Ajax, Jquery, Sqlite et MySql.
    Notre équipe vous attend pour répondre à vos questions et satisfaire votre curiosité.

    [Brignoles] Atelier Libre - Le mardi 9 février 2016 de 18h30 à 21h30.

    Les membres de l'association GULLIVAR (Groupe d'Utilisateurs de Logiciels Libres de l'Intérieur du Var) vous invitent à une soirée atelier / présentation logiciel libre qui aura lieu le 9 février 2016, dans la salle des Saint Anges, chemin de San Sumian à Brignoles à partir de 18h30.
    À 19h30, l'atelier / présentation.
    Cette soirée est ouverte à tous, adhérents et sympathisants.

    [Bordeaux] Atelier CLI - Le mardi 9 février 2016 de 19h00 à 21h00.

    Damien Goutte-Gattat, post-doctorant à l'Institut Européen de Chimie et Biologie, présentera GnuPG (GNU Privacy Guard) pour les utilisateurs avancés.
    Déjà habitué avec ses articles, tel que « De la gestion des clefs OpenPGP », postés dans son journal sur linuxfr.org, cet atelier sera certainement très instructif. On pourra, en autre, créer sa clé GPG et la partager :)
    L'atelier sera suivi d'un apéritif permettant aux participants de se rencontrer et de poursuivre la discussion.

    [Paris] Tuppervim #43 - Le mardi 9 février 2016 de 20h00 à 22h00.

    Le tuppervim est un évènement mensuel organisé dans les locaux de Mozilla.
    Il a lieu un mardi du mois (généralement le premier).
    Le texte suivant a été honteusement copié du site http://tuppervim.org

    [Teyran] Notions PC - Le mercredi 10 février 2016 de 09h30 à 10h30.

    Ajouter de la profondeur de champ à une photographie avec Gimp
    Gimp offre de nombreuses fonctionnalités. Il peut être utilisé comme un simple programme de dessin, comme un programme de retouche photo, comme un système en ligne de traitement par lot, comme un générateur d’image pour la production en masse, pour convertir un format d’image en un autre. GIMP est extensible. On peut lui ajouter de nombreux « Greffons » (plug-ins). Une interface de scripts bien développée permet de créer des procédures, les scripts, regroupant plusieurs opérations.
    La participation aux ateliers nécessite :

    [Nantes] Quadr'apéro - Le mercredi 10 février 2016 de 19h00 à 23h00.

    Venez discuter des libertés et d'Internet au quadr'apéro mensuel.
    Venez nombreux.
    Entrée Libre. Tout Public.

    [Paris] Atelier design : les couleurs - Le mercredi 10 février 2016 de 19h00 à 21h00.

    Atelier Do It Yourself Design : 16,8 Millions de couleurs, et moi et moi!
    Dans la série des atelier Do it yourself, l’association Silex Labs vous propose un nouvel atelier pour découvrir l’importance des couleurs dans les projets numériques. Cet atelier sera animé par Pol Goasdoué designer professionnel spécialiste de l’UX UI Président de l’entreprise UFO et co-fondateur du projet Silex.
    Au programme de cet atelier

    [Paris] Apéro des nouveaux mozilliens - Le mercredi 10 février 2016 de 19h00 à 21h00.

    L'apéro des nouveaux aura lieu le 10 février à partir de 19h chez Mozilla (16 bis boulevard Montmartre, 75009 Paris).
    Ça sera bien évidement l'occasion pour les nouveaux de rencontrer une partie de la communauté mozfr et pour tous de (re)découvrir comment il est possible de participer. Plus largement, ça serait chouette qu'on profite de l'occasion pour se dire sur quoi on bosse et sur quoi on aimerai bosser. Ça permet de mieux savoir qui est intéressé par quoi et de faciliter la participation de nouvelles personnes. Tout cela se faisant bien sûr  de manière informelle et dans la bonne humeur.
    Afin de gérer l'intendance, veuillez-vous inscrire sur le pad:https://public.etherpad-mozilla.org/p/aperoNouveaux

    [Proposition en ligne] Appel à communications AgoraCMS 2016 - Du jeudi 11 février 2016 à 00h00 au vendredi 12 février 2016 à 00h00.

    La 3ème édition d'AgoraCMS, premier événement européen dédié aux CMS se tient à Paris le 1er avril prochain.
    L'appel à communications pour les conférences vient d'être lancé: http://agoracms.com/appel-a-communication.
    Vous pouvez y proposer vos idées de conférences, de retours d'expérience, de vos projets.

    [Mauguio] Infolibres - Le jeudi 11 février 2016 de 17h00 à 19h00.

    Rendez-vous salle de formation informatique de la médiathèque.
    L’équipe de Montpel’libre vous propose une permanence de dépannages pour vous aider à apprivoiser votre système GNU/Linux au quotidien. Le contenu de l’atelier s’adapte aux problèmes des personnes présentes.
    Vous pourrez y aborder entre autre :

    [Paris] Mapathon Missing Maps - Le jeudi 11 février 2016 de 19h00 à 22h00.

    Venez découvrir comment contribuer à OpenStreetMap, le "Wikipedia de la carte", durant un « mapathon » !
    (un événement convivial où l'on se retrouve pour cartographier, échanger et apprendre à utiliser les outils permettant de contribuer à OSM).
    Cet événement s'inscrit dans le cadre de l'initiative globale Missing Maps, projet humanitaire qui vise à cartographier en amont les parties du mondes vulnérables aux catastrophes naturelles, crises sanitaires, environnementales, aux conflits et à la pauvreté.

    [Lyon] Jeudi du Graphisme - Le jeudi 11 février 2016 de 19h00 à 21h00.

    L'Association Lyonnaise pour le Développement de l'Informatique Libre organise un atelier découverte du logiciel : Darktable : Corrections et profils d’effet qui est animé par les étudiants de la licence CoLibre.
    Darktable est un logiciel de développement et retouche de photo. L’application pour les photographes passionnés. Cette année, nous appliquerons à voir quelques techniques de retouche simple et utile et surtout comment créer des profils d’effets qui seront la signature de votre touche personnelle.
    Entrée Libre et gratuite

    [Paris] Soirée de Contribution au Libre - Le jeudi 11 février 2016 de 19h30 à 23h00.

    Parinux propose aux utilisateurs de logiciels libres de se réunir régulièrement afin de contribuer à des projets libres. En effet, un logiciel libre est souvent porté par une communauté de bénévoles et dépend d'eux pour que le logiciel évolue.
    Nous nous réunissons donc tous les jeudis soirs dans un environnement propice au travail (pas de facebook, pas de télé, pas de jeux vidéos, pas de zombies)).
    Vous aurez très probablement besoin d'un ordinateur portable, mais électricité et réseau fournis.

    [Montpellier] Formation sécurité informatique et cryptographie - Le vendredi 12 février 2016 de 09h00 à 13h00.

    Montpel’libre a le plaisir de vous proposer un nouveau cycle de formation, cryptographie et sécurité informatique.
    Merci d’avoir choisi de participer aux ateliers « Sécurité Informatique et Cryptographie » organisés par Le Club de la Presse et Montpel’libre. Les trois ateliers auront lieu les vendredis 5, 12 et 19 février 2016 de 9h00 à 13h00 à l’Atelier des Pigistes du Club de la Presse de Montpellier.
    Formation Crypto, séance de préparation, premier module :

    [Paris] Locasprint MozFR n°4 - Du vendredi 12 février 2016 à 14h00 au dimanche 14 février 2016 à 20h00.

    La communauté Mozilla francophone organise son 4e évènement autour de la traduction. La communauté Mozilla de bénévoles francophones est à l’origine de l’ensemble du contenu en français publié par Mozilla (logiciels, sites web, documentation, pages d’assistance, etc.)
    Cet évènement est ouvert à toute personne qui souhaite nous aider à produire des traductions françaises de qualité. Vous avez juste besoin de venir avec un ordinateur et de la motivation.
    Ce week-end de travail est l’occasion d’accueillir de nouveaux contributeurs, de leur expliquer notre façon de travailler, nos outils, nos bonnes pratiques…

    [Montpellier] Permanence Les logiciels libres - Le vendredi 12 février 2016 de 17h00 à 19h00.

    Le Faubourg Marché, qu’est-ce que c’est ?
    Le Faubourg Marché est une permanence partagée qui permet aux associations d’accueillir ensemble, les publics de ces associations une fois par semaine, le vendredi entre 17h00 et 19h00 (ou au delà sous réserve d’accord préalable), au 19, rue du Faubourg de Nîmes, 34000 Montpellier.
    Si vous avez un peu de temps le vendredi soir, voici une occupation qui me semble très intéressante et si vous êtes intéressés par la promotion des logiciels libres, des biens communs, de l’accessibilité, de l’économie sociale et solidaire, de l’innovation sociale et numérique, de l’éducation populaire, ou encore du développement durable.

    [Villeneuve d'Ascq] Libre à Vous - Le samedi 13 février 2016 de 09h00 à 12h00.

    Vous souhaitez tester GNU/Linux sur votre ordinateur, vous recherchez un logiciel pour une fonction précise, des conseils ou de l'aide sur les logiciels libres ?
    Libre à Vous est une permanence destinée à vous faciliter l'utilisation de l'informatique. Vous repartirez avec « le plein » de logiciels libres, fiables, évolutifs, performants et gratuits.
    C'est chaque samedi matin au Centre d'Infos Jeunes à la ferme Dupire, 80 rue Yves Decugis à Villeneuve d'Ascq (métro Triolo) de 9h00 à 12h00.

    [Castelnau-le-Lez] Café Numérique GNU/Linux & Logiciels Libres - Le samedi 13 février 2016 de 09h00 à 11h00.

    Samedi 13 février 2016 de 9h00 à 11h00 MJC Centre André Malraux 10, avenue de la Moutte, 34170 Castelnau-le-Lez
    Bus Ligne 35 arrêt Collège Frédéric Bazille Tramway ligne 2 arrêt La Galine
    GPS : Latitude : 43.633946 | Longitude : 3.905794

    [Teyran] Notions PC - Le samedi 13 février 2016 de 09h30 à 10h30.

    Enregistrer, importer, manipuler des fichiers sonores avec Audacity
    Audacity est un logiciel libre4 pour la manipulation de données audio numériques. Audacity permet d’enregistrer du son numérique par le biais des entrées ligne/micro/cd des cartes sons. Il permet d’éditer (copier, coller, sectionner…) les sons sur plusieurs pistes, et il est accompagné de divers filtres et effets : pitch, tempo, réduction de bruit, égaliseur, filtres de Fourier, augmentation de fréquences précises, compression, amplification, normalisation, écho, phaser, wahwah, inversion…
    La participation aux ateliers nécessite :

    [Toulouse] Atelier Blender pour tous - Le samedi 13 février 2016 de 10h00 à 18h00.

    La communauté toulousaine des utilisateurs de Blender est l'une des plus actives de France.
    Elle se retrouve régulièrement pour organiser des ateliers, des repas, des soirées.
    C'est donc dans ce cadre que le Blender User Group toulousain organise, en coopération avec Toulibre, environ un samedi par mois, de 10h à 18h dans les locaux de l'espace Ékito, 15 rue Gabriel Péri à Toulouse.

    [Saint-Denis] Assemblée générale de l'April - Du samedi 13 février 2016 à 13h00 au dimanche 14 février 2016 à 19h00.

    L'assemblée générale de l'April aura lieu le samedi 13 février 2016 de 14h à 18h (accueil à partir de 13h00) à l'université Paris 8 à Saint-Denis (bien que l'AG se tienne en 2016, elle concerne le bilan de l'année 2015 mais bien sûr les perspectives 2016 seront abordées).
    Il s'agit d'un des événements importants de la vie de l'association, l'occasion de voter les rapports moral et financier, faire un point sur l'année qui vient de s'écouler, de rencontrer les autres adhérents et d'élire le conseil d'administration.
    L'assemblée générale est l'occasion d'organiser un week-end de réunion des membres. Le dimanche sera consacré à des ateliers en petits groupes ou discussions en plénière. Ce week-end est en cours d'organisation, plus de détails bientôt. Cette partie atelier est ouverte à tout le monde et aura lieu à la Fondation pour le Progrès de l'Homme à Paris. Une soirée festive est prévue le samedi soir et des ateliers sont prévus le dimanche. Le lieu pour la soirée n'est pas encore fixé.

    [Ramonville Saint Agne] Atelier web: les squelettes sous SPIP - Le samedi 13 février 2016 de 14h00 à 18h00.

    Deux nouvelles animations organisées très prochainement par le Projet Internet et Citoyenneté à la Maison des Associations de Ramonville. Ces deux animations sont complémentaires: c'est une bonne idée de participer aux deux, mais ce n'est pas obligatoire.
    1/ SAMEDI 30 JANVIER 2016: Personnaliser son site Web avec les CSS: Initiation aux CSS. À partir de la version distribuée de SPIP, personnaliser son site en modifiant les fichiers CSS.
    2/ SAMEDI 13 FEVRIER 2016: Initiation à l’écriture/modification des squelettes qui conditionnent les fonctionnalités présentes dans les pages d’un site sous SPIP. Modifier le squelette des articles, rubriques, etc. pour changer l’aspect et les fonctionnalités présentes dans les pages du site.

    [Saint-Aunès] Permanence Emmabuntüs et Logiciels Libres - Le samedi 13 février 2016 de 14h00 à 18h00.

    Samedi 13 févier 2016 de 14h00 à 18h00 Communauté Emmaüs Montpellier-Saint-Aunès La Vieille Cadoule 34130 Saint-Aunès
    GPS Latitude : 43.649363 | Longitude : 3.991591
    Rendez-vous mensuel, le deuxième samedi. Pour les animateurs, réservez les repas et le covoiturage le jeudi au plus tard.

    [Marseille] Atelier « Découverte des Logiciels Libres Firefox » - Le samedi 13 février 2016 de 14h30 à 18h00.

    L’association CercLL vous invite à l’ Atelier du Samedi Libre qui se déroule le samedi 13 février 2016 de 14h30 à 18h00, à la Fabulerie 4 rue de la Bibliothèque 13001 Marseille.
    Ces ateliers se déroulent, en général, sur une séquence hebdomadaire, de 2 à 3 séances de travail et sur un thème déterminé.
    Comme le mot atelier le laisse présumer, dans ce cadre, nous proposons une approche pratique des outils libres.

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Mais où est donc la révolution des imprimantes 3D ?

    Samedi 6 Février

    Depuis quelques temps déjà on nous annonce la révolution des imprimantes 3D. Mais, dans notre vie quotidienne, toujours rien ! Mais où est donc cette révolution ?

    Ceux qui possèdent une imprimante 3D ont une approche un peu différente de la consommation. Par exemple, Sophie de chez Ckab s'est fabriquée un autre bouton de pantalon, certains ont facilement réparé leur chasse d'eau ou un autre objet en plastique. La plupart des objets deviennent réparables :-)

    Pour les professionnels aussi c'est une approche différente, par exemple en cuisine, remplacer le plastique par une pâte, comme la pâte à pain ou une pâte de chocolat.

    Et cette révolution est d'autant plus importante qu'elle est animée par l'esprit du partage et de l'open hardware.

    Sommaire La révolution en marche

    De plus en plus de particuliers s'offrent une imprimante 3D (~1000€), de plus en plus d'entreprises se créent sur ce secteur, les passionnés s'organisent en fablabs et des objets libres peuvent être dupliqués :

    Il y a aussi la possibilité de faire du prototypage rapide pour les projets industriels, beaucoup plus facilement et rapidement. Par exemple, le projet de caméra cinéma ouverte Apertus AXIOM a pu créer des prototypes de son futur boîtier en taille réelle.
    Cela ouvre la création hardware, même à objectif final professionnel et industriel, à bien plus de gens.

    Bientôt, au lieu de jeter un appareil électroménager, nous pourrons fabriquer la pièce défectueuse… À condition que les plans des objets soient librement disponibles. (Oui c'est vrai : combien de fois, un petit élément en plastique se casse, comme dans sa chasse d'eau, et plus rien ne fonctionne correctement).

    Et c'est bien cet esprit de matériel ouvert qui permet d'éviter que des industriels monopolisent l'innovation en brevetant les systèmes. Ainsi le projet RepRap partage sous licence libre des imprimantes 3D qui sont capables de s'auto-dupliquer, excepté les tiges métalliques et circuits électroniques (mais cela viendra peut-être).

    En pas libre, des sociétés proposent d'imprimer des objets proposés par des créateurs très geeks matheux comme des fractales 3D, des polygones réguliers, et autres pavages hexagonaux projetés à la bougie … Il devient aussi possibles d'imprimer des figurines pour les geeks de types board game … ouvrant la voix à un modèle économique pour le jeu de plateau libre ?

    Retour aux sources

    Les RepRaps sont nées de l'idée d'un professeur anglais qui a décidé que cette impression 3D, inventée même avant le noyau Linux, devait l'être pour tous. L'engouement des passionnés a fait le reste et, devant ce succès, sont nées des machines grand public prêtes à l'emploi. Mais ce sont bien les RepRaps qui ont permis deux choses :

    • Rassembler des citoyens pour défendre la liberté de créer des objets
    • Définir les standards techniques

    Dans ce domaine, le monde du Libre joue, avec des leviers considérables, de tous ces atouts (rapidité et flexibilité des modèles, contributions ultra-actives, recherches pointues et audacieuses !), laissant souvent derrière les industriels les plus motivés. Et c'est tant mieux car cela a déjà permis d'imposer le consommable sous forme de bobine et non pas en cartouches munies de puces ! Rien que ça, c'est une titanesque victoire !

    États des lieux entre brevets et communautés libres

    D'un côté nous avons de plus en plus d'entreprises qui se créent pour répondre aux besoins d'autres entreprises et institutions de créer des objets décoratifs, intelligents et connectés. C'est le cas de la jeune start-up CKAB qui a bien voulu répondre à nos questions.

    Il y a aussi les fabricants d'imprimantes 3D qui sont tentés de déposer des brevets pour affaiblir les marges d'innovation des concurrents, puis monopoliser le marché pour pratiquer ses propres tarifs, et ainsi pérenniser/augmenter leurs revenus. Tous les industriels n'ont pas ce comportement, mais comme d'autres le pratiquent (et que c'est légal), pourquoi s'en priver ?

    Parmi les concurrents, de l'autre côté, nous avons les particuliers qui s'émancipent et partagent librement leur passion. Ce sont des communautés rassemblées le plus souvent en fablabs. Mais aussi, des particuliers qui s'équipent chez eux tels des artisans.

    Tous ne viennent pas du monde du logiciel libre (pour ne pas dire presque pas). Mais tous ont goûté la satisfaction de l'entraide, du partage des sources et des bienfaits de l'open hardware.

    C'est le cas de Jean-Philippe qui a bien voulu nous répondre à nos questions. Jean-Philippe est en train de créer son entreprise pour proposer la conception/réalisation d'objets à partir d'imprimantes 3D.

    Entretien avec Romain Pouzol, directeur des opérations de la société CKAB

    Cette jeune start-up CKAB est revendeur officiel de la marque d'imprimantes 3D Makerbot et propose également la conception et la fabrication d'objets plus ou moins complexes.

    D'où est venue l'idée de créer CKAB ?

    Lorsque le matériel open-source (ou libre, attention #troll_inside) est apparu, porté par l’émergence du financement participatif, non seulement on a relativement1 décloisonné certaines technologies mais en plus et surtout, on a ouvert un univers d’usages collaboratifs, circulaires, inédits et virtuellement infinis.
    En d’autres termes, l’OSHW nous a donné le pouvoir de dématérialiser, de transformer et de re-matérialiser notre environnement physique.

    Dès lors, nous avons commencé à explorer cet univers des possibles, d’abord par la voie de la petite électronique open-source par le biais de notre e-shop Hackable-Devices (transféré et intégré depuis sur CKAB.io) puis par la voie des imprimantes 3D de bureau.
    Pour être tout à fait clair, ce n’est pas la Technologie en tant que telle qui nous intéresse au premier plan, ce sont les usages que l’on peut en faire et sur ce point, je ne vois pas comment le monde privatif pourrait rivaliser, à terme, avec le monde ouvert.

    À titre plus personnel, ce sont plus particulièrement les répercussions au plan politique — au sens strict du terme — qui m’intéressent. Je vois en l’impression 3D la même lame de fond « d’empowerment » des masses que celle que l’on a connue avec les médias sociaux, à la différence près que cette fois, on fait disparaître toute frontière entre environnement matériel et immatériel. Ma conviction est que si les ténors du secteur n’embrassent pas dès maintenant le phénomène de la fabrication numérique, les consommateurs le feront pour eux et là, oui, les industriels souffriront.

    CKAB se définit aujourd’hui comme « l’agence de la fabrication numérique et des objets intelligents » et il suffit de nous rendre visite (1 place Saint-Gervais – 75004 Paris) pour se rendre compte que, si nous sommes une entreprise commerciale et non un FabLab, notre environnement ressemble plus au laboratoire du professeur Tournesol qu’à de cliniques bureaux d’import/export d’électronique.

    Quelle est la première activité ou l'activité la plus lucrative ?

    Au début de l’activité, les ventes d’imprimantes 3D portaient la société. Sauf erreur de ma part, CKAB a été, avec notre partenaire belge de l’époque, l’importateur historique de MakerBot en Europe. On a donc la petite fierté de compter parmi les rares à avoir mis les mains sur les cinq générations de machine… et à les avoir bien modifiées.
    Aussi fou que cela puisse paraître, je crois que nous sommes les seuls à avoir pris la peine de, par exemple, traduire l’interface de la machine en français. Ce n’était clairement pas un immense exploit mais le plus cocasse est qu’aucun de nos confrères ne semble s’être donné la peine de reprendre notre travail pour un portage en allemand, espagnol, etc.
    C’est assez révélateur de l’état d’esprit du marché. Cela était prévisible mais reste dommage.

    Aujourd’hui, ce sont nos activités de conseil et d’évènementiel qui sont les plus importantes. Non pas que nous ne vendons plus de machines mais plutôt que l’acquisition du matériel intervient en fin de parcours.
    Nous avons dorénavant affaire au responsable du bureau d’étude, au CTO voire à des achats stratégiques décidés au niveau de la direction générale. Dans le secteur public, nous sommes passés d’achats isolés de tel ou tel collège/lycée à des investissements portés par des Régions, des académies ou encore des Ministères.

    Les équipements sont donc plus réfléchis mais ne nous y trompons pas, les entreprises restent très souvent perdues dans la jungle.
    C’est sur ce point que nous intervenons : établir la (non-)pertinence directe de ces technologies pour l’entreprise, les accompagner dans une phase exploratoire en prototypant produit ou service, et enfin, si nécessaire, les équiper avec le matériel adéquat et former les collaborateurs.
    CKAB représente aujourd’hui une cellule de veille technologique qui performe parce qu’elle dispose d’un savoir et d’un savoir-faire tant du côté software que du côté hardware.

    Pour autant, si l’on a travaillé dur pour gagner la confiance de groupes tels que Safran, Air Liquide, Chanel, Auchan, Renault (…), nous ne voulons surtout pas perdre les relations que nous entretenons avec les PME et les artisans car ce sont aussi voire surtout ces entreprises qui, de par leur souplesse inhérente à leur taille, sont à la source de l’innovation dans notre cher pays.
    Et quitte à paraître un peu prétentieux, je pense qu’assez rares sont les entreprises qui peuvent se permettre ce grand écart…surtout quand on est une équipe qui vient tout juste de passer à 3 personnes :-)

    À quel point le secteur est-il en croissance ?

    La recherche est très active, en particulier dans le domaine de la santé. L’avenir (15~25 ans) nous réserve de très belles choses.
    On parle d’impressions de tissus vivants, d’organes, de prothèses et si l’on a un peu d’imagination et que l’on associe la bio-impression 3D aux nanotechnologies, on verse rapidement dans l’humain augmenté, le trans-humanisme, la fameuse singularité.
    À ce niveau expérimental, l’open-source fonctionne à plein régime et m’est avis que si 2016 verra de nombreux FabLabs et assimilés fermer, on verra également un essor de lieux tiers orientés biologie tels que le bio-hackerspace « La Paillasse » à Paris.

    La recherche un peu plus appliquée est également en ébullition depuis quelques années. Il reste de nombreux obstacles à lever et tous ne sont pas de nature technique mais, globalement, les efforts sont portés sur le passage du prototypage à celui de la production d’objet fini ; qu’il s’agisse d’outillage rapide ou de sous-ensembles présents dans des biens de consommation.

    Au niveau des particuliers, certes les machines s’améliorent et peuvent se simplifier — ce qui est souvent synonyme d’un enfermement dans une prison dorée avec une perte de contrôle conséquente sur le matériel — mais il n’y a pas de révolution. On reste par exemple toujours ou presque sur du dépôt de filament fondu donc une seule matière et une seule couleur.
    À ce niveau, l’Open-Source est moteur avec tout ce que cela sous-entend en termes de collaboration. Il suffit d’examiner l’arbre généalogique du mouvement RepRap pour s’en rendre compte : plus de 400 projets et encore, cela ne couvre que 2006-2012 !

    Et je ne parle même pas des machines qui tirent parti du firmware open-source Marlin mais qui ne sont pas des RepRap pour autant car pas OSHW.

    À côté de cela, je fais partie des personnes qui ne pensent pas que chaque famille Michu aura une imprimante 3D chez soi à court voire à moyen terme.
    En effet, même si l’on pose l’hypothèse que le matériel sera accessible financièrement et techniquement parlant, même si l’on admet que les matériaux seront disponibles pour tous, reste la question de la CAO.
    Dessiner un objet véritablement utile en 3D est quelque peu plus complexe que d’ouvrir son traitement de texte…
    Certes des solutions logicielles apparaissent mais ce n’est pas la panacée.
    En ce sens, les machines qui clament haut et fort un comportement plug’n play sont soit de quasi-jouets soit sont techniquement capables mais tellement castrées par un logiciel privatif que leur usage est des plus restreints.
    Au niveau de cette dernière strate, on voit donc beaucoup d’agitation mais beaucoup moins de choses réellement innovantes, fonctionnelles et pérennes ; ce qui est normal car elles appellent un marché qui ne répond pas.

    De là à dire que l’impression 3D n’impactera jamais le grand public, il y a un pas que je me garde bien de franchir. Nous avons quelques idées mais ça, c’est une autre question… ;-)

    Y a-t-il de la place pour d'autres entreprises dans ce secteur ?

    Le marché de la distribution de matériel est devenu très concurrentiel, malheureusement parce que certains ont évidemment fait le choix de la chasse au dernier euro au détriment de la qualité du matériel et du service, ce qui a tiré une bonne partie du marché vers le bas.
    Démarrer aujourd’hui une activité de revente de machines me semble donc compliqué.

    Par contre, il y a encore de la place dans le secteur de la conception de machines même si partir la fleur au bout du fusil avec un produit minimum viable (MVP) financé par crowdfunding est aujourd’hui relativement illusoire.

    Quelle est la philosophie de Makerbot ?

    Avant son rachat par Stratasys (2e acteur mondial) en 2012 pour 400 M$, Makerbot travaillait pour et avec les Makers. Grosso-modo, on peut dire que si l’on cherchait une machine de bureau qui fonctionne bien pour en faire un usage professionnel, il n’y avait que MakerBot qui comptait.

    Depuis le rachat, il y a eu de nombreux changements de stratégie et de direction générale, la ligne directrice est plus floue. Trop souvent les produits n’ont pas été en phase avec le marketing.
    En guise d’exemple, CKAB ne vend quasiment pas d’imprimante 3D MakerBot de 5e génération, nous préférons l’avant-dernière génération : moins chère, plus silencieuse, plus rapide, plus évolutive, plus performante.
    Ces machines de 4e génération sont par ailleurs toujours open-source au niveau du firmware et nous les avons bien transformées au niveau matériel ce qui fait que même 3 ans après leur sortie, les Replicator2 améliorées par CKAB comptent toujours parmi les meilleures machines du marché.

    Je ne vais pas m’attarder sur les dessous de l’affaire, je vous conseille de lire ces quelques articles :

    Quelle est la part de marché de Makerbot ?

    Je ne saurais dire précisément. Je pense qu’ils sont toujours les premiers au plan mondial même si la 5e génération de machines leur a fait du mal. Quoi qu’il en soit, ils ont les ressources pour atteindre leurs objectifs.

    Quelles relations avec l'open hardware, les licences libres, les forums d'entraide, les fablabs ?

    Si l’on parle de MakerBot, plus aucune à ma connaissance depuis le rachat par Stratasys.

    Si l’on parle de CKAB, nous ne sommes pas des sectaires du Libre ou du propriétaire mais tant que faire se peut, on essaye de travailler avec des composants ouverts, qu’il s’agisse de logiciel ou de matériel.
    Quand on développe des prototypes d’objets intelligents pour nos clients, il ne s’agit pas forcément de payer moins cher telle ou telle brique logicielle ou matérielle mais plutôt de bénéficier de documentation, de souplesse d’utilisation, de partage (…) bref d’efficacité.

    Quant à donner en retour, on privilégie les actions concrètes sur le terrain plutôt qu’en ligne : atelier de soudure, prix doux pour fablabs, etc.

    Que conseiller aux lecteur de LinuxFr.org pour s'y mettre ?

    Tout dépend de ce que vous cherchez. Si vous souhaitez vous amuser à bidouiller – au sens noble du terme – une imprimante 3D, alors on pourra vous conseiller mais CKAB ne sera probablement pas votre interlocuteur commercial.
    Par contre, si vous préférez avoir un outil stable bien qu’ouvert donc évolutif et vous concentrer sur les objets qui sortiront de votre machine, alors on sera probablement beaucoup plus en phase.

    En ce qui concerne l’électronique, nous avons quelques joyeusetés en boutique mais nous ne cherchons pas à concurrencer selectronics ou sparkfun. Nous avons des compétences de sourcing, de dev soft et hard donc on peut accompagner pas mal de projets.

    En tout état de cause, je recommanderais une bonne dose de patience enrobée de logique, quelques épices de passion voire de folie, le tout baignant dans un nuage d’imagination.

    N’hésitez pas à nous rendre visite, sur rendez-vous :

    • 1 place Saint-Gervais – 75004 Paris, chez les Compagnons du Devoir,
    • Métro Pont-Marie ou Hôtel de ville.
    • Tel : 01 85 09 96 42
    • Courriel : contact@ckab.io
    Faire ses premiers pas, la communauté, les fablabs Avantages et inconvénients de l'impression 3D Technologies actuelles

    Les imprimantes 3D sont utilisées depuis plusieurs décennies pour la réalisation de prototypes. En effet, de manière générale, une pièce mécanique est d'abord conçue en CAO, prototypée, puis modifiée pour pouvoir la produire grâce aux méthodes traditionnelles (extrusion, moulage, etc.).

    Aujourd'hui, que ce soit par stéréolithographie ou SLA, frittage sélectif par laser ou SLS, ou tout autre procédé dit additifs, voici les avantages :

    • possibilité de créer des pièces infaisables autrement (sphères internes, porosité pré-calculée, etc.)
    • rapidité relative pour la création de pièces à petit tirage ;
    • coûts en chute libre ;

    Néanmoins, les impressions 3D ne sont pas très utilisées pour produire massivement pour plusieurs raisons :

    • lenteur pour produire des pièces à la chaîne ;
    • consommation énergétique très élevée ;
    • sécurité particulière (atmosphère sous Argon pour certains processus, toxicité des poudres nanométriques nécessaires en intrants, etc.).

    En outre, toutes les technologies additives fabriquent des pièces non-isotropes, et mécaniquement peu viables. En effet, une pièce mécanique possède ainsi une résistance différente dans la direction perpendiculaire au plan d'impression par rapport au plan d’impression. L'état de surface est rugueux par définition, mais l'état interne est identique.

    Or, il est connu des mécaniciens que tout angle vif est le siège le plus propice d'un développement d'une fracture de la pièce : il est possible d'utiliser cette propriété pour faire en sorte qu'une pièce casse à un endroit privilégié, et ainsi augmenter la sécurité. Mais avec une pièce contenant des irrégularités internes partout, il est impossible de faire confiance à cette pièce.

    Demain

    Ne nous voilons pas la face : tant qu'il faudra plusieurs heures ou jours pour fabriquer un produit, il est peu probable que cette technique s'impose pour la production de masse.

    Néanmoins, on voit émerger de nouveaux produits tels ceux de l'entreprise Carbon3D qui permettent de produire des objets en polymères quelconques (même élastiques), de manière continue (aucune strate affaiblissante), et surtout de 25 à 100 fois plus rapidement (inspiré par Terminator 2).

    Bref, les possibilités restent limitées par l'imagination humaine, mais j'attends personnellement que quelqu'un vienne avec une batterie où les anodes et cathodes sont des fractales tridimensionnelles pour faire un petit bond en densité d'énergie !

    Conclusion : gare aux brevets !

    Les années 90 ont vu le grand public s'équiper d'imprimantes 2D (encre sur papier). Un phénomène similaire peut aussi de se produire avec les imprimantes 3D, propulsant le grand public dans l'économie du partage. La révolution serait alors la possibilité de créer/partager pour un coût "abordable".

    Comme pour le logiciel libre, le succès viendra des réseaux sociaux de partage des sources comme github. Mais comme le logiciel libre, la menace est celle des brevets qui risquent de verrouiller l'innovation.

    C'est déjà le cas avec les codecs : nous en sommes toujours au JPEG standardisé en 1992 et le grand public ne profite pas librement des avancées majeures des Jpeg2000/…/HEVC car quelques pays puissants (USA, Japon) autorisent les brevets logiciels.

    Et dans le monde des imprimantes 3D c'est pire, car les brevets matériels sont autorisés, même en Europe.

    Donc ce sont les libertés des citoyens qui se jouent dans cette révolution. Est-ce que le grand public s'appropriera ces nouvelles technologies des imprimantes 3D et entrera dans l'économie du partage. Ou est-ce que nos gouvernements se laisseront séduire par les lobbies pour verrouiller le marché ?

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Présentation d'OpenStack

    Vendredi 5 Février

    OpenStack, vous connaissez ? Virtualisation et nuage/cloud, ça vous dit quelque chose ? Si vous n'êtes pas un expert, vous voulez sans doute en savoir un peu plus. Cet article est fait pour vous.

    Nous allons rappeler ce qu'est un cloud, les différents types de cloud, et où se situe OpenStack. Ensuite nous ferons une présentation d'OpenStack et de ses différents services.

    La version d'OpenStack baptisée Kilo est sortie le 30 avril 2015. Elle incluait à cette date un nouveau service : Ironic. Le 16 octobre 2015, ce fut le tour de la version Liberty. D'autres sont à venir à commencer par Mitaka annoncé pour le 7 avril 2016. Pour mémoire, la première lettre du nom de version suit l'alphabet latin.

    Cet article a pour but de faire une présentation assez rapide d'Open Stack et de servir de référence aux prochains articles, en particulier lors de la sortie de Mitaka en avril.

    NdM : cette dépêche est incomplète, elle a longtemps traînée en rédaction. Elle a cependant le mérite de proposer un rare tour d'horizon. Les modérateurs la publie en comptant sur l'excellence de vos commentaires pour nous raconter les évolutions depuis la version Kilo.

    Sommaire Les différents clouds Qu'est-ce que le Cloud Computing ?

    Le Cloud Computing est un concept fourre-tout. C'est le fait d'utiliser de la puissance de calcul ou de stockage de serveurs informatiques distants par l'intermédiaire d'un réseau, avec certaines caractéristiques comme la disponibilité, l'élasticité, la mutualisation et le paiement à l'usage.

    Le plus souvent il s'agit d'un service informatique extérieur à l'entreprise. Cela est donc une façon d'économiser des moyens humains en informaticiens et de les remplacer par un service externe qui peut gérer au besoin une demande importante.

    Prenons un exemple pour bien comprendre : le cas d'une suite bureautique. Pour l'entreprise, il y a 2 manières de gérer l'utilisation d'un traitement de texte :

    • Installer sur les postes clients un traitement de texte et payer éventuellement les licences qui vont avec (Microsoft Office 2013, LibreOffice).
    • Utiliser un traitement de texte via un navigateur web (exemple : Microsoft Office 365, Google Doc, Etherpad instancié sur le Framapad).

    La première méthode est moins souple, car l'entreprise paie les licences même si le logiciel n'est pas utilisé ; alors qu'avec la seconde, le paiement est à la demande. Par ailleurs, il n'y a pas la phase d'installation du logiciel qui permet d'économiser du temps. Par contre les données sont externalisées, ce qui peut poser des problèmes de sécurité et de confidentialité.

    L'exemple qui vient d'être évoqué est un SaaS : Software as a Service/logiciel en tant que service

    Mais il y a différents degrés d'informatique en nuage.

    On peut faire l'analogie pour manger une pizza :

    • La méthode "à la maison" : on achète les ingrédients, on les cuisine et on met la table. C'est la méthode traditionnelle. L'acheteur (entreprise ou particulier) contrôle tout et en a les compétences.
    • La méthode "à emporter puis cuisiner" : on te fournit les ingrédients. C'est à toi de les cuisiner à ta manière et de s'occuper du reste. L'entreprise en tant qu'utilisateur n'a pas à s'occuper des matières premières mais elle a le contrôle du reste. En cloud, c'est IaaS : Infrastructure as a Service/infrastructure en tant que service, avec les compétences afférentes
    • La méthode "pizza 30 minutes" : on appelle un vendeur de pizza. Il ne reste plus qu'à s'occuper de l'accompagnement et de la table. Dans le nuage, c'est PaaS : Platform as a Service/ plate-forme en tant que service
    • La méthode "pizzeria" : on entre dans une pizzeria et on n'a rien à prendre en charge (ou presque). En cloud, c'est SaaS : Software as a Service/logiciel en tant que service.

    OpenStack est un ensemble de logiciels libres permettant de déployer un cloud orienté IaaS, mais il est de plus en plus possible de faire un PaaS.

    Cloud privé vs public

    Le cloud public est un cloud qui permet à l'entreprise d'externaliser ses moyens. Il y a donc moins d'informaticiens à embaucher. L'entreprise doit par contre payer une autre entreprise et perd le contrôle de l'infrastructure et les données.

    Exemple IaaS public connu : Amazon EC2, Windows Azure, RackSpace et CloudWatt.

    Le cloud privé est un cloud qui permet de ne pas perdre le contrôle de l'infrastructure et des données tout en améliorant la qualité de service. Ce type de cloud est de plus en plus utilisé dans les grandes entreprises. Cela demande des compétences en interne.

    Exemple IaaS privé connu : OpenStack, OpenNebula.

    Il y a aussi le cloud hybride qui permet d'utiliser les avantages du cloud privé et du cloud public.

    Avec un cloud hybride, une possibilité est de mettre les données sensibles et importantes dans le cloud privé et le reste dans le cloud public. Une autre possibilité dans l'optique de réduire ses coûts d'exploitation est de dimensionner son cloud privé pour une charge moyenne et d'utiliser le cloud public afin d'absorber les surcharges ponctuelles.

    OpenStack Présentation

    GNU/Linux est né entre deux projets : le noyau Linux créé par Linus Torvalds et des outils systèmes du projet GNU. De la même manière, l'entreprise Rackspace a créé un service de stockage (Swift) et a besoin d'un système pour la gestion de la virtualisation automatique. Des employés de la NASA créent une solution toute trouvée : Nova. Ainsi, en 2010, OpenStack est né de 2 services : Nova et Swift.

    OpenStack est sous licence Apache 2.0, licence de logiciel libre. Elle n'est pas Copyleft.

    Historique des versions

    Avec un rythme de quatre mois puis de six mois, les versions d'OpenStack sont sorties.

    En 2011, le service Nova s'est séparé du service de gestion d'image de machine virtuelle pour créer un nouveau service : Glance.

    En avril 2012, un nouveau service apparaît : Horizon. C'est l'interface web qui permet de visualiser les différents services d'OpenStack. Par ailleurs Nova se sépare du service d'identification pour créer un nouveau service : Keystone.

    En septembre 2012, la gestion réseau de Nova (nova network) commence à prendre beaucoup trop de place. Un nouveau service apparaît : Quantum. Il sera appelé par la suite Neutron. Par ailleurs, la gestion du stockage bloc de Nova explose et un nouveau service naît : Cinder.

    En 2013, deux nouveaux services apparaissent : Heat et Ceilometer. Heat est un service de gestion de l'orchestration. Ceilometer est un service de calcul de consommation de chaque client.

    En avril 2014, le service Trove apparaît. C'est un service de gestion d'instance de base de données.

    En octobre 2014, le service Sahara apparaît. C'est un service dédié au Big Data.

    Technologies communes

    Tous les services utilisent Python 2.7. Il y a un projet pour porter vers Python 3.

    Chaque service utilise une base de données relationnelle. Par défaut, il utilise MySQL mais il est possible d'utiliser une autre base de données. OpenStack utilise comme ORM : SQLAlchemy.

    Pour accéder, modifier une ressource, OpenStack utilise l'API REST qui est basée sur HTTP.

    Pour la communication entre les services et à l'intérieur des services, OpenStack utilise AMQP. Par défaut, il utilise l'implémentation en Erlang : RabbitMQ.

    Les différents composants Nova

    Développé à l'origine par la NASA, c'est le cœur d'OpenStack. Il s'occupe principalement de la gestion des hyperviseurs (ordonnanceur et gestion des machines virtuelles) et du contrôle des ressources (CPU, RAM, réseaux et stockages).

    Glance

    Glance a été extrait rapidement de Nova pour en faire un composant à entière. Il permet la gestion des images de machine virtuelles (découverte, enregistrement, récupération et états des images).

    Keystone

    Keystone permet la gestion de l'identification. L'utilisation d'un autre composant dépend de Keystone (accréditation).

    Neutron

    À l'origine ce composant s'appelait Quantum, il permet la gestion du réseau dans OpenStack. Il a des fonctionnalités réseaux avancées (tunneling, QoS, Réseaux virtuels et équilibrage de charge, etc.).

    Avec Nova, Neutron est l'élément où le développement est le plus important (voir les statistiques de stackalystics grâce notamment à l'arrivé de Cisco dans le projet.

    Swift

    Ce composant permet la gestion du stockage objet. Il a été développé avant OpenStack par Rackspace. Il est ainsi indépendant d'OpenStack et est considéré comme le composant le plus stable. Il peut s'utiliser comme frontend avec le composant Glance.

    Le stockage objet est une notion bien différente d'un stockage classique qu'on connaît sur les ordinateurs de bureau. Il n'y a pas de notion de montage de partition par exemple. Mais l'avantage principale de ce type de stockage est la disponibilité, la tolérance aux pannes et un agrandissement du stockage à l'infini. En contre-partie, il est considéré moins performant et beaucoup plus compliqué à paramétrer qu'un stockage classique. Un concurrent à Swift que vous connaissez certainement est Ceph.

    Cinder

    Ce composant permet la gestion du stockage de type bloc.

    Ironic

    Ironic est un nouveau composant du projet OpenStack. Il permet la gestion du Bare Metal c'est à dire des véritables ordinateurs et non des machines virtuelles. Il s'occupe ainsi le démarrage et l'extinction des ordinateurs. Il va utiliser des technologies comme PXE, TFTP ou IPMI par exemple.

    Horizon

    Horizon est une interface web pour la gestion d'OpenStack. Il utilise comme framework Django. Il permet ainsi de visualiser les différents composants d'OpenStack et d'agir dessus.

    Heat

    Heat est le composant d'orchestration d'OpenStack. Il permet par exemple de demander à Nova de démarrer une machine virtuelle supplémentaire en cas de charge importante de façon automatique.

    Ceilometer

    Ceilometer est le composant de facturation d'OpenStack. Il permet de calculer la consommation (CPU, RAM, données, etc) de chaque client (utile pour créer un cloud public)

    Trove

    Trove est le composant de provisionnement de bases de données d'OpenStack. Il prend en charge MySQL, PostgreSQL, MongoDB. Depuis kilo, il prend par ailleurs en charge Vertica et Vertica Cluster, DB2 et CouchDB.

    Sahara

    Sahara est le composant pour le Big Data d'OpenStack. Il permet d'utiliser Hadoop avec OpenStack.

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Loi de finances 2016 en France : des nouvelles du front

    Jeudi 4 Février

    La loi de finances 2016 en France dispose d’un article 88 qui vise à réglementer le secteur des logiciels d’encaissement.

    Citons-en la partie essentielle :

    Lorsqu'elle enregistre les règlements de ses clients au moyen d'un logiciel de comptabilité ou de gestion ou d'un système de caisse, utiliser un logiciel ou un système satisfaisant à des conditions d'inaltérabilité, de sécurisation, de conservation et d'archivage des données en vue du contrôle de l'administration fiscale, attestées par un certificat délivré par un organisme accrédité dans les conditions prévues à l'article L. 115-28 du code de la consommation ou par une attestation individuelle de l'éditeur, conforme à un modèle fixé par l'administration

    Alerté au début de l’été 2015, votre humble serviteur a entamé depuis octobre 2015 une action vis à vis de cet article potentiellement nuisible au logiciel libre et qui entrerait en vigueur le 1er janvier 2018.

    La coordination principale a lieu sur la liste comptabilite@ de l’April, liste ouverte à tous sans besoin d’adhésion à l’association.

    TL;DR

    On a été reçus par Infocert, organisme de certification, et le gouvernement. On a reçu une écoute attentive. Les problèmes que nous soulevons ont été reconnus comme vrais.
    Le front est situé autour de la liberté de modification et de la notion d’éditeur d’un logiciel communautaire.

    Aucun engagement concret n’a cependant été pris.

    Où en étions-nous ?

    La dernière fois que je me suis exprimé en ce lieu, la loi n’était pas votée. Je n’avais rencontré personne, l’action se cantonnant à des contacts téléphoniques avec le cabinet du secrétaire d’État au budget.
    Beaucoup des conclusions présentes dans les commentaires, renforcées par des échanges sur la liste comptabilité se sont avérés.

    Accélération et préparation

    Alerté par du remous sur les Internets, le gouvernement a pris contact. Un échange rapide a conclu à un engagement de rencontre en janvier, engagement qui s’est réalisé.
    Je suis également rentré en contact avec Infocert, seul organisme proposant une certification en rapport à cette loi.
    Il y a eu 2 rencontres fin janvier.

    Une intervention dans l’écho des gnous, émission FM sur radio Campus Lille, avait mobilisé la communauté.
    Les échanges sur comptabilite@ mais, surprenant que ce soit, également sur LinuxFr.org, ont été productifs.
    Un article sur Numerama a donné de la visibilité au sujet, produisant des retours.

    Je me suis mis en rapport avec l’April qui, mixé aux analyses juridiques de l’avocate de Scil (éditeur du logiciel Pastèque), a été indispensable sur le plan juridique et politique.

    Rencontre avec Infocert

    Infocert confirme : la norme Logiciel de gestion et d’encaissement a précédé la loi.

    Infocert reconnaît qu’en l’état, les sujets du logiciel libre, du cloud et des tablettes (dans cet ordre) sont à creuser. Infocert a indiqué que la certification serait revue aux lumières des précisions apportées par le gouvernement autour de la loi.

    Infocert invite les acteurs du monde libre à rejoindre son « Club Access » (ce n’est pas gratuit) afin de débattre du sujet.

    Rencontre avec le gouvernement

    L’équipe de l’April et moi-même avons été reçus au ministère des finances. Les participants du côté de l’État soulignent a minima une considération sérieuse pour le sujet.

    Nous venions avec 3 points principaux et des sujets connexes.

    Les trois points principaux :

    1. Protection des éditeurs de logiciels libres en cas de dévoiement du logiciel par un utilisateur. A priori ce point est déjà assuré par plusieurs principes juridiques. Pour résumer, un constructeur de vélos ne sera jamais mis en cause pour un problème lié aux bricolages d’une personne sur son vélo.
    2. Protection du droit à modifier un logiciel : la loi ne doit pas empêcher un utilisateur d’apporter des modifications à un logiciel, y compris aux sections concernant les données. Nous avons émis des propositions, elles ont été prises en note.
    3. Proposition de télé-transmission des données en temps réels (déclarations TVA, signatures comptables) : cela a été repoussé à après la mise en œuvre de la loi actuelle. Ce point est une manœuvre pour réduire la complexité de la vérification de l’intégrité des données locales dans un environnement logiciel totalement ouvert.

    Les sujet connexes :

    • Définition de la notion d’éditeur de logiciel. Rien n’existe dans la loi à ce propos, cela a été reconnu. Ce point est pourtant plein de conséquences pour les projets libres communautaires et, mais on s’en fout, pour les SI propriétaires complexes avec plusieurs intervenants.
    • Question du e-commerce : est-il concerné ? Si oui, la masse de personnes concernées serait énorme.
    • Retour sur la loi de 2013 de lutte contre la fraude qui contient des dispositions récusées par l’April.
    • Retour sur le rejet de la priorité au logiciel libre.

    Nous n’avons pas abordé la question de la conservation de données privées. Nous passerons le sujet à la Quadrature du Net quand cette dernière aura un peu plus d’air ; l’état d’urgence est toujours l’actualité.

    Le gouvernement lancera prochainement une consultation dans le but de clarifier tous les points flous de la loi d’ici au mois de juin 2016. Nous l’avons invité à le faire en ligne.

    Piste bonus

    Nous en sommes restés coi : un de nos interlocuteurs, inspecteur général des impôts, nous a dit avoir lu les commentaires de la dépêche LinuxFr.org précédente.

    Télécharger ce contenu au format Epub

    Lire les commentaires

    saloon : débuter simplement une application web avec erlang et angular

    Jeudi 4 Février
    Le problème des piles pour applications web

    Si vous avez déjà cherché à développer une appli web moderne, vous avez déjà dû vous heurter à la question de choisir les bons composants parmi la foultitude de ceux existants… et surtout les faire fonctionner.

    Premièrement, quand je parle d'applis web modernes, il faut savoir qu'elles partagent en général cette architecture :

    • un serveur HTTP,
    • un cadriciel pour exposer des API REST,
    • un cadriciel JavaScript pour la partie frontend: il consomme les API REST et met en forme les données en HTML,
    • un système de construction (build), ou plutôt des, la partie serveur et la partie frontend utilisant en général un système différent.

    Bref, il fait fonctionner tout cela ensemble, vérifier les incompatibilités, etc.

    Les générateurs d'applications yeoman

    Le projet yeoman vise à fournir des générateurs d'applications qui intègrent des piles complètes et prêtes à l'emploi dans le domaine des applis web. Même si le projet est issu de la communauté node.js, on peut aisément écrire des générateurs pour n'importe quelle techno.

    saloon, faites entrer le cowboy

    Le générateur saloon (licence Apache v2) est un générateur yeoman pour débuter simplement une application web avec erlang et angular.

    Il intègre les composants suivants:

    • partie serveur:
    • partie frontend:
      • bootstrap pour des composants graphiques pas trop moches,
      • angular.js, le cadriciel bien connu pour faire des applis web dynamiques,
      • Sass pour faciliter l'écriture de CSS,
    • intégration / construction: un projet généré avec saloon est construit avec make et intègre:
      • pour la partie serveur: erlang.mk, l'excellent Makefile pour erlang,
      • pour la partie javascript:
      • Bower pour les dépendances javascript,
      • Grunt pour la partie javascript qui a besoin d'être construite.
    Comment se lancer ?

    Il vous suffit de lancer yo saloon dans un répertoire vide, puis de lancer make. Vous avez alors une appli prête à l'emploi que vous pouvez modifier / étendre comme bon vous semble. Mais toutes les bases sont là et fonctionnelles.

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Wikipédia a soufflé ses 15 bougies

    Mardi 2 Février

    L’encyclopédie collaborative libre Wikipédia a fêté ses 15 ans mi-janvier. Forte de 5 millions d’articles en anglais, de 10 autres langues avec plus d’un million d’articles chacune (dont l’allemand avec 1,8 millions et le français avec 1,7 millions) et globalement plus de 35 millions de pages en 291 langues, ce recueil d’informations et de connaissances, tour à tour adulé et décrié, devenu L’encyclopédie, poursuit son chemin. 28% des Terriens n’ont jamais connu un monde sans ce commun informationnel (source Fondation Wikimédia).

    Quelques informations en vrac :

    • la Fondation Wikimedia a mis en ligne un site dédié aux 15 ans, comportant de nombreux témoignages ;
    • pour soutenir l’encyclopédie en cas de problème, elle a aussi annoncé la création d'un fonds de 100 millions de dollars sur dix ans ;
    • le budget annuel est d’environ 76 millions de dollars, à 95% financé par les dons privés ;
    • courant janvier, une polémique a eu lieu autour d'Arnnon Geshuri, un membre du conseil d'administration de Wikimedia qui a démissionné, suite à des ennuis judiciaires liés à sa carrière dans les ressources humaines chez Google et après un vote de défiance de la communauté ;
    • courant janvier, une autre information largement relayée par la presse : une adresse IP du ministère français de l’Intérieur a été suspendue par Wikipédia pour « attitude non collaborative (…) passage en force et foutage de gueule. » ;
    • Wikimédia France comporte environ 400 membres et emploie une quinzaine de salariés ;
    • Wikimédia France a milité auprès des parlementaires pour la liberté de panorama dans le cadre de la loi sur le numérique d'Axelle Lemaire ;
    • le projet Wikidata de données sémantiques poursuit sa route et devrait bientôt comporter 16 millions d’éléments réutilisables ;
    • le Québec serait un « parent pauvre de Wikipédia » (et un sujet local de polémique) ;
    • Wikipédia manquerait de femmes (près de 90% des contributeurs seraient des hommes) ;
    • Wikipédia sert de rubrique nécrologique.
    Télécharger ce contenu au format Epub

    Lire les commentaires

    Revue de presse de l'April pour la semaine 4 de l'année 2016

    Lundi 1 Février

    La revue de presse de l'April est régulièrement éditée par les membres de l'association. Elle couvre l'actualité de la presse en ligne, liée au logiciel libre. Il s'agit donc d'une sélection d'articles de presse et non de prises de position de l'association de promotion et de défense du logiciel libre.

    Sommaire

    [LeDevoir.com] Le logiciel libre, remède à l’opacité des algorithmes

    Par Mathieu Gauthier-Pilote, le vendredi 29 janvier 2016. Extrait:

    Dans un texte publié dans Le Devoir du 12 janvier («Uber et le nécessaire contrôle social des algorithmes»), le chercheur Yves Gingras soulevait la question fort pertinente de l’opacité des algorithmes utilisés par les services numériques auxquels nous sommes de plus en plus habitués dans notre société (par exemple Uber). Le sujet était à nouveau discuté à l’émission de radio Médium large le 14 janvier. Cet enjeu nous interpelle en tant que citoyens et militants de l’informatique libre.

    Lien vers l'article original: http://www.ledevoir.com/societe/science-et-technologie/461474/le-logiciel-libre-remede-pratique-a-l-opacite-des-algorithmes

    [Numerama] Recours et menace de plainte après l'accord entre Microsoft et l'Éducation nationale

    Par Guillaume Champeau, le vendredi 29 janvier 2016. Extrait:

    Un collectif de défense de l'utilisation des logiciels libres dans l'éducation a déposé un recours contre le partenariat signé fin 2015 entre Microsoft France et l'Éducation nationale. Ses avocats menacent de déposer plainte au pénal pour favoritisme contre la ministre Najat Vallaud-Belkacem si l'accord n'est pas annulé.

    Lien vers l'article original: http://www.numerama.com/politique/141873-recours-et-menace-de-plainte-apres-laccord-entre-microsoft-et-leducation-nationale.html

    Et aussi:

    Voir aussi:

    [Le Monde Informatique] Google défend sa licence open source OpenJDK pour Android

    Par John Ribeiro, le mercredi 27 janvier 2016. Extrait:

    Le 24 décembre dernier, Google a discrètement sorti une version d'Android basée sur le code OpenJDK, c'est-à-dire l'implémentation open source de la plate-forme Java Standard Edition, Java SE. Mais pour Oracle, cela ne permet pas à tous les composants d'Android de bénéficier d'une licence open source. L'éditeur a porté l'affaire devant la justice.

    Lien vers l'article original: http://www.lemondeinformatique.fr/actualites/lire-google-defend-sa-licence-open-source-openjdk-pour-android-63727.html

    [Le Monde.fr] «Pretty Easy Privacy», le chiffrement automatique par défaut pour tous

    Par Yves Eudes, le mardi 26 janvier 2016. Extrait:

    Vingt-cinq ans après le PGP (Pretty Good Privacy), une équipe européenne invente le PEP, qui chiffrera tous les messages électroniques, automatiquement.

    Lien vers l'article original: http://www.lemonde.fr/pixels/article/2016/01/26/pretty-easy-privacy-le-chiffrement-automatique-par-defaut-pour-tous_4853782_4408996.html

    Et aussi:

    [Le Telegramme] Ils veulent «dégoogliser» Internet

    Par la rédaction, le mardi 26 janvier 2016. Extrait:

    Big Brother se cache-t-il derrière les géants du web? C'est l'objet des rencontres organisées jusqu'à ce soir à Brest, avec le soutien de la Ville. Parmi les invités, l'association Framasoft, qui souhaite «dégoogliser» Internet.

    Lien vers l'article original: http://www.letelegramme.fr/finistere/brest/forum/ils-veulent-degoogliser-internet-26-01-2016-10934027.php

    [Bloomberg] Get Ready for Patent Wars as IP Europe Consortium Is Unveiled

    Par Marie Mawad, le mardi 26 janvier 2016. Extrait:

    (Certains des plus gros producteurs de propriété intellectuelle forment une équipe afin de battre en faveur de règles qui les aideront à mieux monétiser l'innovation) Some of Europe’s biggest producers of intellectual property are teaming up to battle for rules that’ll help them cash in better on innovation. Telecommunications network builder Ericsson AB, plane maker Airbus Group SE, French phone company Orange SA and train maker Alstom SA are among companies behind IP Europe, a consortium due to be unveiled today in Brussels.

    Lien vers l'article original: http://www.bloomberg.com/news/articles/2016-01-26/get-ready-for-patent-wars-as-ip-europe-consortium-is-unveiled

    [ZDNet France] OS souverain: le choix Linux pour nos lecteurs

    Par la rédaction, le lundi 25 janvier 2016. Extrait:

    Les ambitions françaises de plancher sur un éventuel OS souverain pourraient s'articuler autour de l'approche libre de Linux. D'ailleurs, une version dédiée et sécurisée de l'OS est déjà proposée aux opérateurs d'importance vitale par l'Anssi.

    Lien vers l'article original: http://www.zdnet.fr/actualites/os-souverain-le-choix-linux-pour-nos-lecteurs-39831642.htm

    Et aussi:

    Télécharger ce contenu au format Epub

    Lire les commentaires

    La recherche locale avec OscaR.cbls, expliquée à mon voisin (Belgique, Mons, 18 février 2016)

    Lundi 1 Février

    Ce jeudi 18 février 2016 à 19h se déroulera la 46e séance montoise des Jeudis du Libre de Belgique.

    Le sujet de cette séance : La recherche locale avec OscaR.cbls, expliquée à mon voisin

    Thématique : algorithmique, optimisation, programmation, développement

    Public : développeurs, étudiants, enseignants

    L’animateur conférencier : Renaud De Landtsheer (CETIC)

    Lieu de cette séance : Université de Mons, Faculté Polytechnique, Site Houdain, Rue de Houdain, 9 – cf. ce plan sur le site de l’UMONS, ou la carte OSM). Entrée par la porte principale, au fond de la cour d’honneur. Suivre le fléchage à partir de là.

    La participation sera gratuite et ne nécessitera que votre inscription nominative, de préférence préalable, ou à l’entrée de la séance. Merci d’indiquer votre intention en vous inscrivant via la page http://jeudisdulibre.fikket.com/. La séance sera suivie d’un verre de l’amitié (le tout sera terminé au plus tard à 22h).

    Description : OscaR est une bibliothèqe libre pour résoudre des problèmes d’optimisation. OscaR propose plusieurs moteurs d’optimisation : la recherche locale basée sur les contraintes, la programmation par contraintes et la programmation linéaire. OscaR est implémenté en Scala.

    Après un aperçu général des différents moteurs d’OscaR, cet exposé se concentrera sur le moteur de recherche locale basée sur les contraintes. Il en présentera d’abord les grands principes et l’architecture du moteur avant de se concentrer sur la couche déclarative permettant de définir aisément les contraintes et la fonction objectif du problème mais aussi d’exprimer de manière compacte des procédures de recherche locale.

    Nous montrerons comment ces mécanismes ouverts et extensibles fournissent un cadre productif pour le développement de solutions efficaces à des problèmes d’optimisation de grande taille, et montreront leur application à un module d’optimisation de routage de véhicules.

    Les Jeudis du Libre à Mons bénéficient aussi du soutien de nos partenaires : CETIC, Normation, OpenSides, MeaWeb et Phonoid.

    Si vous êtes intéressé(e) par ce cycle mensuel, n’hésitez pas à consulter l’agenda et à vous inscrire sur la liste de diffusion afin de recevoir systématiquement les annonces.

    Pour rappel, les Jeudis du Libre se veulent des espaces d’échanges autour de thématiques des Logiciels Libres. Les rencontres montoises se déroulent chaque troisième jeudi du mois, et sont organisées dans des locaux et en collaboration avec des Hautes Écoles et Facultés Universitaires montoises impliquées dans les formations d’informaticiens (UMONS, HEH et Condorcet), et avec le concours de l’A.S.B.L. LoLiGrUB, active dans la promotion des logiciels libres.

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Bibliothèque de génération et de manipulation de formes libsdl2_gfxutils

    Lundi 1 Février

    J'annonce de part ce présent message, la réécriture de la bibliothèque de génération et de manipulation de formes libSDL2_gfxutils. Elle est publiée sous GPLv3.

    Sommaire SDL2_gfxutils Résumé de la bibliothèque SDL2_gfxutils
    • Version actuelle : 2.0.0
    • Plateformes cibles : Linux, Windows et normalement tous les compatibles Posix (non testé)
    • Compilateurs : gcc, g++, clang, mingw32, mingw-w64-686, mingw-w64-x86_64.
    • Licence : GPLv3
    • Auteur : Eddie Brüggemann (mrcyberfighter CHEZ gmail)
    La petite histoire de SDL2_gfxutils

    SDL2_gfxutils est issue d'une collection de fonctions de génération de formes implémentée pour des besoins personnels.

    À chaque fois que j'avais une idée de forme dans la tête j'essayais de l'implémenter - pendant plusieurs années…

    J'ai commencé par écrire des fonctions Python avec le module pygame qui est basé sur la bibliothèqe SDL, étant parti d'une fonction qui calcule la position d'un pixel selon un rayon et un angle.

    SDL2_gfxutils a été écrit une première fois sous forme de bibliothèque C complémentaire à SDL2_gfx (dont les fonctions sont utilisées uniquement pour l'affichage) et je me suis sacrément trompé en tronquant les données vers le type requis par SDL2_gfx: int16_t.

    Mais SDL2_gfxutils a été entièrement réécrit et amélioré par la même occasion pour nous donner cette nouvelle implémentation, compatible C++.

    La nouvelle implémentation de SDL2_gfxutils

    Toutes les fonctions génératrices de formes retournent un pointeur sur un type spécifique SDL2_gfxutils (Polygon, Star, …) compatible avec le type générique Form.

    Les pointeurs permettent de manipuler les formes générées pour les transformer par rotation, translation, mise à l'échelle et effet miroir, facilement.

    Les pointeurs peuvent bien sur être détruits à volonté et cette mécanique est utilisée massivement dans la génération de forme.

    Le type générique Form a changé pour contenir des coordonnées de type float, à la place de int16_t. Le calcul pour les rotations, translations, mise à l'échelle et effet miroir s'exécute correctement maintenant.

    Avant les int16_t étaient doublés en interne pour les calculs. D'ailleurs si le cœur vous en dit il suffit de remplacer chaque occurrence du mot float par le mot double dans les fichiers source pour opérer en double précision (cela se fait en 5 minutes avec un éditeur de texte).

    Les membres du sous-type Pixel sont de type float maintenant.

    • Certaines fonctions ont été enlevées, devenues inutiles avec la mécanique des pointeurs ;
    • D'autres fonctions ont été ajoutées, pour remplacer les fonctionnalités perdues, avec beaucoup d'avantages, surtout pour l'animation dans la boucle principale d'affichage ;
    • Toutes les fonctions ont été améliorées grâce à la mécanique des pointeurs de libSDL2_gfxutils.
    Présentation de libSDL2_gfxutils.

    SDL2_gfxutils est une extension de SDL2_gfx pour aider à la création et animation (d'images fantastiques que vous pouvez imaginer.) SDL2_gfxutils fournit diverses fonctions pour divers usages:

    Il est facile d'adapter SDL2_gfxutils pour être compatible avec d'autres bibliothèques que SDL2_gfx. Il suffit de changer les fonctions d'affichages_.

    Opérations de transformation de formes

    Il vaut mieux passer des valeurs entières ou de faible précision sinon si l'on boucle cela risque de perturber libsdl2_gfxutil.

    Changement de paramètres de formes: les setters
    • Changer le centre de gravité de la forme (Form) avec translation optionnelle des coordonnées ;
    • Changer le rayon de la forme (Form) ce qui équivaut à une mise a l'échelle en mettant la valeur directement (sans passer par un facteur de mise à l'échelle) ;
    • Assigner une nouvelle couleur à une forme (Form) ou ligne (Line).
    Récupérer les paramètres d'une forme: les getters
    • Récupérer le pixel (Pixel) central courant de la forme (Form) ;
    • Récupérer la couleur (Color) de la forme (Form) ;
    • Récupérer le rayon de la forme ;
    • Récupérer l'orientation courante de la forme ;
    • Récupérer le membre real_length de la forme (Form) qui correspond au point le plus éloigné du centre (utilisable par exemple pour les collisions formes).

    Il n'est pas toujours évident d'associer la notion de rayon à certaines formes.

    Affichage des formes

    Chaque type de forme (Form) a ses propres fonctions d'affichage (sinon vous pouvez vous servir de celle que vous désirez mais le résultat sera indéfini et vous aurez des surprises.
    Pour chaque fonction d'affichage il existe une version anti-crénelage et une version pour assigner l'épaisseur du trait, excepté pour l'affichage en plein.

    Longueur et distance entre 2 pixels
    • Mesurer la longueur d'une ligne (Line)
    • Récupérer le milieu d'une ligne (Line)

    Enfin, cette extension à SDL2_gfx peut, de part sa structure, facilement être adaptée à d'autres bibliothèques que la SDL2.

    Télécharger ce contenu au format Epub

    Lire les commentaires

    Pages