Linux France

S'abonner à flux Linux France
Mis à jour : il y a 46 min 49 sec

Le mkframework, découvrez un framework php très différent

Samedi 7 Mars

Il existe aujourd'hui beaucoup de frameworks php, mais un seul d'entre eux se différencie par sa rétrocompatibilité. Contrairement aux autres frameworks qui n'hésitent pas à changer de version en obligeant leurs utilisateurs à repasser sur l'ensemble des applications pour les "migrer" vers la nouvelle version, le mkframework, lui, est rétro compatible depuis sa publication en 2009

Il continue d'évoluer en restant compatible avec l'ensemble des applications l'utilisant depuis son lancement.

Ce framework est opensource, hebergé par le site developpez.com et proposé sous licence LGPLv3. Il est également disponible sur github et via composer

Une prise en main facilitée Un générateur web

La courbe d'apprentissage des frameworks est souvent un frein à leur utilisation. Ici, grâce à un générateur web, vous pouvez en seulement quelques clics avoir une base utilisable pour votre application.

En effet le générateur web vous permet par exemple de

  • générérer la couche modèle
  • générer un module CRUD[1]
  • générer une gestion d'authentification
  • ajouter une gestion de droits à votre application
Des vidéos d'explication

Pour faciliter la prise en main, une vingtaine de vidéos montrent comment utiliser le framework.
Les utilisateurs peuvent également proposer des idées de vidéos.

De nombreux articles et tutoriaux

Vous pouvez retrouver des tutoriaux sur developpez.com, openclassrooms.com mais également dans le magazine papier PROGRAMMEZ.

Des tutoriaux plus ou moins complexes permettant aussi bien de découvrir le framework que de developper un réseau social, un twitter-like par exemple, et ceci très facilement.

Une gestion modulaire à sa création

Ce framework utilise des modules depuis 2009 quand d'autres les ont seulement implémenté depuis 1 ou 2 ans, en effet on peut imbriquer/moduler ses développements très facilement et ainsi capitaliser sur son travail. Quelques modules sont téléchargeables sur le site, permettant simplement d'utiliser Google Maps ou de générer des tableaux avec la librairie Guriddo, …

La sécurité au coeur du framework

Travaillant régulièrement avec des cabinets d'audits de sécurité, j'ai intégré les mesures conseillées par ces cabinets au framework au fil des années.
Il y a même une page consacrée sur le sujet: http://mkframework.com/security.html

Conclusion

L'essayer c'est l'adopter: même si la formule est un peu facile, la plupart des utilisateurs actuels reconnaissent que ce framework les a conquis dès le départ contrairement à d'autres qui leur paraissaient plus difficiles à prendre en main.

[1] tableau de listage + formulaires d'ajout/modification/suppression d'enregistrements

Télécharger ce contenu au format Epub

Lire les commentaires

[L'informatique de demain] 1. Introduction : les types d'ordinateurs

Samedi 7 Mars

Julien.D se lance dans une série « L'informatique de demain ». Cet article est le premier de la série, il sert d'introduction et présente les différents types d'ordinateurs actuels et futurs avec leurs caractéristiques, leurs avantages, leurs inconvénients et leurs tendances dans les années à venir. Au fil de l'épisode on ira de l'informatique personnelle du passé (les ordinateurs fixes et les portables), à celle du présent (les ordinateurs tout en un, mini ou nano, les tablettes et les ordiphones) et jusqu'à celle du futur (ordinateurs autour de nous et en nous).

La série L'informatique de demain a objectif de faire le point sur l'informatique, principalement personnelle, ses avancées ces dernières années et faire des hypothèses pour l'avenir. Le sujet sera axé sur le matériel, même si le coté logiciel sera nécessairement mentionné.
Elle traitera probablement de certains "nano-ordinateurs" avec une séance de métrologie et de sur-cadençage avec une analyse plus pointue sur les possibilités réelles, l'évolutivité, les limites, les avantages et inconvénients de chacun.

Sommaire

 

 

 

Introduction

L'informatique est un domaine où les choses évoluent très rapidement. Les ordinateurs deviennent de plus en plus puissants, de plus en plus présents, avec des capacités de stockage sans cesse croissantes et sont reliés par des connexions toujours plus rapides.

  • Quelles sont les différentes formes d'ordinateurs ?
  • Quel est l'avenir pour les formes existantes ?
  • Et quelles sont celles qui peuvent émerger dans les années à venir ?
Il y a quelques années Les ordinateurs « fixes »

Ils peuvent posséder une grande puissance de calcul pour un particulier, mais nécessitent de la place à cause du boitier, se font généralement entendre à cause des ventilateurs de l'alimentation et du processeur. Cependant ils offrent une évolutivité très grande et un panel de fonctionnalités et de possibilités que ne possèdent pas les autres formes d'ordinateurs en facilitant l'ajout et le changement de pièces. La consommation électrique est élevée (refroidissement, rendement électrique) et n'est pas toujours justifiée pour l'usage qui en est fait. Leur présence ou non dans les années à venir est une question d'usage. L'utilisation navigation web / bureautique / films ne nécessite plus ce genre d'équipement. Il existe cependant des domaines qui prennent parti de cette puissance de calcul : traitement d'images, modélisation 3D et développement (séances de compilation) notamment. Quant au jeu, il semble incertain de faire des hypothèses, mais il est très probable qu'il restera une raison supplémentaire pour laquelle les ordinateurs fixe seront encore présents dans les années à venir (sauf si le cloud gaming venait à massivement se développer).

Les ordinateurs « portables »

Ils sont capables de fonctionner plusieurs heures sans alimentation grâce à une consommation réduite et permettent une utilisation nomade sans offrir l'évolutivité des ordinateurs fixes (bien que la modification de la mémoire et du support de stockage reste possible). Mais ils répondent aux besoins de l'informatique actuelle pour une large majorité. Dans un monde qui sans cesse accélère, la mobilité est un défi qui se pose à l'informatique depuis plusieurs années et les ordinateurs portables sont devenus la référence en matière d'ordinateur en représentant 68% des parts de marché1. Il est évident qu'ils seront présents à l'avenir avec des espoirs de performances et d'autonomie en hausse.

Aujourd'hui

Depuis quelques années, le marché informatique accueille de nouveaux types d'ordinateurs qui contrastent avec l'existant en montrant que les usages évoluent et se développent.

Les ordiphones

Couramment appelés smartphones et démocratisés en 2007 par l'iPhone, ils n'ont eu de cesse de voir leurs ventes augmenter jusqu'à envahir presque chaque poche. Malgré leur taille, ils peuvent très bien être considéré comme de véritables ordinateurs, par exemple en 2001 Motorola présente l'Atrix, un téléphone qui possède un dock pour une utilisation comme ordinateur portable. Ces ordinateurs de poches peuvent être très utile : navigation web, baladeur audio, gps, jeux et également téléphone, et ils offrent ces fonctionnalités de la façon la plus proche possible de l'utilisateur : dans sa poche. Cependant ce sont des ordinateurs qui n'ont aucune évolutivité, bien que certains s'essayent à changer cela, notamment Google avec son projet Ara.

Les ordinateurs « tout en un »

(Bien que l'idée ne soit pas nouvelle, par exemple - merci à Sidonie Tardieu - Imlac a commercialisé le PDS-1 en 1970, et Apple le Macintosh 128K en 1984 et l'iMac G3 en 1998, qui correspondent à cette description, on assiste depuis seulement quelques années à l'arrivée massive de cette gamme de produit sur le marché des ordinateurs).

Ils ont la particularité d'intégrer dans l'écran les composants normalement mis dans la tour. Cela permet de gagner en place et en esthétique, et comme dit précédemment l'informatique moderne peut se permettre ce choix d'ingénierie sans pour autant renoncer aux performances.
Malgré ça, ce choix pose un gros problème d'évolutivité, et à plusieurs échelles : les composants internes ne sont que rarement remplaçables et c'est également le cas pour l'écran qui d'un élément dont le changement était jusqu'alors simple devient le synonyme de changement de l'ordinateur.
Si ce marché se développe, c'est qu'il y a des clients et que leurs demandes trouvent une réponse dans ce genre de produits. C'est en réfléchissant à ces demandes que l'on peut se poser des questions sur l'avenir de l'informatique. Qu'elles sont elles ? La suppression de la tour, lourde et encombrante et peu importe l'évolutivité, pourvu que l'intégration soit belle et légère.

Les tablettes

Démocratisées en 2010 par l'iPad, les tablettes sont tout à fait semblables aux ordiphones, la seule différence étant la plus grande taille et toutes les caractéristiques qui en découlent. Elles souffrent également des mêmes problèmes que les ordiphones. En 2013, les ventes de tablettes dépassent celles des ordinateurs. Elles permettent de répondre à des usages nouveaux auxquels les autres types d'ordinateurs ne répondaient pas pleinement, par exemple la possibilité de lire un contenu ou visionner des vidéos de façon nomade et agréable.

Les « mini » ordinateurs

De taille similaire à une box internet, ils sont à la rencontre des ordinateurs fixe et des ordinateurs portables : pas d'écran et performances comparable à un pc portable. La consommation est de l'ordre de 75W2. Ils peuvent être connectés à une télévision pour servir de media center, à un écran d'ordinateur classique, ou même à rien pour fournir un NAS à votre réseau local ou un mini serveur. Les possibilités qu'ils offrent sont relativement élevées pour la consommation, le bruit (souvent fanless) et la place occupée. Ils souffrent eux-aussi de la non-évolutivité. Il semblerait que ça soit cette forme d'ordinateur qui va se développer dans les foyers car ils ont beaucoup à offrir et il est difficile de trouver une raison qui empêcherait leurs arrivées sur le marché. Ils risquent cependant de se confronter aux ordinateurs « tout en un » dont la simplicité et l'intégration encore plus poussée peut davantage attirer la clientèle.

Les « nano » ordinateurs

Annoncés comme étant des ordinateurs low cost mais capable de pas mal de choses, ils sont les vedettes de l'actualité spécialisée dès qu'un nouveau modèle vient à sortir. Il y a beaucoup de confusion, mais aussi d'intérêt parmi les curieux de ce domaine. Ils sont une porte ouverte aux développeurs et aux bidouilleurs pour s'amuser, découvrir un nouveau monde et réaliser des projets, mais ne visent pas le grand public. Leur prix est certes attractif, mais il ne faut pas oublier que leurs performances sont faibles et que la bidouille est dans leur code génétique, ils ne répondent pas aux besoin du grand public. Ce qui ne les empêchent pas de toucher un public toujours plus grand.

Demain Ces ordinateurs autour de nous

La domotique et l'internet des objets sont des domaines en pleine effervescence actuellement qui font la promesse de connecter les objets de la vie de tous les jours pour permettre de gérer au mieux la lumière, le chauffage et suivre la consommation d'eau et d'électricité. Ils ouvrent un nouveau marché qui nécessite des ordinateurs d'un nouveau genre : miniatures et dont la consommation doit être très faible. D'autres usages peuvent émerger comme la gestion de la musique dans la maison, la vidéo-surveillance ou encore la commande vocale. Sans compter les usages non domestiques comme l'éclairage urbain, les affiches publicitaires et d'autres usages à développer.

Ces ordinateurs en nous

L'idée semble très futuriste pourtant il existe déjà certains objets expérimentaux qui rentrent dans cette catégorie. On peux déjà mentionner les ordiphones qui sont très souvent à proximité directe de leur propriétaire. Mais cela n'a rien de sensationnel, ce qui n'est pas le cas de certains projets :

Conclusion

L'informatique montre encore une fois qu'elle n'arrête pas d'évoluer dans de nouvelles directions sous différentes formes pour atteindre des objectifs sans cesse renouvelés. Elle promet pour les années à venir de grandes avancées si des réponses sont trouvées aux défis qui se posent à nous comme l'autonomie et l'intégration de la technologie dans les objets de la vie quotidienne. Mais certains usages posent des questions, notamment sur l'acceptation de l'intégration de puces dans le corps ou tout simplement sur le verrouillage des ordinateurs d'un point de vue logiciel et matériel.

 

Écrit de façon à être le plus neutre possible, cet article ne reflète pas nécessairement l'avis personnel de son auteur.
L'article qui devrait suivre prochainement sera plus technique et répondra aux exigences des technophiles.

  1. évolution des volumes de ventes de PC en 2012 

  2. donnée moyenne obtenue en comparant plusieurs puissance de chargeurs fournis par les constructeurs de ce type d'ordinateur. La puissance réellement consommée est donc inférieur la plupart du temps pendant le fonctionnement. Cette valeur n'est donnée qu'à titre indicatif. 

Télécharger ce contenu au format Epub

Lire les commentaires

Livre papier, livre numérique, TVA et DRM

Samedi 7 Mars

La France avait adopté un taux de TVA à 5,5% sur le livre numérique. La Cour de Justice de l’Union européenne (CJUE) vient de statuer qu'un taux réduit ne peut s'appliquer. Alors qu'une campagne de lobbying sur le thème « un livre numérique est comme un livre papier » a été lancée par le Syndicat National de l'Édition (SNE), l'association April soutient qu'un livre verrouillé par un DRM ne peut être comparé à un livre imprimé. Quelle position adoptera la Commission européenne sur la fiscalité à appliquer à chacun des trois formats de livres qui se côtoient ?

Plus de détails dans la suite de la dépêche.

En France, l'abaissement du taux de TVA à 5,5 % sur le livre numérique avait été adopté dans le cadre du projet de loi de finances pour 2011 avec entrée en vigueur le 1er janvier 2012. Cependant, avec cette décision, le pays contrevenait à la directive européenne « TVA » de 2006 : sur les livres papier s’applique un taux de TVA réduit, sur les services électroniques que sont les livres numériques, s'applique le taux normal de TVA.

Comme on pouvait s'y attendre, puisque récemment l'Espagne a été contrainte de relever à 21 % le taux de TVA sur les livres numériques, le 5 mars 2015 la Cour de Justice de l’Union européenne (CJUE) a rendu son arrêt : le taux réduit de TVA ne peut pas s'appliquer à la fourniture de livres électroniques, la France est bien en situation d'infraction.

Immédiatement, le Syndicat National de l'Édition (SNE) s'est engagé dans un énorme travail de lobbying. Pour ce syndicat, un livre est une œuvre qui ne change pas, quel que soit le support.

Mais ce raisonnement présente une faille due à une omission de taille, celle des DRM ou verrous numériques, qui trompent les clients. Ceux-ci pensent avoir acquis un livre qui leur offrira toutes les possibilités que leur donne un livre papier, alors qu'en fait, ils ont acquis un service très étriqué : possibilité de lire l'ouvrage uniquement sur des supports portant des noms exotiques, restrictions concernant la durée de ce service, impossibilité d'imprimer, interdiction de prêter le fichier, impossibilité de lire sur un autre système…

Pour qu'un livre numérique soit réellement comparable à un livre papier, il doit être fourni sans DRM, dans un format ouvert, interopérable, offrant ainsi à son lecteur tout ce qu'il est en droit d'attendre du produit acquis.

La Commission européenne devra élaborer une position commune (28 pays) sur la fiscalité à appliquer à chacun des trois formats de livres qui se côtoient. Mais laquelle ? Une proposition de bons sens a été proposée par la députée française Isabelle Attard : les livres indemnes de verrous numériques sont soumis au taux réduit de TVA, comme les livres papier et participent alors à la plus large diffusion de la culture. Les autres sont soumis au taux de TVA normal, comme des services qu'ils sont.

Cette solution serait un excellent compromis entre les agissements des acteurs américains qui pratiquent les DRM, les éditeurs français qui ont opté pour des solutions ouvertes, et le respect des utilisateurs dans un de leurs droits les plus élémentaires, l'accès à la culture.

Télécharger ce contenu au format Epub

Lire les commentaires

Drupal Developer Days 2015 à Montpellier du 13 au 19 avril

Vendredi 6 Mars

L’association Drupal France & Francophonie organise son plus gros événement en France en 2015, du 13 au 19 avril prochain à Montpellier.

Les Drupal Developer Days, c’est un format unique : une semaine pour organiser des ateliers de travail collaboratif, ainsi que des conférences. Cet événement est spécialement organisé pour la communauté internationale des développeurs Drupal, environ 350 personnes sont attendues cette année.

C’est la conférence technique annuelle des développeurs et qui, cette année est portée par la France, soutenue par l’association Drupal France et francophonie et organisée par une équipe de bénévoles.

Les Drupal Developer Days se dérouleront sur le site de la faculté de Sciences de Monpellier (infos pour s'y rendre). La billetterie est ouverte : de 70€ à 105€ le ticket pour la semaine.

Une semaine en deux temps :

  • en fil rouge de cette semaine, seront organisés des ateliers de travail, autrement appelés “Sprints” et des ateliers de discussions informelles, ou “BoF” (pour Birds of a Feather).
  • les jeudi, vendredi et samedi seront les trois jours de temps forts de cette édition, pendant lesquels des conférences seront présentées.

Les objectifs de cette manifestation sont multiples : offrir un lieu de rencontre à la communauté Drupal grandissante et internationale, apporter support et nouveauté aux développeurs spécialisés, faire progresser le logiciel alors que sa nouvelle version (la version 8) est très prochainement attendue et en voie de finition.

Les Drupal Dev Days s’ouvrent à tous les niveaux et à tous les univers.
La communauté s’organise autour de cet événement et tous les développeurs et personnes souhaitant participer à l’amélioration de ce logiciel libre sont les bienvenus, pas seulement les plus téméraires. En suivant le principe du mentorat, les nouveaux venus seront accompagnés dans cette semaine initiatique.
De même, lors des conférences, tous les publics trouveront des sujets d’intérêt à leur niveau.

Vous êtes curieux(se) de découvrir Drupal 8 ? plutôt intéressé(e) par la mise en forme ? les retours d’expérience ? les configurations avancées ? ou les techniques de développement ? Découvrez notre programme

Participer à cette conférence est une occasion unique de prendre goût à la contribution et une opportunité à saisir pour mettre le pied à l’étrier de Drupal 8. Vous y ferez des rencontres car c’est la richesse de ces événements.

L’organisation des Drupal Developer Days n’aurait pas été possible sans la participation de la Faculté de Sciences de Montpellier qui accueille l’événement, de nos sponsors bienveillants et du support de l’association Drupal France et francophonie.

Télécharger ce contenu au format Epub

Lire les commentaires

Cartopartie participative et saisie-partie OpenStreeMap à Montpellier les 7 et 10 mars 2015

Vendredi 6 Mars

Une cartopartie participative OpenStreeMap Montpellier des quartiers Clémenceau, Gambetta et Rondelet aura lieu le samedi 7 mars 2015 de 14h30 à 17h00 à La Fabrique, située au 10, rue Chaptal à Montpellier (tramway lignes 3 et 4, arrêt Saint-Denis).

En attendant le printemps, nous comptons une nouvelle fois sur vous pour être nombreux lors de cette journée citoyenne et solidaire, pendant laquelle nous relèverons les données essentielles aux déplacements des personnes à mobilité réduite.

Cette journée sera suivie d’une saisie-partie OpenStreetMap qui nous permettra l’alimenter les bases de données de la ville de Montpellier via l’open data de Montpellier Territoire Numérique. Elle se déroulera le mardi 10 mars 2015 de 18h à 22h, au Cowork’in Montpellier, situé au 19, rue de l’école de droit à Montpellier, tramway ligne 3, arrêt Plan Cabane. Une initiation sera possible pour les débutants, ce qui permettra à toute personne de pouvoir contribuer ultérieurement

Télécharger ce contenu au format Epub

Lire les commentaires

Un peu plus de sécurité sous Linux

Jeudi 5 Mars

Un problème qui revient souvent lorsqu'on débute sous (GNU/)Linux concerne la sécurité de sa machine, que ce soit un serveur ou un ordinateur de bureau. Faut il installer un antivirus ? un firewall ? et les malwares ? les mises à jour ? Des sauvegardes ? Mais mon ordi va bien non ?

Certain-e-s d'entre vous ont sans aucun doute des configurations intéressantes et/ou exotiques, n'hésitez pas à les partager, tous le monde en sortira gagnant.

Et donc, au programme de cet article (testé sur Debian Wheezy) :

  • Mises à jour : cron-apt et checkrestart
  • Sécurité
    • virus : clamav,
    • malwares maldet,
    • rootkits rkhunter, chkrootkit, lynis
    • vérification de l'intégrité des paquets : debsums
  • nettoyage : deborphan, …
  • backups
Sommaire

IMPORTANT :

  • la plupart des commandes ci-dessous nécessitent d'être root ou d'utiliser la commande sudo
  • tous ces logiciels ont normalement des logs dans /var/log, et c'est TRÈS utile pour trouver pourquoi ça ne marche pas
  • il faut avoir un logiciel de mail configuré (comme postfix) pour pouvoir envoyer des mails
  • n'oubliez pas de relancer le programme après une modification pour la prendre en comptes
mises à jour : cron-apt

cron-apt permet d'alerter quand une ou plusieurs mises à jour sont disponibles pour le serveur mais aussi de les faire automatiquement en envoyant ou non un mail pour prévenir (à noter que apticron permet aussi d'alerter en cas de mises à jour disponibles).

Pour commencer, le plus important : avoir des sources de mises à jour propres. Pour bien comprendre comment fonctionnent les sources.list, vous pouvez vous référer à la documentation de Debian, vous pouvez aussi vous aider du "Debian Sources List Generator" pour générer votre fichier.

En cas de mises à jour automatiques, il est VITAL d'avoir des sources "propres", il faut éviter au maximum des conflits éventuels entre des paquets ou une configuration trop exotique. Mieux vaut réfléchir avant de mettre en place un système de mise à jour auto sur un système en production, en particulier si il y a une supervision avec une astreinte (et encore plus si c'est vous d'astreinte).

  • installer cron-apt :
aptitude install cron-apt
  • éditer le fichier de configuration /etc/cron-apt/conf :
    • APTCOMMAND définit le gestionnaire de paquets que vous voulez utilisez (apt-get ou aptitude)
    • MAILTO l'adresse à laquelle le système va envoyer les mails de notifications.
APTCOMMAND=/usr/bin/aptitude MAILTO="mail@exemple.org"

Par défaut, cron-apt est lancé chaque jour à 4 heure du matin. Libre à vous de modifier ce comportement dans le fichier /etc/cron.d/cron-apt.

upgrades automatiques

Pour installer automatiquement les mises à jour disponibles, il est nécessaire de créer un fichier nommé 5-install dans le répertoire /etc/cron-apt/action.d/ puis d'y ajouter la ligne suivante :

dist-upgrade -y -o APT::Get::Show-Upgraded=true

Pour limiter le process aux mises à jour de sécurité, il faut créer un fichier nommé /etc/apt/security.list pour y mettre ceci :

deb http://security.debian.org/ wheezy/updates main contrib non-free deb-src http://security.debian.org/ wheezy/updates main contrib non-free

Il suffit alors de décommenter dans le fichier /etc/cron-apt/config la ligne suivante :

OPTIONS="-o quiet=1 -o Dir::Etc::SourceList=/etc/apt/security.list"

Dorénavant cron-apt utilisera uniquement le fichier security.list pour vérifier la présence de mises à jour, et ignorera donc les mises à jour autres que celles de sécurité.

checkrestart (debian-goodies)

Le paquet debian-goodies installe sur votre machine quelques scripts dont checkrestart, qui permet de trouver des processus utilisant de vieilles versions de bibliothèques logicielles. Ce genre de vérification est particulièrement critique après un patch sécurité important, comme pour libc6 en Janvier 2015 (CVE-2015-0235).

Pour installer le paquet debian-goodies (la commande checkrestart suffit pour le lancer par la suite) :

aptitude install debian-goodies

Le script est donc particulièrement utile, mais comme on peut souvent le voir, il ne sait pas reconnaitre et/ou relancer certains processus, on peut donc ajouter des fonctionnalités supplémentaires, c'est ce qu'a fait Octopuce via un script qui utilise checkrestart en y ajoutant des fonctionnalités.

Ce script est disponible sur github et l'on peut trouver un article introductif sur le site d'Octopuce.

Pour le mettre en place :

cd /usr/local/bin/ wget https://www.octopuce.fr/octopuce-goodies/checkrestart/checkrestart.octopuce chmod +x checkrestart.octopuce

On peut alors lancer le script de n'importe où sur le système (n'hésitez pas à remonter des bugs ou à modifier le code) :

checkrestart.octopuce clamav (antivirus) et maldet (antimalwares)

L'antivirus libre clamav est connu dans le monde du logiciel libre, et au delà, et son efficacité peut être améliorée en y ajoutant la base de signatures du Linux Malware Detector.

clamav

Pour l'installer :

aptitude install clamav clamav-freshclam
  • mettre à jour clamav :

éditer le fichier de configuration /etc/clamav/freshclam.conf selon votre choix (vous pouvez d'ailleurs voir une description rapide des options sur ce site) :

DatabaseOwner clamav UpdateLogFile /var/log/clamav/freshclam.log LogVerbose false LogSyslog false LogFacility LOG_LOCAL6 LogFileMaxSize 0 LogTime true Foreground false Debug false MaxAttempts 5 DatabaseDirectory /var/lib/clamav DNSDatabaseInfo current.cvd.clamav.net AllowSupplementaryGroups false PidFile /var/run/clamav/freshclam.pid ConnectTimeout 30 ReceiveTimeout 30 TestDatabases yes ScriptedUpdates yes CompressLocalDatabase no Bytecode true # Check for new database 12 times a day Checks 12 DatabaseMirror database.clamav.net

Vous pouvez ensuite lancer la mise à jour avec la commande freshclam.

  • lancer un scan

Vous pouvez créer un second fichier de configuration pour clamav sous le nom de /etc/clamav/clamd.conf. Ce fichier sert à donner une configuration par défaut pour les scans. Vous trouverez ci-dessous un EXEMPLE de configuration, vous pouvez le modifier selon vos désirs :

LogVerbose false PidFile /var/run/clamav/clamd.pid DatabaseDirectory /var/lib/clamav #OfficialDatabaseOnly true SelfCheck 3600 Foreground false Debug false ScanPE true MaxEmbeddedPE 10M ScanOLE2 true ScanPDF true ScanHTML true MaxHTMLNormalize 10M MaxHTMLNoTags 2M MaxScriptNormalize 5M MaxZipTypeRcg 1M ScanSWF true DetectBrokenExecutables false ExitOnOOM false LeaveTemporaryFiles false AlgorithmicDetection true ScanELF true IdleTimeout 30 CrossFilesystems true PhishingSignatures true PhishingScanURLs true PhishingAlwaysBlockSSLMismatch false PhishingAlwaysBlockCloak false PartitionIntersection false DetectPUA false ScanPartialMessages false HeuristicScanPrecedence false StructuredDataDetection false CommandReadTimeout 5 SendBufTimeout 200 MaxQueue 100 ExtendedDetectionInfo true OLE2BlockMacros false ScanOnAccess false AllowAllMatchScan true ForceToDisk false DisableCertCheck false DisableCache false MaxScanSize 100M MaxFileSize 25M MaxRecursion 10 MaxFiles 10000 MaxPartitions 50 MaxIconsPE 100 StatsEnabled false StatsPEDisabled true StatsHostID auto StatsTimeout 10 StreamMaxLength 25M LogFile /var/log/clamav/clamav.log LogTime true LogFileUnlock false LogFileMaxSize 0 Bytecode true BytecodeSecurity TrustSigned BytecodeTimeout 60000 Linux Malware detector (maldet)

Installer maldet :

wget http://www.rfxn.com/downloads/maldetect-current.tar.gz tar xfz maldetect-current.tar.gz cd maldetect-* ./install.sh

Pour mettre la base de signatures à jour :

maldet -u

Pour affiner vos réglages, avoir des informations par mail, configurer la mise en quarantaine, le fichier de configuration se trouve dans /usr/local/maldetect/conf.maldet

ajouter la base de signatures de MalDet à Clamav :

Il est possible de rajouter la base de signatures de maldet à clamav, ce qui permet de scanner une seule fois avec les deux bases de signatures. Après avoir installé maldet, vous pouvez faire la manipulation suivante :

cd /var/lib/clamav ln -s /usr/local/maldetect/sigs/rfxn.hdb rfxn.hdb ln -s /usr/local/maldetect/sigs/rfxn.ndb rfxn.ndb /etc/init.d/clamd restart

Vous pouvez utiliser la commande suivante pour lancer un scan, --recursive permet de descendre dans l'arborescence, --infected permet de n'afficher que les résultats positifs lors du scan pour éviter une sortie particulièrement verbeuse, et --log permet de définir un fichier ou le résultat du scan sera écrit :

clamscan --recursive --infected --log="/var/log/clamscan" rkhunter

Pour l'installer puis le mettre à jour :

aptitude install rkhunter
rkhunter --update

Pour dire à rkhunter de regarder l'état de certains fichiers de configurations et de les stocker pour détecter des altérations par la suite (à faire idéalement sur un système neuf) :

rkhunter --propupd

Pour lancer un test (n'oubliez pas que le résultat sera aussi dans /var/log/rkhunter.log) :

rkhunter --check --skip-keypress --report-warnings-only

Le fichier de configuration se trouve dans /etc/rkhunter.conf, vous pouvez y configurer, entre autre, votre adresse mail pour recevoir les alertes. rkhunter peut générer des faux positifs, vous pouvez trouver dans la documentation d'Ubuntu comment l'éviter.

Plus de détails dans cet article très complet sur sublimigeek.com.

chkrootkit

chkrootkit est un anti-rootkit connu sous Linux, mais il faut noter que la version disponible dans wheezy est la 0.49 qui date de 2008, la 0.50, sorti en 2014 est disponible dans Jessie.

aptitude install chkrootkit

Le fichier de configuration /etc/chkrootkit/chkrootkit.conf :

RUN_DAILY="true" RUN_DAILY_OPTS="-q" # -q=quiet mode DIFF_MODE="true" # garde un /var/cache/chkrootkit/log.old pour comparer la prochaine fois REPORT_MAIL=mail@example.net

Pour le lancer :

chkrootkit -q lynis

Développé par le créateur de rkhunter, Lynis est un outil d'audit pour Unix. Il parcourt la configuration du système et crée un résumé des informations système et des problèmes de sécurité, utilisable par des auditeurs professionnels. Il peut aider à des audits automatisés.

aptitude install lynis

Pour lancer une vérification du système avec seulement l'affichage des warnings :

lynis --check-all --quick

Vous trouverez le rapport dans /var/log/lynis-report.dat et sa documentation pour aller plus loin sur le site officiel.

debsums

Debsums permet de vérifier l'intégrité des fichiers des paquets installés avec les sommes de contrôle MD5 installées par le paquet ou générées à partir d'une archive ".deb".

Pour l'installer :

aptitude install debsums

Pour le lancer (vérifie les fichiers de configurations --all et n'affiche que les erreurs : --silent) :

debsums --all --silent

Vous avez bien entendu différentes options que vous pouvez voir dans les pages man (man debsums). Pour génèrer les sommes de contrôle MD5 à partir des fichiers .deb pour les paquets qui n'en fournissent pas : debsums --generate=missing (équivalent de -g). Cette commande est bien entendu à utiliser sur un système neuf.

Nettoyer

Quand vous désinstallez un paquet de votre machine, il arrive qu'il soit enlevé mais que les fichiers de configurations restent, il est alors marqué "rc" dans dpkg, pour supprimer définitivement ces paquets, vous pouvez lancer les commandes suivantes :

  • Afficher les paquets étant dans un état "rc" :
dpkg -l |grep ^rc | awk '{print $2}'
  • Supprimer ces paquets :
dpkg -l | grep ^rc | awk '{print $2}' | xargs dpkg -P

À noter que cette commande peut éteindre MySQL pour effacer d'anciens fichiers de configuration, n'oubliez pas de de le relancer par la suite.

deborphan

Deborphan recherche les paquets orphelins sur votre système en déterminant quels paquets n'ont aucune dépendance sur eux et vous affiche la liste de ces paquets.

aptitude install deborphan

Je vous conseille grandement de vérifier ce qu'il propose d'enlever avant de supprimer les paquets :

deborphan

Et si ça vous semble correct, vous pouvez supprimer les paquets avec la commande dpkg :

deborphan| xargs dpkg -P

Il peut être nécessaire de le relancer plusieurs fois (en vérifiant ou non ce qu'il veut effacer à chaque fois).

BACKUUUUUUUUUUUUUUUUUUPS

C'est sans aucun doute la partie la plus importante de cet article :

FAITES DES SAUVEGARDES !

Octopuce a mis en ligne un petit script qui vous aidera à faire rapidement et simplement des backups sur un disque dur externe (ou une clé USB avec assez de place) : faire des backups facilement.

Plus d'excuses, au boulot !

Pour aller un peu plus loin

faire écouter vos programmes en local s'ils n'ont pas besoin d'être atteint de l'extérieur. C'est normalement la configuration par défaut dans Debian, mais si vous installez des paquets externes, vous pouvez le vérifier facilement avec la commande netstat -lptn.

Pour continuer cet article, n'oubliez surtout pas de vérifier et d'améliorer vos configurations régulièrement.

N'oubliez pas non plus de vous tenir au courant :

La configuration de ces différents utilitaires dépends évidemmment de vos besoins et de votre modèle de menaces. Envoyer des informations par mail ou télécharger des paquets sur un canal non sécurisé peut donner des informations sur l'état de votre système. N'hésitez jamais à utiliser un outil comme Tor.

Idéalement, les différents processus devraient être lancé automatiquement, régulièrement et envoyer un email immédiatement en cas de problème pour vous alerter.

Cet article vise à donner des idées de pistes à suivre pour la maintenance d'un poste personnel ou d'un serveur, rien de plus.

Télécharger ce contenu au format Epub

Lire les commentaires

Django 1.7, « le framework web pour les perfectionnistes sous pression »

Jeudi 5 Mars

D'après Wikipedia : « Django est un framework open-source de développement web en Python. Il a pour but de rendre le développement web 2.0 simple et rapide. Pour cette raison, le projet a pour slogan « Le framework web pour les perfectionnistes sous pression ». Développé au départ pour les sites de la ville de Lawrence (Kansas), Django a été publié sous licence BSD à partir de juillet 2005. »

La version 1.7 du framework web Django est sortie le 2 septembre 2014. La principale nouvelle fonctionnalité est la gestion intégrée des migrations de schéma. On notera la publication de la version 1.7.5 le 25 février 2015, et en même temps, la première bêta de la version 1.8.

Nouveautés Migrations des schémas de base de données

Django inclut, enfin, une gestion des migrations des bases de données. Jusqu'ici, la plupart des projets utilisaient South. L'auteur de cette application, Andrew Godwin, a pu financer l'intégration d'une refonte de South au sein de Django via une campagne Kickstarter.

Pour les curieux, Andrew Godwin a présenté lors de la dernière PyCon US les choix opérés lors du développement. La vidéo est disponible sur YouTube.

Refactoring du chargement des applications

Le chargement des applications a été réécrit. Cette réécriture permet d'améliorer les points suivants :

  • Une application qui n'utilise pas de modèle n'est plus obligée d'inclure un fichier models.py vide.
  • Une application peut définir sa configuration. Cette configuration permet notamment de donner un nom verbeux à l'application (ce nom est utilisé par l'interface d'administration) et une méthode ready() qui est appelée au lancement.
  • L'ordre des imports est plus déterministe et permet de mieux diagnostiquer les problèmes d'imports circulaires. Ce changement peut entraîner des incompatibilités avec du code existant.
Simplification des QuerySetManager

Dans Django, lorsque l'on souhaite définir des requêtes réutilisables, il est recommandé d'étendre la classe QuerySet et d'y définir ses propres méthodes. Cette méthode fonctionne bien, mais elle pose problème quand l'on définit un QuerySetManager (raccourci dans l'écriture de requêtes). En effet, si l'on souhaite réutiliser les méthodes d'un QuerySet sur un QuerySetManager, il est nécessaire de redéfinir chaque méthode.

Par exemple :

class MouleQuerySet(models.QuerySet): def pas_fraiches(self): return self.filter(dlc_gte=datetime.datetime.utcnow()) def bretonnes(self): return self.filter(bassin='XXX') class MouleQuerySetManager(models.QuerySetManager): def get_queryset(self): return MouleQuerySet(self) def pas_fraiches(self): return self.get_queryset().pas_fraiches() def bretonnes(self): return self.get_queryset().bretonnes() class Moule(models.Model): bassin = models.CharField(max_length=50) dlc = models.DateTimeField() objects = MouleQuerySetManager() # utilisation # Moules bretonnes pas fraiches Moule.objects.bretonnes().pas_fraiches()

Avec Django 1.7, il n'est plus nécessaire d'écrire de classe héritant de QuerySetManager. À la place, il suffit d'appeler la méthode QuerySet.as_manager() :

# la classe MouleQuerySet ne change pas class Moule(models.Model): bassin = models.CharField(max_length=50) dlc = models.DateTimeField() objects = MouleQuerySet.as_manager() # l'utilisation ne change pas Moule.objects.bretonnes().pas_fraiches() Framework de vérification

Un nouveau framework est disponible pour détecter les problèmes. Il remplace la simple validation des modèles (avec la commande validate) et permet de détecter :

  • les modèles invalides
  • l'utilisation de fonctionnalités dépréciées
  • les settings manquants ou invalides
  • les traductions à mettre à jour.

Ce framework est extensible et chaque application peut définir ses propres contrôles.

Moteur de templates

Pas de grands changements :

  • Un nouveau filtre truncatechars\_html qui tronque une chaîne en tenant compte des balises HTML.
  • Les exceptions de type TypeError ne sont plus ignorées silencieusement.
  • D'autres modifications…
Versions de Python supportées

Le support de Python 2.6 a été retiré. Django est compatible avec les versions 2.7, 3.3 et suivantes. Plusieurs modules inclus pour assurer la compatibilité avec Python 2.6 sont dépréciés :

  • django.utils.dictconfig
  • django.utils.importlib
  • django.utils.unittest
  • django.utils.datastructures.SortedDict
Autres changements

La commande runserver exploite pyinotify sous Linux au lieu d'un polling bête et méchant. Le rechargement du serveur est donc plus rapide et consomme moins de ressources. De même, il se relance automatiquement après la compilation d'une traduction.

JSON

La nouvelle sous-classe JsonResponse facilite la création de réponses renvoyant du JSON.
Les erreurs d'un formulaire peuvent être converties en JSON avec la méthode as_json().

Télécharger ce contenu au format Epub

Lire les commentaires

Découvrez le langage Go et Camlistore le 24 mars 2015 à Grenoble

Jeudi 5 Mars

L'AlpesJUG propose une soirée d'introduction au langage de programmation Go au travers du projet libre Camlistore par Mathieu Lonjaret.

La soirée est d'accès libre, on vous demandera juste de vous inscrire pour l'organisation.

Dans un monde où de plus en plus de nos données personnelles sont hébergées (et appropriées?) par de puissantes tierces parties, Camlistore se veut être une solution pérenne qui vous permet d’interagir facilement avec vos données de n’importe où, tout en gardant le contrôle sur leur hébergement.
Par ailleurs, ce projet doit beaucoup au langage Go, langage relativement récent mais connaissant déjà un fort succès. Et réciproquement, un certain nombre d’avancées du langage ont vu le jour suite aux « expériences » menées (notamment par Brad Fitzpatrick) dans Camlistore.

Cette présentation sera donc un tour d’horizon du langage Go, dans le contexte d’un projet libre relativement large tel que Camlistore.

Tous les détails: http://www.alpesjug.org/?p=2757

Télécharger ce contenu au format Epub

Lire les commentaires

Python meetup à Bruxelles - vendredi 6 mars 2015

Jeudi 5 Mars

Un Meetup/AFPyro aura lieu le vendredi 6 Mars à partir de 19h à la Mort Subite - Rue Montagne-aux-Herbes Potagères 7, Brussels.

Pour s’inscrire : http://www.meetup.com/Belgium-Python-Meetup-aka-AperoPythonBe/events/220506641/

En plus des francophones, des néerlandophones seront également présents.
Chacun pourra parler sa langue pendant le drink, par contre, les présentations seront en anglais pour être compréhensibles de tous.

Les présentations
  • AI: Curious Actors by Michael
  • Write and prod an efficient REST API with API-Hour in 5 minutes by Ludovic
  • Tool discovery : Plumbum by Fabien
  • Python Belgium Association by Stephane
Prérequis

Pour plus d’interactions pendant les présentations, vous pouvez venir avec votre laptop, en ayant installé au préalable:
- wrk si vous voulez essayer de faire tomber le daemon API-Hour de Ludovic
- plumbum et un serveur distant afin de tester les scripts proposés par Fabien

Télécharger ce contenu au format Epub

Lire les commentaires

LAN et initiation Battle for Wesnoth à Lille les 6 et 20 mars 2015

Mercredi 4 Mars

Sur la lancée des deux LAN 0 AD ce vendredi 6 et le vendredi 20 mars, on joue à Battle for Wesnoth de 19h à 22h sur les PC de jeu de la salle. 3€ pour 3h de jeu avec présentation du logiciel, petites astuces pour débuter si besoin et parties en réseau local pour terminer joyeusement un trolldi.

La Bataille pour Wesnoth est un jeu de stratégie au tour par tour, publié sous GNU GPL v2+, traduit en français et prenant place dans un univers médiéval-fantastique. Il peut se jouer en solo via des campagnes ou en multijoueur sur Internet ou en local.

Pour s'y rendre, c'est au 2 rue Colson, à l'angle avec la rue Nationale à Lille (lien OpenStreetMap).

Télécharger ce contenu au format Epub

Lire les commentaires

Gitlab achète Gitorious

Mercredi 4 Mars

Gitlab achète Gitorious. Les utilisateurs ont jusqu'à fin mai 2015 pour importer leur projet sur Gitlab (en un clic).

Selon les mots de Rolf Bjaanes, le CEO de Gitorious, dans le billet officiel, Gitorious.org n'était plus viable économiquement : «À Gitorious nous voyions de plus en plus d'organisations adopter Gitlab. À cause d'une baisse des revenus des comptes payants, il n'était plus tenable de maintenir l'instance gratuite Gitorious.org. Gitlab résolvait le même problème que nous, mais mieux.» ("At Gitorious we saw more and more organizations adopting GitLab. Due to decreased income from on-premises customers, running the free Gitorious.org was no longer sustainable. GitLab was solving the same problem that we were, but was solving it better.

Rien n'est dit sur ce qui va advenir du code de Gitorious.

C'est un logiciel totalement libre et sous licence AGPLv3 qui meurt, remplacé par un autre sous licence MIT avec une édition communautaire et une privée.

Des pronostics pour quand Gitlab rachètera Github ?

Télécharger ce contenu au format Epub

Lire les commentaires

Une initiative à généraliser pour favoriser l'usage de solutions libres dans l'Éducation nationale

Mercredi 4 Mars

La Délégation académique au numérique éducatif (DANE) de l'académie de Versailles a confié à Louis-Maurice De Sousa, enseignant de technologie, la tâche « d’accompagner les établissements scolaires, les personnels d’encadrement ainsi que les collectivités locales dans leurs projets de mise en œuvre des solutions libres et des formats ouverts ». Le rôle de Louis-Maurice De Sousa, selon la lettre de mission qui lui a été remise, est de « favoriser le développement des solutions libres, en particulier par l’échange, la formation des équipes et l’organisation de réunions thématiques ».

Certes des progrès restent à accomplir pour que la solution utilisée dans l'Académie de Versailles se généralise, mais c'est la première fois qu'apparaît dans l'organigramme d'une académie une personne référente pour tout ce qui touche au Libre éducatif et aux formats ouverts. Il y avait certes un pôle de compétences logiciels libres au sein de feu le SCEREN-CNDP (Services, culture, éditions, ressources pour l’Éducation Nationale/ Centre national de documentation pédagogique) mais ce poste n'a malheureusement pas été reconduit.

Même si elle regrette qu'un véritable poste, et non une décharge de quelques heures, ne soit dédié à cette mission, l'April a salué cette initiative et appelle chacune des académies à s'inspirer de cette bonne pratique afin d'accompagner la promotion et la diffusion de ressources libres auprès de tous ses personnels d'éducation et auprès des collectivités locales.

Pour rappel, l'April dispose d'une liste de discussion "éducation et logiciels libres ouverte à tous, et dans laquelle Louis-Maurice De Souza intervient régulièrement.

Télécharger ce contenu au format Epub

Lire les commentaires

Initiative candidats.fr et élections départementales françaises

Mercredi 4 Mars

Les élections départementales françaises auront lieu les 22 et 29 mars. Il s'agit d'élire les conseillers départementaux, tous en une fois, pour une durée de six ans, à la place des conseillers généraux, dans les 2 054 cantons issus de la nouvelle carte cantonale.

À cette occasion l'association April relance l'initiative Candidats.fr afin de sensibiliser les candidats, et parmi eux les futurs élus, au logiciel libre.

Chacun peut participer à cette initiative, en contactant, de la façon qu'il jugera la plus adaptée, des candidats pour les encourager à signer le Pacte du Logiciel Libre.

Tous les renseignements utiles sont disponibles sur la page Départementales 2015 du site.

Mobilisons-nous afin que les futurs conseillers soient le plus largement possible sensibilisés aux enjeux du logiciel libre, notamment au moment des décisions qu'ils auront à prendre au sein de leurs départements.

Télécharger ce contenu au format Epub

Lire les commentaires

Premier Samedi du Libre à la Cité des Sciences le 7 mars 2015

Mercredi 4 Mars

Le 7 mars 2015 de 14h à 18h aura lieu le PSL mensuel (Premier Samedi du Libre) à la CSI (Cité des Sciences et de l'Industrie), Paris 19e.

Cet événement grand public est libre et gratuit. La pré-inscription est possible mais pas obligatoire. Nous n'aurons jamais trop d'installeurs pour l'install party !

  • install party. Les ISO des distributions les plus courantes ont été mises sur notre serveur, à la CSI, par Guillaume 'heraclide' Dondero.
  • deux conférences sont organisées par Parinux en salle Agora
    • 14h30 "Auto-hébergement Internet" avec Guillaume Dondero (Parinux).
    • 16h00 "Dégooglisons Internet" avec Frédéric Urbain (Framasoft).
  • déjeuner à 12h15 à la pizzeria Le Verona, 25 avenue Corentin Cariou
  • atelier Blender 3D du BUG Paris
  • wikipermanence Wikimedia
  • bidouille au Fab Lab
Télécharger ce contenu au format Epub

Lire les commentaires

Open Source Innovation Spring du 13 mars au 3 avril 2015 #OSIS2015

Mardi 3 Mars

L'IRILL (Institut de Recherche en Informatique et Logiciel Libre) et le GTLL (Groupe Thématique Logiciel Libre du pôle de compétitivité francilien Systematic) lancent le premier printemps de l'innovation Open Source, avec le soutien de l'Inria et de l'Open World Forum.

Le but de ce Printemps Open Source de l'Innovation, qui fédèrera des événements du 13 mars au 3 avril sur Paris et Palaiseau, est de mettre en valeur le travail d'excellence des équipes de chercheurs français, mais aussi la R&D des PME de pointe en logiciel libre, notamment auprès des industriels et des institutionnels. Il conjuguera donc plusieurs initiatives pour mettre en valeur des pépites innovantes issues de l’Industrie et de la Recherche française, dont le succès et la visibilité est mondial, sur des thèmes aussi variés que le Big Data, l'Internet des Objets, le Cloud Computing et la Qualité Logicielle.

Détail des événements programme dans la suite de la dépêche

Les quatres grandes thématiques retenues pour cette édition 2015 sont également autant de « grands défis » que le GTLL a identifiés pour contribuer à la compétitivité de l'économie française, et pour lesquels des projets d'innovation collaborative et des activités de soutien à l'écosystème des PME innovantes sont portés par le Pôle Systematic.

Pour les participants à ces événements, la promesse est de :

  • Élargir et approfondir ses connaissances sur un ensemble de technologies clefs pour la transformation numérique et la compétitivité des entreprises, en interagissant directement avec les créateurs de ces technologies et les pionniers de leurs usages ;
  • Découvrir, en amont de la courbe d'adoption par le marché, les projets d'innovation académiques et industriels dont l'impact se fera sentir dans les années à venir ;
  • Comprendre comment appliquer dès aujourd'hui ces connaissances à leurs problématiques métiers – depuis la vision stratégique jusqu'aux détails d'implémentation rarement évoqués mais souvent cruciaux ;
  • Rencontrer ses pairs, nouer de nouveaux contacts, faire émerger de nouvelles collaborations.
Programme de l'OSIS 2015 [Qualité logicielle] The Frama-C Day

Le vendredi 13 mars 2015 de 9h-17h à Palaiseau

Un atelier dirigé par Florent Kirchner du CEA sur une journée avec la communauté Frama-C, rassemblant tant chercheurs qu'utilisateurs de l'industrie, pour partager expériences et nouvelles perspectives.

Intervenants :

  • F. Kirchner, CEA LIST
  • C. Marché, Inria
  • S. Duprat, Atos
  • N. Richer, EDF
  • D. Mentré
  • Mitsubishi Electric
  • D. Pariente and B. Kiss, responsable Dassault and Search Lab
  • D. Sheridan, Adelard
  • B. Monate, TrustInSoft
  • A. Tomb, Galois
  • J. Gerlach, Fraunhofer Fokus
  • M. Sighireanu, LIAFA
[Internet des objets] L'Open Source pour l'IoT

Le mardi 31 mars 2015 de 9h-16h à L'Usine IO, Paris

Programme dirigé par Pierre Ficheux, directeur technique d'Open Wide

Intervenants :

  • Pierre Ficheux Introduction to IOT - Protocols and OSes (RIOT, Contiki)
  • Emmanuel Baccelli & Cedric Adjih (Inria, RIOT team)
  • Jean-Marie Verdun (Splitted Desktop) Open Hardware's dev tools ; RuggedPOD & DaaP
  • B. Falise (The QT Company)
  • Bertrand Duplat (The wearable Belty by Emiota)
  • Jacques Lepine (SlowControl)
[Cloud] Cloud open source

Le mercredi 1er avril 2015 après-midi à la Cloud Computing World Expo qui se tiendra Porte de Versailles à Paris.

Programme dirigé par Cédric Thomas et Olivier Bouzereau, OW2
Demi-journée organisée par la communauté open source OW2 : technologies de cloud open source ; retour d'expérience sur le cloud hybride ; respect de la vie privée et sécurité ; interconnexion entre Big Data, Cloud et Internet des Objets…

[Cloud] : Conteneurs open source – Docker

Le jeudi 2 avril 2015 après-midi dans les locaux de Mozilla à Paris

Programme dirigé par : Stéphane Vincent (Alter Way), Jonathan Clarke (Normation), Fabrice Bernhard (Theodo), Nicolas Chauvat (Logilab)
Intervenants :

  1. État de l'art
    • Hervé Leclerc, CTO (Alter Way): Des conteneurs pour tout faire ? Usages d'aujourd'hui et perspectives illustrées avec Docker,
    • Jonathan Clarke, CPO (Normation) : Gérer la configuration dans un SI avec des conteneurs : les méthodes actuelles sont-elles adaptées ?
    • David Douard, directeur du département Outils & Systèmes (Logilab), Initialiser des conteneurs Docker à partir de configurations Salt construites à plusieurs grâce à Mercurial,
    • Émile Vauge (Zenika) : Création d'un pipeline de déploiement continu avec Docker sur Amazon
  2. Témoignages industriels
    • Fabrice Bernhard, fondateur et CTO (Theodo) : Mise en place d'une architecture microservices avec Docker dans une grande banque française
    • Hervé Leclerc, CTO (Alter Way) : Mise en oeuvre d’une plateforme d'intégration continue basée sur Docker pour un leader du secteur des médias français
    • Thomas Clavier, cofounder (Deliverous.com) : Retour d'expérience sur la mise en place d'un cloud Docker
[Big Data] PyData Paris / Scikit Learn :

Vendredi 3 avril 2015 toute la journée dans les locaux de Télécom ParisTech (Paris)

Programme dirigé par Stéfane Fermigier, président du GT Logiciel libre de Systematic (Abilian), avec Nicolas Chauvat (Logilab), Jean-Paul Smets (Nexedi), Gaël Varoquaux et Alexandre Gramfort (Scikit-Learn)
Intervenants :

  • Gaël Varoquaux (Inria): Scikit-learn for easy machine learning: the vision, the tools its development
  • Alexandre Gramfort (Telecom ParisTech): Linear predictions with scikit-learn: simple and efficient
  • Gilles Louppes (CERN): Tree models with scikit-learn: great learners with little assumptions
  • Julien Sananikone (PriceMinister), Benjamin Guinebertière (Microsoft), Samuel Charron (Data Publica), Thomas Cabrol (Dataiku), Jean-Paul Smets (Nexedi): Industrial uses of Scikit-Learn
Télécharger ce contenu au format Epub

Lire les commentaires

Sortie de Subsurface 4.4.1 le 18/02/2015

Mardi 3 Mars

Subsurface est un logiciel libre qui sert de journal de plongée (mais pas seulement) disponible pour les systèmes à base de noyau Linux ainsi que pour les systèmes de type Windows et Mac. Il est distribué sous licence GPLv2.

La reconnaissance et la prise en charge des ordinateurs de plongée se fait au travers de l'excellente bibliothèque libdivecomputer qui est sous licence LGPL. Il est aussi possible d'importer des journaux de plongée depuis d'autres programmes du même type, souvent propriétaires et exclusifs à une marque d'ordinateur de plongée.

Sommaire Notes de versions

Attention, c'est non exhaustif, axé suivant ce qui m’intéresse :-) et repris des "release notes" officielles (copier/coller quand c'est en français ou traduction approximative si c'est en anglais). J'ai repris depuis la 4.0 histoire de faire le lien avec la v3 qui est la dernière à avoir eu un coup de projecteur sur LinuxFr.org.

4.0
  • Une nouvelle visualisation du globe pour localiser vos plongées
  • Possibilité d’éditer les informations relatives à une plongée directement en cliquant simplement sur l’élément à éditer
  • Plus de champs pour chaque plongée, tous éditables directement sans passer par une nouvelle fenêtre ou un menu
  • Meilleure intégration avec le projet divelogs.de (chargement et téléchargement)
4.0.x

Pour les versions 4.0.1, 4.0.2 et 4.0.3 il s'agit principalement de corrections de bugs et :

  • Ajout des données d'évènements (début de palier, vitesse de remontée au dessus du seuil, etc.) dans le dump mémoire généré par libdivecomputer
  • Ajout du support de la génération des logs et dump mémoires de libdivecomputer (libdivecomputer peut s'utiliser de manière autonome en ligne de commande, auparavant les logs et dump mémoires de libdivecomputer ne remontaient pas dans Subsurface)
  • Amélioration des fonctions d'import et d'export dans les autres formats de fichiers supportés par Subsurface (Subsurface ayant son propre format de fichier XML).
4.1

En plus de toutes les améliorations et corrections qu'apportent cette version j'ai surtout retenu :

  • Possibilité d'exporter en HTML la carte du monde avec les sites de plongées explorés.
  • Sauvegarde du fichier XML avant de l'écraser (auparavant pas de retour arrière possible)
  • N'affiche plus par défaut les bouteilles inutilisées dans l'onglet équipement.
  • Amélioration du support de Qt5
4.2

En dehors des problématiques sur les environnements Windows et Mac avec Qt, j'en retiens :

  • Nouvelle apparition (lors de la précédente tentative d'inclure ce type de fonctionnalités, l'outil de planification avait soulevé beaucoup de griefs car pas assez fiable et avec des planifications trop incohérentes avec les modèles de décompression connues) d'un outil de planification de plongée (très utile pour les plongeurs Tek) qui supporte notamment :
    • Utilisation de l'éditeur graphique de profils de plongée
    • Support de différentes vitesses de remontée
    • Gestion des changements/interruptions des gaz de fond pendant les phases de décompression
    • Impression du programme de plongée sans le graphique (très utile pour avoir son runtime qu'on imprime et emmène avec soi sous plastique, en général pour l'avoir sur l'avant-bras)
    • A court terme il est prévu de pouvoir rééditer une plongée planifiée précédemment (actuellement il est obligatoire de repartir de 0, point corrigé dans la v4.4)
  • Gestion des photos améliorée avec associations possible à un profil
  • Export HTML du journal de plongée amélioré devenant réellement utilisable.
4.3
  • Amélioration des fonctions de filtres dans l'interface graphique
  • Amélioration des fonctions d'édition (ex : copier/coller pour de multiples plongées)
  • Le profil d'une plongée améliore la manière dont la saturation des tissus (ou compartiments suivant la sémantique de votre ordinateur) est visuellement présenté à chaque étape de la plongée.
  • Amélioration de la représentation visuelle des bouteilles de plongée et du gaz embarqué (afin de mieux différencier par exemple un gaz Air en début de plongée avec un gaz de déco en fin de plongée. A noter que la représentation du nom du gaz semble être la version américaine).
  • Pour les heureux possesseurs des formidables ordinateurs Heinrichs & Weikamp OSTC 2 et 3 (NDR : avis totalement subjectif :-) ) il est maintenant possible de configurer les différents paramètres de ces ordinateurs directement depuis l'interface de Subsurface (à utiliser avec de très grandes précautions, notamment tout ce qui impacte les algorithmes de décompression).
  • Début du support des Recycleur en circuit fermé (CCR) et en circuit semi-fermé (pSCR) avec notamment le Poséidon MkVI CCR :

4.4 & 4.4.1

De manière mélangée, quelques améliorations des versions 4.4 et 4.4.1 :

  • Amélioration de la gestion des coordonnées GPS
  • Amélioration du script de compilation/installation de Subsurface depuis les sources. Très utile car, depuis peu, Subsurface gère directement les paquets des distributions et pour ma part, étant sous Gentoo la dernière version disponible (hors layman) était la v3.0.
  • Permet de diffuser sur son profil Facebook (timeline) des images de profils de plongée avec les données les plus pertinentes (en espérant que cela n'entraîne pas une course au profil de plongée le plus extrême).
  • Sélection des plongées à importer (avant l'opération d'import, pratique car certaines interfaces de communications sont très lentes).
  • Les heureux possesseurs des formidables ordinateurs de plongée Heinrichs & Weikamp OSTC 3 et OSTC Sport (avis toujours autant subjectif) peuvent maintenant faire les mises à jour de microcode depuis Subsurface (seule solution technique existante sur les systèmes à base de noyau Linux).
  • Amélioration de la prise en charge des plongées de type pSCR, mais qui reste peu fonctionnelle.
instant publicité

En résumé, c'est un logiciel porté par de grands noms du monde Linux et c'est un plaisir de bon fonctionnement sous Linux, couplé à des ordinateurs de plongée type OSTC dont le microcode est libre sous licence GPLv3.

Télécharger ce contenu au format Epub

Lire les commentaires

Quatre mini-conférences/débats à l'École Normale Supérieure le dimanche 8 mars 2015

Mardi 3 Mars

Dans le cadre de la semaine « S'exprimer contre la terreur » organisée à l'École Normale Supérieure à Paris (45 rue d'Ulm), le hacklab de l'ENS, hackEns, organise quatre mini conférences/débats. Elles porteront sur les liens entre la liberté d'expression, Internet, la censure et la lutte anti-terroriste (plus de détails dans la seconde partie de la dépêche).
Antoine Champagne (kitetoa), Jérémie Zimmermann, Stéphane Vilboux (Yhargla) et Pablo Rauzy proposeront chacun une conférence, de 16h00 à 19h00, le dimanche 8 mars 2015.

L'entrée est bien sûr libre et gratuite.

La politique de terreur menée par les groupes extrémistes qui a conduit aux attentats des 7, 8 et 9 janvier 2015 vise à contraindre la liberté d'expression de chacun.

Sous couvert de lutte contre ce terrorisme, les États ont mis en place dans les dernières années de nouvelles lois, dites « anti-terroristes », simplifiant et automatisant la surveillance et la censure d'Internet.

Ces lois régularisent la surveillance de masse parfois déjà mise en place, établissent des possibilités de censure au nom de la lutte contre l'apologie du terrorisme sans recours à la justice et vont jusqu'à permettre la réquisition de données par les États.

Bien que prises dans un but légitime, ces lois peuvent mener à nombre de dérives. La différence entre dissidence et terrorisme s'amincit et l'omniprésence de la surveillance mène les gens à l'autocensure. Le recours à la justice est négligé dans de plus en plus de cas, mettant en danger un des principes fondateurs des régimes démocratiques.

La difficulté technique de la surveillance sur Internet et le risque de dérives associé permettent de douter de l'efficacité de ces lois. À quel point sommes-nous prêts à sacrifier nos libertés et notre indépendance et pour quelle sécurité ?

Des moyens de parer les problèmes soulevés par ces lois existent, allant du rétablissement du caractère fondamentalement décentralisé d'Internet, au chiffrement plus systématique des communications. Même si ces solutions sont aujourd'hui techniquement réalisables, peuvent-elles devenir effectives ?

  • 16h00, Antoine Champagne (kitetoa) — Reflets.info « Le rôle de la France dans la surveillance globale au sein des dictatures et des États policiers »
  • 17h00, Jérémie Zimmermann — La Quadrature du Net « Guerre contre le terrorisme et libertés »
  • 18h00, Stephane Vilboux (Yhargla) — Franciliens.net « Franciliens.net, fournisseur d’accès à internet associatif en Île de France, pour la neutralité du net »
  • 19h00, Pablo Rauzy (p4bl0) — École normale supérieure et Telecom Paristech « Compromis entre liberté et sécurité, un exemple à taille humaine »

Je vous invite également à consulter le reste du programme de cette semaine (du 7 au 14 mars), portant sur d'autres sujets plus généraux mais toujours en lien avec le terrorisme, comme la place de l'art, la géopolitique, la sociologie…

Télécharger ce contenu au format Epub

Lire les commentaires

Atelier « Découverte des Logiciels Libres Gimp » le samedi 14 mars 2015 à Marseille

Mardi 3 Mars

L’association CercLL en collaboration avec Julien, Éric et Marc vous invite à l’Atelier du Samedi Libre qui se déroule le samedi 14 Mars 2015 de 14h30 à 17h30, à la Fabulerie 4 rue de la Bibliothèque 13001 Marseille.  

Ces ateliers se déroulent, en général, sur une séquence hebdomadaire de deux à trois séances de travail et sur un thème déterminé.

Atelier « Découverte des Logiciels Libres Gimp »
  • Première séance le 14 Mars 2015 de 14h30 à 17h30
  • Deuxième séance le 21 Mars 2015 de 14h30 à 17h30
  • Troisième séance le 11 Avril 2015 de 14h30 à 17h30

Comme le mot atelier le laisse présumer, dans ce cadre, nous proposons une approche pratique des outils libres. Nous avons décidé de nous adresser à un public débutant qui cherche à mieux connaître son ordinateur et les applications les plus courantes que tout un chacun utilise.

Prérequis :
  • Les personnes qui veulent participer à ces ateliers devront s’inscrire sur notre site CercLL au https://cercll.wordpress.com/contact/
  • L’atelier n’aura lieu que si quatre personnes, au moins, sont inscrites. Places limitées à huit personnes.
  • L’inscription est de 20 euros pour les trois séances.
Atelier « Découverte des Logiciels Libres Gimp »

GIMP, acronyme de « GNU Image Manipulation Program », est un logiciel libre de dessin matriciel. Équivalent en version libre au logiciel Photoshop, il vous permet de dessiner, peindre et éditer des images.
Plusieurs des outils et des greffons (plugins) disponibles dans GIMP sont semblables à ceux d’Adobe Photoshop, ou d’autres éditeurs d’image. GIMP est également compatible avec l’ensemble des extensions de fichier, et de leur format respectif dont les PSD, PSP, FLI, FLC, PDF…
GIMP permet d’utiliser des scripts pour les opérations et les manipulations d’images compatibles avec les langages libres de scripts-fu.
Enfin, ce qui fait la force de GIMP, c’est la communauté qui l'entoure : la quantité du contenu libre pour GIMP (les scripts, les tampons, motifs, brosses, etc.) est incommensurable.
GIMP est également compatible avec le contenu (les brosses, etc.) de Photoshop3).

Télécharger ce contenu au format Epub

Lire les commentaires

Xfce 4.12 est là !

Lundi 2 Mars

Xfce est un environnement de bureau basé sur GTK+ qui se veut léger, simple mais complet, souple, modulaire, portable et respectueux des standards portés par Freedesktop Ce 28 février est sortie la version 4.12, après presque 3 ans de développement depuis la version 4.10, et quelques versions intermédiaires dont la 4.11. Cette version est une « évolution sans révolution », le projet continue de se focaliser sur l'expérience utilisateur.

Principales Nouveautés :
  • Gestionnaire de fenêtres (xfwm4)

    • Le sélecteur d'applications ALT+TAB est disponible en trois modes : L'historique liste d'icônes des apps, une liste des noms des apps, et la prévualisation complète.
    • Le mode carrelage (tiling) prend en compte le carrelage en coins d'écran.
    • Les décorations «côté-client» (CSD : client side decorations) sont gérées, permettant un affichage parfait d'applications écrites avec la dernière version de GTK+ (GTK+3)
    • La prise en charge des hautes résolutions est possible (hdpi, xhdpi)
  • Gestionnaire de bureau (xfdesktop)

    • Possibilité d'afficher une prévisualisation des images sur le bureau au survol de la souris
    • Nouveau dialogue pour le changement de fond d'écran, avec possibilité de gérer les fonds d'écrans par moniteur
  • Application Finder (xfce4-appfinder)

    • Prend en charge les données des applications AppData
  • Gestionnaire de session (xfce4-session)

    • Utilisation logind et upower pour l'hibernation et la veille.
    • Ajout de la gestion de ConsoleKit2
  • Gestionnaire des paramètres (xfce4-settings)

    • Prévisualisation des icônes et des thèmes
    • Amélioration de la gestion du multi-écrans, nouvelle fenêtre de réglage rapide lors du branchement d'un écran
    • Prise en compte de libinput qui permet de gérer les périphériques avec X.org et Wayland
  • Gestionnaire de fichiers (thunar)

    • Beaucoup d'améliorations : gestion des onglets, amélioration de la navigation clavier, gestion des signets de nouveau active pour GTK2 et GTK3, "freespace bar" dans les propriétés des fichiers, les scripts ne sont plus exécutés par défaut
  • Moteur de thèmes (gtk-xfce-engine)

    • Gtk3>3.14 n'ayant plus besoin de moteur de thèmes (les thèmes doivent maintenant être en CSS), la partie Gtk3 du moteur a donc été supprimée.
    • Le thème par défaut a été revu, et un nouveau est disponible (Xfce-flat)
  • Tableau de bord (xfce4-panel)

    • Le panel peut maintenant se cacher intelligemment lorsque des fenêtres l'approchent
    • Il gère également les greffons développés en Gtk3
  • Gestion de l'alimentation (xfce4-power-manager)

    • Un nouveau greffon pour le tableau de bord, permettant par exemple de gérer directement la luminosité
    • Utilisation de logind et upower
    • Les options ont été complètement revues
    • Possibilité de contrôler les options de verrouillage d'écran (light-locker)
Goodies

Xfce ne serait pas ce qu'il est sans tous ses fameux goodies. On peut noter les changements suivants :

  • Xfburn prend maintenant en charge les Blu-ray
  • Le gestionnaire de tâches a été réécrit et porté sur Gtk3
  • Parole, le lecteur musical et de vidéo, utilise aussi Gtk3 et gstreamer1.0
  • Mousepad, l'éditeur de texte, a aussi été complètement réécrit et porté sur Gtk3
  • Xfce4-screenshooter peut maintenant envoyer les captures d'écran sur imgur.com
  • Whiskermenu, un menu alternatif, fait maintenant partie du projet xfce
  • xfce4-pulseaudio-plugin, un nouveau greffon pour le tableau de bord, permettant de contrôler le mixer PulseAudio
  • Un travail de fond a été effectué sur les greffons du tableau de bord afin d'uniformiser leur interface

Pour la petite histoire, la majorité des captures d'écran du "tour de version" ont été effectuées sur OpenBSD, une "preuve" que xfce est toujours portable, une attention particulière étant apportée à la prise en compte de tous les Unix. Ainsi Xfce peut être compilé et utilisé sur NetBSD, FreeBSD, OpenBSD, Solaris, Cygwin et MacOS X, sur x86, PPC, Sparc, Alpha…

Dans le même registre, des discussions sont en cours pour faire renaître une image "GUI" du côté de DragonFly BSD et Xfce semble être le DE désigné. Rien n'est encore définitif, mais plusieurs utilisateurs de DragonFly ont avancé le fait que Xfce est un des environnements de bureau s'intégrant le mieux à cet OS.

Et pour l'avenir ?

Le travail sur la version 4.14 a déjà commencé. L'essentiel des efforts devrait se concentrer sur la migration vers Gtk3 (certains composants prennent déjà partiellement en compte Gtk3 et certains goodies ont déjà été portés).

L'objectif étant une transition "en douceur" apportant le minimum de changements visibles pour l'utilisateur, une feuille de route plus précise est en cours d'élaboration.

Si vous souhaitez commencer à contribuer à Xfce en douceur, une page des bugs "faciles" à corriger a été créée sur le wiki. De manière générale la liste de diffusion des développeurs ainsi que le chan IRC #xfce-dev sur freenode est le meilleur moyen pour s'investir dans ce beau projet !

Télécharger ce contenu au format Epub

Lire les commentaires

Livre Red Hat Enterprise Linux - CentOS chez ENI (2ème édition)

Lundi 2 Mars

La 2ème édition de mon livre Red Hat Enterprise Linux - CentOS - Mise en production et administration de serveurs vient de paraître. Ce livre sur Red Hat Enterprise Linux et CentOS (versions 5 à 7) s'adresse à tout informaticien appelé à déployer un serveur Linux performant en entreprise et à en assurer l'administration. Émaillé d'explications pédagogiques, d'exemples et d'astuces, ce livre va à l'essentiel, fournit des méthodes techniques et logistiques, présente les bonnes pratiques et n'oublie pas la sécurité.

L'auteur s'est attaché à écrire un livre efficace, sur des situations réalistes et concrètes rencontrées en entreprise, pour permettre au lecteur de devenir un administrateur compétent et autonome.

Plus de détails et un entretien avec l'auteur en seconde partie.

Sommaire Objectifs du livre
  • comprendre la philosophie d'exploitation proposée par Red Hat,
  • procéder à une installation efficace du système d'exploitation par DVD, VNC, PXE et Kickstart,
  • effectuer une configuration réseau adaptée à l'entreprise (SSH, Interface Bonding, VLANs, Pare-feu),
  • exploiter l'immense bibliothèque de logiciels disponibles,
  • configurer les supports de stockage, mettre en place le RAID, LVM,
  • automatiser des tâches, analyser, maintenir et dépanner le système,
  • gérer des utilisateurs,
  • mettre en œuvre des scripts Bash,
  • mettre en place des services courants en entreprise (HTTP, DNS, DHCP, FTP, etc.).
  • se familiariser avec les nouveautés de la version 7 (systemd, journald, firewalld, Network Manager, Docker, KVM etc.).

Des éléments complémentaires sont disponibles en téléchargement.

Les chapitres du livre :

Avant-propos – Présentation de Red Hat – Déploiement d'un serveur Red Hat – Démarrage du système – Installation de logiciels – Partitions et système de fichiers – Gestion des utilisateurs et des groupes – Réseau - Les scripts bash – Services de production courants – Maintenance du système en production – Aide-mémoire des principales commandes

Entretien avec Thibault Bartolone

a) Bonjour Thibault, peux tu te présenter aux lecteurs de DLFP en quelques mots ?

Bonjour. Je suis honoré de répondre à tes questions. Ma vocation première, c’est le réseau. Avec un DUT Télécom et Réseau, je peux dire que je suis bien tombé, car à l’époque (en 1996/97), Internet était moins une évidence que maintenant. Linux aussi, mais j’avais bien sûr déjà un œil dessus, en faisant mes premières armes sur du Mandrake Linux. Après avoir travaillé pour un opérateur, je me suis mis en freelance. Je suis un geek qui suit avidement l’actualité open source / high-tech et gadget, mais j’ai aussi goût pour la Dolce Vita (le bon vin et la culture).

b) Quelles sont les expériences de la vraie vie qui ont nourri ton expérience personnelle ? De quel type de parcs s'agissait-il ?

Avec un ami, on a d’abord essayé de développer un outil de gestion de parc Linux… mais très vite, en plus de mon activité réseaux IP, j’ai cherché à compléter mon panel de prestations avec l’autre outil qui fait Internet : Linux. J’ai donc fait beaucoup d’administration de serveurs et du projet autour de Linux, surtout dans le monde du réseau (serveurs Web, serveurs de supervision, firewalls), souvent pour des petites boîtes, mais aussi pour des opérateurs de télécoms.

c) Comment t'est venue l'idée et l'envie de faire partager cela au travers d'un livre ?

Donc, je suis Linux depuis un bon moment. En parallèle, j’évolue dans le monde du réseau qui n’est pas si loin (les premiers routeurs était des BSD…) mais qui a pris son envol en devenant plus « corporate ». C’est cette approche qui m’a séduit chez Red Hat. On va au-delà de l’attachement « sentimental » à Linux, tout en restant convaincu que c’est un excellent produit. On peut faire de l’open source et du business en même temps. Cette façon de voir est pour moi la meilleure façon de promouvoir ce système d’exploitation génial.

De plus, en toute franchise je trouve qu’il y a un gros besoin de pédagogie en rapport avec Linux ; c’est soit inexistant, soit ultra détaillé (ou périmé). Par exemple, quand on cherche à comprendre les descripteurs de fichiers, sur le net on tombe 9 fois sur 10 sur… les redirections et les entrées/sorties standards, alors que le concept de File Descriptor est
quand même plus large.

Ainsi, quand ENI cherchait un auteur pour compléter sa collection Linux, j’ai naturellement présenté mon projet.

d) Quelles sont les nouveautés mises en valeur dans cette seconde édition ?

Il y a d’abord bien-sûr les apports de la version 7 (systemd, firewalld), qui sont expliqués d’une manière adaptée à la productivité, et non pas extensivement. Les concepts de Docker sont difficiles à comprendre (à mon grand regret), j’ai donc essayé de fournir une base, en étant le plus pédagogique possible. La partie réseau a été grandement étendue, avec l’ajout entre autres du VPN (IPSec et SSL).

La pédagogie est essentiellement l’autre raison de cette mise à jour ; je reviens sur des bases nécessaires à une bonne compréhension de l’OS. Par exemple, dans les premiers chapitres, on explique les composants principaux d’un système Linux, ainsi que des fondamentaux en matière de sécurité. On trouvera également à la fin du livre une cheatsheet de toutes les commandes du livre, qui est disponible en téléchargement.

Ah, et on a rajouté CentOS sur la couverture pour rameuter du monde. :-)

NdM : le chapitre que vous pouvez consulter illustre parfaitement cet accent pédagogique.

e) Quel est ton point de vue, de professionnel et de libriste, sur les axes de changement actuellement en vigueur dans Redhat 7 ?

J’ai parfois l’impression que chez Red Hat, ils sont un peu démagogiques :
ils prennent la décision d’adopter une technologie parce que c’est nouveau, parce que ça va ramener du monde. Cela dit, ce n’est pas forcément une mauvaise politique.

e) Linus T. veut le « desktop » : Gnome et Redhat semblent ensemble faire le nécessaire afin d'être résistant à l'utilisateur desktop : penses-tu que Redhat 7 est utilisable en entreprise sur des desktops ? Quels sont ses avantages et inconvénients, à ton avis, dans cet usage particulier ?

Je ne pense pas qu’en l’état, Linux en général puisse faire du desktop pour l’utilisateur lambda. Regardons les choses en face, au risque de tomber encore une fois dans le lieu commun : moi-même utilisateur relativement expérimenté de Linux, je m’arrache parfois encore les cheveux pour installer un logiciel.

Un tweet posté récemment par @nixCraft révèle quel est le principal obstacle :

« La mauvaise réputation de Linux et des UNIX-like n’est absolument pas méritée, créée par des gens qui n’y comprennent rien, qui ne se sont pas penché dessus et n’ont jamais rien essayé. »

Tout d’abord, il n’est pas vrai de dire que Linux a mauvaise réputation. Linux est apprécié partout. En fait, ce tweet indique plutôt un petit côté parano chez son auteur (et ceux qui le cautionnent), genre « moi seul contre le reste du monde ».

Ensuite, et c’est sans doute le pire, on dit : si ça ne marche pas, c’est à cause de l’autre, c’est lui qui doit se mettre à ma portée.

Tant que quelques-uns (même une fraction) continueront de penser ça, il est évident que Linux aura du mal à se faire aimer du grand public. Certaines gens du monde Linux prônent l’efficacité, genre « DEB est 1% plus efficace que RPM ». Mais même si l’autre était 20% plus efficace, ce n’est pas le plus important. En effet, ce qui fera décoller Linux en desktop, c’est l’unité, et non l’efficacité. Quitte à faire peur à certains, il faut proposer un système unique, simple. Il faut également que la communauté soit unie.

Donc, pour systemd, arrêtons de gaspiller notre énergie en guerre de chapelles. Adoptons un système et poussons tous ensemble pour qu’il fonctionne.

Cela n’empêche pas les devs d’expérimenter d’autres solutions. Mais ne transformons pas l’utilisateur en développeur.

En résumé, pour l’instant RHEL est adapté à une utilisation serveur en ligne de commande, et c’est sur ce postulat que se base mon livre.

f) Quels sujets te passionnent actuellement, pour lesquels fais-tu un développement actif et quels sont ceux auxquels tu aimerais pouvoir participer ?

En ce moment, je développe un cours sur IPv6 pour Learning Tree http://www.learningtree.fr/courses/2703/ipv6-mise-en-uvre/, un institut de formation cher à mon cœur. On y parle beaucoup de l’Internet des Objet (IoE), qui est une grosse tendance, et je pense que Linux doit être un acteur majeur dans ce développement, en continuant son effort dans l’embarqué avec des empreintes OS réduites.

g) à quelle(s) question(s) aurais-tu voulu répondre en plus ?

« Alors, systemd ou pas systemd ? » Mais je n’ai pas envie de troller (et j’ai déjà plus ou moins répondu plus haut). :-)

Télécharger ce contenu au format Epub

Lire les commentaires

Pages