structure & meta
This commit is contained in:
parent
da6d838193
commit
b25ce65735
284 changed files with 461 additions and 1000 deletions
23
posts/2019/2019-01-12-sarah-connor.md
Executable file
23
posts/2019/2019-01-12-sarah-connor.md
Executable file
|
|
@ -0,0 +1,23 @@
|
|||
<!-- title: Sarah Connor ? -->
|
||||
<!-- category: Humeur -->
|
||||
|
||||
Quels voeux pour cette nouvelle année ? Rien ! <!-- more -->Du moins rien d'annoncé à la cantonnade aux proches, mes voeux les plus chers restent à l'intérieur, bien enfouis comme si cela augmente leurs chances de se réaliser. Depuis 10 ans, je me sens dans la tête de Sarah Connors, vous savez l'héroïne de Terminator, celle qui sait que le monde va basculer, et qui s'y prépare pendant les années qui restent pendant que le reste du monde continue à tourner.
|
||||
|
||||
Aucun envoyé du futur n'est venu m'annoncer de catastrophe (pour terminer le parallèle avec Terminator) mais je m'intéresse à beaucoup de domaines en dehors de l'informatique et Internet est une source inépuisable depuis longtemps. J'avais un excellent professeur d'histoire-géographie au lycée qui nous demandait de regarder le JT la veille des cours. Le lendemain, il prenait un sujet abordé brièvement (comme tous les sujets enchaînés au journal télévisé), c'était souvent un sujet international et il remontait le temps pour nous expliquer les tenants et aboutissants et finalement nous faire comprendre le présent. J'adorais et c'est cette année là que j'ai compris, bien tardivement, à quoit servait vraiment l'Histoire.
|
||||
|
||||
Vers 2006, je découvrais [le blog de Paul Jorion](https://www.pauljorion.com/blog/) et ses articles économiques qui donnaient une lecture de l'actualité différente des médias traditionnels ; c'était construit, justifié, scientifique et petit à petit ça montrait l'imminence d'une crise financière alors que personne n'en parlait. Et elle est arrivée, [la fameuse crise](https://fr.wikipedia.org/wiki/Crise_financi%C3%A8re_mondiale_de_2007-2008) ! Des gens ont perdu leur emploi et leur maison, des banques ont fait faillite. C'était la preuve que le système financier basé sur la croissance infinie ne peut plus fonctionner et, selon moi, le coup de semonce annonciateur d'une nouvelle ère où on allait repenser tout ce qui ne marche pas : le consumérisme à outrance, la spéculation sur les récoltes, les fonds de pension... la liste est longue ; et naïvement je pensais qu'on reviendrait à un capitalisme modéré qui ne mise plus sur des bulles mais sur la vraie valeur des entreprises et le développement durable. Naïveté quant tu nous tiens... les choses ont repris sur le même tempo ; on a condamné quelques sous-fifres, réinjecté de l'argent public dans les banques pour sécher les larmes des banquiers, et dans quelques grosses entreprises qui faisaient un chantage au chômage (comme l'industrie automobile au U.S.) et repris le Business as usual.
|
||||
|
||||
Mais dans ma tête, la certitude que ça ne pouvait pas aller bien loin sans changement était ancrée. Et le courant de la collapsologie, qui a depuis peu des articles dans [la presse grand public](https://www.lemonde.fr/climat/article/2018/12/14/pablo-servigne-il-est-possible-que-nos-societes-industrielles-se-degradent-beaucoup-plus-rapidement-que-les-anciennes-civilisations_5397728_1652612.html), confirme que ce n'est plus une idée marginale. Le sujet est devenu *mainstream* car beaucoup de gens en ont pris conscience et sont inquiets. Certains ont dépassé le stade du deuil, l'étape difficile où il faut accepter que le monde que nous avons connu va changer drastiquement et irrémédiablement, et ils se tiennent au courant, veulent savoir quelles crises surviendront en premier et comment se préparer pour en souffrir le moins. Face à ce futur pas très réjouissant, je constate deux réactions la plupart du temps :
|
||||
|
||||
- les croyants en un Dieu technologique, certains que des scientifiques ont déjà toutes les solutions dans un tiroir de leur bureau et que quand on n'aura plus de pétrole, on les mettra en place en un claquement de doigt.
|
||||
- les gens qui sont dans le déni ou l'optimisme béat : ce n'est pas possible, l'homme est résilient, il en a connu d'autres... et qui espèrent surtout que le pire arrivera après eux, que leurs enfant gèreront quoi :-(
|
||||
|
||||
La décroissance, ce n'est pas la fin du monde... mais ça y ressemble un peu. Et pendant que des scientifiques brillants gaspillent leurs neurones pour installer une colonie sur Mars ou construire des voitures sans chauffeur pour que des crétins puissent consulter leur fil Facebook au lieu de conduire, les grandes décisions ne sont pas prises. L'écologie c'est super mais ça ne va pas assez vite car il ne faut brusquer personne : ni les états, ni les grandes entreprises, ni les citoyens. Les politiques ne sont élus que pour 4 ans, les entreprises veulent du profit, les citoyens ne sont pas prêts à changer de paradigme. Et c'est là le drame de la situation : regarder l'iceberg se rapprocher pendant que les gens dansent devant l'orchestre.
|
||||
|
||||
Moi l'optimisme forcé, ça n'a jamais été mon fort ; je préfère la lucidité et je constate la révision des données chaque année, ce pic pétrolier qu'on estimait vers 2050 et qui est déjà derrière nous, l'emballement du réchauffement qui force les scientifiques à réajuster leurs projections chaque semestre. Alors il ne faut pas prendre toutes les études pessimistes pour argent comptant et sombrer dans le désespoir mais se tenir au courant, essayer de faire la part des choses et voir comment se positionner face aux bouleversements à venir (je trie mes déchets mais ça ne suffit pas).
|
||||
|
||||
Quelques références en vrac :
|
||||
|
||||
1. Usbek et Rica : [Lanceurs d'alerte ou survivalistes sectaires : qui sont vraiment les collapsologues ?](https://usbeketrica.com/article/lanceurs-d-alerte-ou-survivalistes-sectaires-qui-sont-vraiment-les-collapsologues)
|
||||
2. Peertube: [Pablo Servigne : penser l'effondrement de notre monde](https://peertube.fr/videos/watch/5c59e576-f56c-4178-bd0a-bfca7b75db3d)
|
||||
3. partage-le.com : [Nicolas Casaux : Le problème de la collapsologie](http://partage-le.com/2018/01/8648/)
|
||||
35
posts/2019/2019-02-07-bilan-hebergement.md
Executable file
35
posts/2019/2019-02-07-bilan-hebergement.md
Executable file
|
|
@ -0,0 +1,35 @@
|
|||
<!-- title: Bilan hébergement 2018 -->
|
||||
<!-- category: Hébergement -->
|
||||
<!-- tag: planet -->
|
||||
|
||||
Voici un rapide état de l'hébergement et des changements survenus l'année dernière. Mon serveur est toujours chez Online mais j'ai troqué ma Dédibox Start avec 1 téra de disque SATA contre le modèle avec 120 giga de SSD et je sens vraiment la différence sur la latence des services Web. Je ne m'étends pas sur la migration de OpenBSD vers Proxmox puis Docker en 14 mois, largement décrite [ici](https://blogduyax.madyanne.fr/2018/hebergement-containers/) et [là](https://blogduyax.madyanne.fr/2018/retour-sur-la-migration-vers-docker/).
|
||||
|
||||
### Mes incontournables
|
||||
|
||||
Mes services hébergés restent essentiellement les mêmes.
|
||||
|
||||
J'use et abuse de l'excellent [Wallabag](https://wallabag.org/fr) pour lire en différé mes articles rencontrés au détour d'une recherche.
|
||||
|
||||
Je lis quotidiennent mes flux RSS. J'ai récemment viré Tiny Tiny RSS dont l'application mobile m'insupportait de plus en plus pour une découverte opportune (merci F-Droid): [Selfoss](https://www.selfoss.aditu.de/) qui prouve qu'on peut faire mieux avec moins (au revoir PostgreSQL et bonjour SQLite) et avoir une application mobile **ergonomique**.
|
||||
|
||||
C'est d'ailleurs mon leitmotiv : privilégier le minimalisme s'il apporte le service rendu et l'isolation des services (Docker quoi) donc SQLite c'est parfait.
|
||||
|
||||
Je suis toujours fan de [Shaarli](https://sebsauvage.net/wiki/doku.php?id=php:shaarli) qui stocke mes favoris depuis presque 5 ans.
|
||||
|
||||
Le blog est toujours là, propulsé par [Hugo](https://gohugo.io/), mais j'ai viré tout analyseur de trafic.
|
||||
|
||||
### Les disparitions
|
||||
|
||||
Je n'héberge plus mon cloud. Ce n'est pas une décision technique (j'ai géré mon Nextcloud pas mal de temps), mais une volonté de déléguer à des tiers de confiance ce qui me prend du temps à administrer. J'ai commencé avec [la gestion des mots de passe](https://blogduyax.madyanne.fr/2018/les-mots-de-passe/) déléguée à BitWarden (ce qui fait grincer les dents de quelques libristes).
|
||||
|
||||
J'ai confié mes données à [Cozy Cloud](https://cozy.io) ; j'ai choisi l'offre d'hébergement 1 téra que je teste toujours gracieusement (merci les gars !). Cozy c'est plus que du stockage de fichier, c'est un concept qui n'a pas d'équivalent (du moins unifié dans le même outil) avec sa panoplie de connecteurs pour récupérer ses factures et ses remboursements de santé. Le partenariat avec Linxo est génial (et je ne dis pas ça parce que Linxo est réussite locale) car il apporte une analyse des données et effectue des rapprochements intelligents (un remboursement de sécu et le paiement du médecin généraliste par exemple). L'équipe de Cozy est sympa, accessible. Moi je suis une feignasse car j'ai commencé à développer un connecteur pour récupérer les factures des Eaux de Marseille mais c'est en chantier :-(
|
||||
|
||||
J'ai délégué la gestion de mon agenda et de mes contacts à l'association *a mère Zaclys* qui propose (entre autre service) une instance Nextcloud. C'est de l'associatif et je n'ai pas souvenir d'une seule interruption de service sur l'année écoulée. Pour quelques euros à l'année, on ~~peut~~ doit les encourager à continuer :-)
|
||||
|
||||
### Les nouveautés 2018
|
||||
|
||||
J'ai découvert [Jirafeau](https://gitlab.com/mojo42/Jirafeau) pour partager simplement des fichiers. Je ne l'utilise pas beaucoup mais j'ai aimé l'outil donc je l'ai ajouté à ma panoplie... en 30 minutes (je vous ai parlé de Docker ?).
|
||||
|
||||
J'ai eu besoin de garder trace des corrections et évolutions de mes projets persos et d'écrire un peu de documentation. Comme je ne voulais pas dépendre plus de GitHub, j'ai installé mon [service Redmine](https://www.redmine.org/) qui regroupe dans le même outil une gestion de tickets et un Wiki. Ca fait le job mais je trouve l'interface un peu molle et je suis pas convaincu par l'ergonomie générale. Si je trouve une meilleure alternative, je migrerai.
|
||||
|
||||
J'ai commencé à utiliser [Qwant](https://www.qwant.com) à 100% en début 2018, en perso et en pro et je suis satisfait des résultats. Au début, il m'arrivait de vérifier pertinence d'un résultat de recherche (souvent anglophone) en faisant appel à Google. Ce n'est plus le cas, je suis convaincu de la qualité du résultat. On peut vraiment être fier de Qwant (Cocorico !). Je n'en dirai pas autant de Mozilla, je reste un grand supporter de Firefox mais la confiance a été écornée donc je leur confie ma navigation mais pas plus.
|
||||
33
posts/2019/2019-02-08-url-hugo.md
Executable file
33
posts/2019/2019-02-08-url-hugo.md
Executable file
|
|
@ -0,0 +1,33 @@
|
|||
<!-- title: Hugo et les URLs -->
|
||||
<!-- category: Blog -->
|
||||
|
||||
J'ai publié le dernier article avec un accent dans l'URL<!-- more --> : https://blogduyax.madyanne.fr/2019/bilan-h%C3%A9bergement-2018/
|
||||
|
||||
Le moteur de blog Hugo compose lui-même l'URL à partir du titre de l'article. C'est commode mais toujours heureux. Et le temps que je m'en aperçoive, trois commentaires avaient été postés sur l'article. Que fait-on quand un a bug non corrigé par ~~manque de temps~~ **fainéantise** dans [son système de gestion de commentaires](https://github.com/kianby/stacosys) ?
|
||||
|
||||
1. on corrige le bug
|
||||
2. on modifie l'URL de l'article
|
||||
|
||||
La première option est trop dure un vendredi soir donc j'ai opté pour la seconde.
|
||||
|
||||
Modifier une URL avec Hugo, ce n'est pas difficile : il suffit de rajouter un **slug** à l'entête de l'article pour définir soi-même l'URL :
|
||||
|
||||
slug = "bilan-hebergement-2018"
|
||||
|
||||
Et paf, l'article est accessible ici : https://blogduyax.madyanne.fr/2019/bilan-hebergement-2018/
|
||||
|
||||
Mais quid des agrégateurs de liens comme [le Journal du Hacker](https://www.journalduhacker.net) et des lecteurs qui ont mis l'article en favori ? Ils vont se retrouver avec une belle erreur 404. Alors, dans le temps, j'aurais défini un alias au niveau du serveur HTTP (NginX dans mon cas) pour rediriger l'ancienne URL vers la nouvelle. Et j'aurais eu une belle configuration NginX au bout de quelques années sans vraiment savoir si tout est pertinent. Hugo propose une notion d'alias qui génère directement une page de redirection de l'ancienne URL vers le nouvel emplacement.
|
||||
|
||||
Ca se règle donc au niveau de l'article en ajoutant les propriétés **slug** et **alias** à l'entête :
|
||||
|
||||
+++
|
||||
title = "Bilan hébergement 2018"
|
||||
date = "2019-02-07"
|
||||
slug = "bilan-hebergement-2018"
|
||||
aliases = ["/2019/bilan-hébergement-2018/"]
|
||||
categories = ["Hébergement"]
|
||||
tags = ["planet"]
|
||||
+++
|
||||
|
||||
|
||||
Merci Victor ;-)
|
||||
35
posts/2019/2019-03-02-tmux-msys2.md
Executable file
35
posts/2019/2019-03-02-tmux-msys2.md
Executable file
|
|
@ -0,0 +1,35 @@
|
|||
<!-- title: Tmux et MSYS2 -->
|
||||
<!-- category: GNU/Linux -->
|
||||
<!-- tag: planet -->
|
||||
|
||||
Toujours condamné aux logiciels de l'éditeur de Redmond dans le milieu professionnel, je suis un fidèle utilisateur de [MSYS2](https://www.msys2.org/), un Cygwin auquel on a greffé Pacman<!-- more -->... pas le mentos jaune mais le gestionnaire de paquet de ArchLinux. Mais pourquoi faire un truc pareil me direz-vous ? Et bien pas seulement pour le plaisir de la ligne de commande ! L'interface d'installation et mise à jour des paquets Cygwin ressemble à ça :
|
||||
|
||||

|
||||
|
||||
Alors si je peux avoir la même chose avec une commande, vérifier la liste des dépendances que je vais installer au préalable, je dis banco :
|
||||
|
||||
pacman -S gcc-g++
|
||||
|
||||
MSYS2 a simplifié quelques trucs ; par exemple, les partitions Ms Windows sont directement sous la racine : /C, /D
|
||||
|
||||
Ma principale utilisation de MSYS consiste à accéder de multiples serveurs distants par SSH et faire du copier-coller entre sessions mais aussi avec le presse-papier système, joliment surnommé *clipboard Windows*. Et c'est là qu'intervient mon outil console préféré : [tmux](https://tmux.github.io).
|
||||
|
||||
Tmux est supporté par MSYS2 dans sa version 2.8. J'avais un peu délaissé l'outil depuis la version 2.4, ce fut l'occasion de dépoussiérer ma configuration et d'obtenir des réglages qui fonctionnent aussi bien sur GNU/Linux que sur MSYS 2/Ms Windows.
|
||||
|
||||
Sous Cygwin le presse-papier est un device */dev/clipboard* et le copier de Ms Windows vers MSYS2 est géré de base : un SHIFT-INS colle dans MSYS2. Dans l'autre sens, il faut ajouter le nécessaire dans la configuration de TMUX. Je préfère le mode VIM plutôt que le mode EMACS donc ma configuration est en fonction :
|
||||
|
||||
# copy to Ms Windows clipboard
|
||||
if -b '[ -c /dev/clipboard ]' 'bind-key -T copy-mode-vi y send-keys -X
|
||||
copy-pipe-and-cancel "tmux save-buffer - > /dev/clipboard"'
|
||||
|
||||
La configuration complète est accessible sous Gitoube : https://github.com/kianby/dotfiles/blob/master/tmux/__tmux.conf
|
||||
|
||||
Et comme on est au 21ème siècle, j'ai réalisé une petite vidéo pour montrer le copier-coller en image avec ~~youteubé~~ [asciinema](https://asciinema.org). Désolé pour le sur-place dans la séquence entre 2 minutes et 2'50, j'ai fait une pause tisane ;-)
|
||||
|
||||
<script id="asciicast-231177" src="https://asciinema.org/a/231177.js" async></script>
|
||||
|
||||
Comme à la fin de toute vidéo, il y a un bonus ! Je cherchais aussi un outil pour réaliser une interface console de connexion aux serveurs SSH et, encore mieux, j'ai découvert le projet [sshto](https://github.com/vaniacer/sshto) qui exploite directement le fichier **~.ssh/config** pour construire automatiquement une telle interface.
|
||||
|
||||

|
||||
|
||||
Le mode console a encore de beaux jours devant lui !
|
||||
30
posts/2019/2019-04-14-refonte-compl-te-du-blog.md
Executable file
30
posts/2019/2019-04-14-refonte-compl-te-du-blog.md
Executable file
|
|
@ -0,0 +1,30 @@
|
|||
<!-- title: Refonte complète du blog -->
|
||||
<!-- categories: Blog -->
|
||||
|
||||
Le blog a pris son envol et il a désormais son propre nom de domaine **blogduyax.fr**.
|
||||
|
||||
Ce n'est qu'un changement parmi une multitude, et un drôle de cheminement qui d'une idée de base un peu floue a mené à une refonte complète du blog<!-- more --> :
|
||||
|
||||
- abandon du moteur de blog [Hugo](https://gohugo.io/) pour [Jekyll](https://jekyllrb.com/)
|
||||
- mise à la retraite du système maison de commentaires **Stacosys** pour [Isso](https://posativ.org/isso/)
|
||||
- hébergement sur GitHub Pages
|
||||
|
||||
Certains diront que j'ai mis de l'eau dans mon vin et ils n'auront pas tort ;-)
|
||||
|
||||
Comment en suis-je arrivé là ? Et bien j'avais en idée de faciliter la chaîne de publication des articles. J'adore ce qu'apporte un moteur statique : l'écriture des articles en Markdown et une génération en pages statiques, la facilité à publier le contenu sous gestion de sources (GIT). Mais la publication nécessite d'allumer un ordinateur de peaufiner le brouillon et de de faire un *git push* pour publier. Rien de complexe mais la nécessité de repasser par un PC pour publier alors que ma vie est plutôt mobile.
|
||||
|
||||
J'ai envisagé de coder une interface d'administration Web avec un éditeur Markdown (on en trouve plusieurs en JavaScript sous licence Open Source) et une interaction avec GIT pour fluidifier la publication. Mais je n'ai pas trouvé l'étincelle pour démarrer donc j'ai fait des recherches pour voir si ça n'existe pas prêt à l'emploi, j'étais même prêt à changer de moteur de blog si nécessaire. J'ai regardé les extensions de Hugo, [les autres moteurs statiques](https://www.staticgen.com/) et même [les CMS en fichier à plat](https://www.flatphile.co/). J'ai installé beaucoup de containers Docker pour évaluer les fonctionalités. Grav, Bludit, PhileCMS... beaucoup de moteurs avec des atouts mais aucun ne m'a vraiment enthousiasmé.
|
||||
|
||||
Puis j'ai découvert [Prose.io](http://prose.io) qui donne tout son potentiel avec Jekyll. Je m'étais intéressé à Jekyll avant de choisir Pelican en 2013 et c'est l'écosystème Python que je connais bien qui avait orienté mon choix en défaveur de Ruby. Pas de regret mais là j'ai regardé Jekyll en détail et je l'ai trouvé très attractif : simple, cohérent, mature, bien documenté et extensible par des plugins. Alors au niveau des performances, on génére les pages du blog en 15 secondes plutôt que 5 mais ce n'est pas un critère important pour mon utilisation. J'ai choisi un thème et j'ai commencé la migration de mes pages. On reste sur du Markdown donc le gros du travail c'est la migration des *metadata* et l'adaptation du thème.
|
||||
|
||||
Il y a possibilité d'héberger Prose sur ses propres serveur mais j'avais déjà passé un cap et accepté l'idée d'héberger le blog sur GitHub Pages ce qui me permet de préserver le fonctionnement actuel, à savoir pouvoir écrire mon article en Markdown depuis mon PC et générer le blog localement avec mon Jekyll en mode développement avant de publier avec un *git push*. Mais je peux aussi écrire un article en mobilité depuis Prose et publier directement l'article. Choquant ? pas tant que ça ! je sépare l'hébergement du blog du reste de mon infrastructure et je garde la main sur les données. Si l'orientation de GitHub ne me plait pas ou s'ils changent les règles d'hébergement, je récupère mon blog Jekyll et je l'héberge sur mon serveur dédié.
|
||||
|
||||
Et quid des commentaires ? Les URLs des articles ont bougé donc j'ai bousillé tout le référencement et je n'avais pas envie de me casser la tête à maintenir des redirections entre les anciennes URLs et les nouvelles. J'aurais pu adapter la partie *front-end* de Stacosys pour qu'elle devienne full JavaScript et soit intégrable dans le blog mais il aurait aussi fallu modifier l'ensembles des URLs. J'ai évalué Isso et j'ai décidé que Stacosys pouvait prendre sa retraite. Né au moment où il n'y avait pas beaucoup de solutions pour les blogs statiques, il n'a plus d'avantages fonctionnel. Isso a une administration Web en plus des notifications par e-mail, ce que j'avais prévu de développer... un jour. Inutile de réinventer la route, j'héberge Isso sur mon serveur dédié et il sert les commentaires du blog sur l'autre domaine. J'ai migré les commentaires existants car l'histoire d'un blog ce ne sont pas que des articles.
|
||||
|
||||

|
||||
|
||||
|
||||
|
||||
|
||||
|
||||
|
||||
30
posts/2019/2019-05-12-antisocial.md
Executable file
30
posts/2019/2019-05-12-antisocial.md
Executable file
|
|
@ -0,0 +1,30 @@
|
|||
<!-- title: Antisocial en veilleuse -->
|
||||
<!-- categories: Humeur -->
|
||||
|
||||
Je traîne beaucoup moins sur Diaspora : je poste très peu et j'ai fait récemment une grosse lessive parmi les gens et les hashtags que je suivais.<!-- more -->
|
||||
|
||||
### La descente
|
||||
|
||||
C'est en partie à cause de la triste actualité des six derniers mois ; les gilets jaunes, les violences, le bashing anti-gouvernement, il n'y avait plus que cela dans mon fil d'actu Diaspora. Des gens que je suivais pour leurs publications sur le Libre et l'Open Source ont commencé à militer et c'est devenu leur sujet principal. Paradoxalement, alors que je limite la pollution de mon esprit en ne regardant plus les informations télévisées depuis des années, je me suis retrouvé à avoir le point de vue du réseau social sur un sujet brûlant d'actualité. Et au bout de quelques semaines de matraquage j'ai eu un ras-le-bol, la surdose et j'ai commencé à couper les sources.
|
||||
|
||||
Ca m'a fait prendre du recul sur le réseau en entier et reconsidérer ma façon de l'utiliser. Ce qui me plait dans Diaspora c'est la possibilité de suivre une personne ou de suivre un hashtag donc un centre d'intérêt. Mais les deux possibilités ont des inconvénients.
|
||||
|
||||
### Suivre toutes les publications d'une personne
|
||||
|
||||
Cela suppose que tout ce qu'il publie va vous intéresser. C'est rarement le cas ! L'exemple *des gilets jaunes* montre l'inconvénient à son paroxysme où on finit par virer la personne. Sans en arriver là, on a toujours du bruit : des publications qui ne nous intéressent pas donc du temps perdu et le besoin de filtrer l'information.
|
||||
|
||||
Un autre problème est la manie de certains de copier-coller des articles en intégralité. Etant dans une consommation mobile de Diaspora, c'est pas génial de faire défiler 30000 pixels pour arriver à la publication suivante dans le flux d'actualité. Je préfère un lien vers l'article et un commentaire personnel qui me donne envie de l'ouvrir.
|
||||
|
||||
### Suivre un hashtag pour alimenter un centre d'intérêt
|
||||
|
||||
C'est une fonctionnalité géniale pour couvrir un sujet d'intérêt mais qui peut avoir des désagréments : du bruit car la publication n'est pas intéressante ou hors-sujet, ou bien on assiste à une conversation publique entre deux personnes. Par exemple j'aime les photos de villes anciennes et je découvre des trucs sympas. Par contre je m'intéresse à la collapsologie et là c'est du concentré d'ondes négatives, du militantisme local mais rarement du contenu qui m'intéresse. Après c'est le risque, un hashtag c'est ouvert donc il faut s'attendre à traiter du déchet (donc passer du temps) pour trouver des pépites.
|
||||
|
||||
### Et le micro-blogging ?
|
||||
|
||||
Vu le genre de publication que je fais sur Diaspora et ce que j'en attends, je me suis dit que le micro-blogging était peut-être plus indiqué pour moi : une publication courte avec un lien ou une photo et un commentaire ou un ressenti. J'ai installé une instance Pleroma une journée puis je l'ai démonté et je me suis inscrit sur Mastodon chez [la mère Zaclys](https://mastodon.zaclys.com).
|
||||
|
||||
J'ai toujours un compte Twitter où je ne publie rien mais qui me sert à suivre quelques comptes officiels qu'on ne retrouvera jamais sur le Fediverse. Ma première mauvaise idée a été de republier le compte Twitter LesNews sur le Fediverse via un bot : lesnews_bot at botsin.space. C'était marrant à faire, ça m'a amusé une paire d'heures (https://hub.docker.com/r/kianby/tweet-toot) mais j'ai réalisé que je dupliquais le modèle que je fuyais : inonder des fils de toots avec de l'information mal qualifiée.
|
||||
|
||||
Finalement le micro-blogging n'est pas plus adapté à ma sociabilité virtuelle limitée donc je reste sur Diaspora pour garder le contact avec mon petit cercle de connaissances et je restreins les hashtags suivis. Je me concentre sur la source des infos plutôt que les gens qui les relaient, c'est moins d'énergie perdue. Pour les domaines liés à l'informatique (technos, système, Linux) on a de toute façon a peu près tous les mêmes sources. Si la personne produit du contenu sur un site je la rajoute à mes fidèles flux RSS que j'écluse quotidiennement. Et je redécouvre les newsletter grâce à [Carl Chenet](https://carlchenet.com/votre-veille-technologique-pendant-les-vacances/). C'est un média intéressant, une publication hebdomadaire est idéale pour mon cas, ça laisse la semaine pour lire, le contenu a été filtré en amont, c'est efficace.
|
||||
|
||||
|
||||
8
posts/2019/2019-05-18-souvenir-de-blog.md
Executable file
8
posts/2019/2019-05-18-souvenir-de-blog.md
Executable file
|
|
@ -0,0 +1,8 @@
|
|||
<!-- title: Souvenir de blog -->
|
||||
<!-- categories: Blog -->
|
||||
|
||||
J'aime bien l'allure du nouveau blog mais l'ancien *Blog du Yax* me manque un peu<!-- more -->, probablement parce que j'avais tout fait de A à Z, le HTML, le CSS et le JavaScript. Le résultat faisait un peu amateur mais c'était ma création.
|
||||
|
||||
Il me reste [Archive.org](https://web.archive.org/web/20180331143503/https://blogduyax.madyanne.fr/) pour les souvenirs :-)
|
||||
|
||||

|
||||
9
posts/2019/2019-05-28-r-duire-la-voilure.md
Executable file
9
posts/2019/2019-05-28-r-duire-la-voilure.md
Executable file
|
|
@ -0,0 +1,9 @@
|
|||
<!-- title: Réduire la voilure -->
|
||||
<!-- categories: Hébergement -->
|
||||
|
||||
Séparer l'hébergement du blog du reste de l'infrastructure a été une bonne idée, je n'ai plus de scrupule à effectuer mes maintenances sans préavis, parfois avec moins de préparation puisque ça ne dérange que moi. Ayant viré pas mal de containers *maison* autour du blog, il me reste [Isso](https://posativ.org/isso/) pour gérer les commentaires et mes applications indispensables<!-- more --> : [Wallabag](https://wallabag.org) pour sauver un article et le lire plus tard, [Shaarli](https://www.shaarli.fr/) pour gérer les favoris, [Selfoss](https://www.selfoss.aditu.de/) pour les flux RSS. J'ai aussi une instance de [Gitea](https://gitea.io) qui me fournit un wiki basique et un miroir de mes projets GitHub. J'avais aussi en tête de rapatrier ma photothèque de 70 Go, actuellement hébergée gracieusement par Cozy Cloud.
|
||||
|
||||
Pour ces quelques services je n'ai pas besoin de beaucoup de puissance, la dedibox SC est devenue surdimensionnée et son augmentation de tarif a joué dans ma décision de réduire la voilure et de trouver un hébergement moins cher, avec au moins 200 Go de disque. Dédié ou VPS KVM, peu importe si je peux migrer mes containers Docker dessus. La dedibox coûte 11,99 euros par mois, je pensais trouver facilement une alternative en dessous de 8 euros. J'ai vite déchanté... Le prix des hébergements a grimpé depuis [ma dernière quête](https://blogduyax.fr/2016/06/18/histoire-herbergement.html) et cela concerne aussi les offres VPS avec des offres plus spécialisées : du VPS basique avec un disque de 5 ou 10 Go et du VPS *storage* avec plus de disque (et souvent moins de puissance). Pour avoir 200 Go de stockage on tombe dans la catégorie stockage et la plupart des offres sont aussi chères que la dedibox SC qui est pourtant un serveur physique dédié. J'ai eu du mal à trouver une offre compétitive pour mon cas d'usage ; c'est en traînant sur le canal **vps** de Reddit que j'ai trouvé mon offre à Munich chez [Contabo](https://contabo.com) avec leur VPS S SSD avec 200 Go de disque, 4 coeurs virtuels et 8 Go de RAM pour 4,99 euros. Le serveur physique est un XEON E5-2630. En pratique, j'ai moins de latence pour accéder à mes services. Il faut voir sur le long terme... en fonction de la charge de mes co-locataires sur le serveur physique ça pourrait se dégrader mais jusqu'ici je suis très satisfait du rapport qualité / prix.
|
||||
|
||||

|
||||
|
||||
44
posts/2019/2019-06-29-markdown-interg-n-rationnel.md
Executable file
44
posts/2019/2019-06-29-markdown-interg-n-rationnel.md
Executable file
|
|
@ -0,0 +1,44 @@
|
|||
<!-- title: Markdown intergénérationnel -->
|
||||
<!-- categories: Développement -->
|
||||
|
||||
Je suis un fan du Markdown depuis que je connais son existence : un langage de balise lisible, aisément mémorisable pour écrire sans distraction en se concentrant sur le contenu, pas sur la forme.<!-- more --> C'est le Markdown qui m'a intéressé aux générateurs de sites statiques. Il est parfait pour l'écriture mais il montre ses limites pour produire du document (ce pour quoi il n'a pas vraiment été conçu). Mais un langage de balise est par nature extensible donc des extensions ont vu le jour pour générer une table des matières, gérer des tableaux et d'autres trucs plus exotiques...
|
||||
|
||||
Mermaid permet de concevoir des diagrammes de flux, de séquence et de Gantt, sans application, car c'est un langage de script où l'on décrit le diagramme et Mermaid effectue le rendu graphique. Je vous renvoie [à la doc](https://mermaidjs.github.io) mais ça permet de faire des trucs cools. On n'a pas la main sur le rendu (car il est généré automatiquement), cela ne remplace donc pas un outil graphique pour les diagrammes complexes mais c'est idéal pour incorporer des diagrammes de moyenne complexité dans un document produit par un langage de balise comme Markdown, ou pour du rendu dynamique dans une application Web.
|
||||
|
||||
L'outil libre, véritable *couteau suisse* de la conversion de documents est [Pandoc](https://pandoc.org). Avec lui on peut convertir du LaTeX en PDF, du markdown en HTML, faire intéropérer des formats Wiki, les possibilités sont énormes. Un [filtre Mermaid pour Pandoc](https://github.com/raghur/mermaid-filter) existe donc on peut tirer parti de Mermaid dans la conversion d'un document Markdown vers HTML ou PDF.
|
||||
|
||||
C'est là que le titre de mon article intervient : Pandoc est écrit en Haskell, un langage des années 90 avec une version majeure par décennie, alors que Mermaid est écrit en Node.JS, un langage en plein bouillonnement qui revisite une partie de son éco-système chaque année. Il est génial que les deux langages s'allient pour fournir l'intégration de Mermaid dans Pandoc mais comment installer tout cela ?
|
||||
|
||||
Pandoc est un vétéran, on le trouve dans toute distribution GNU/Linux bien née. Node.JS c'est plus compliqué. J'avais une version plutôt récente et je me suis fait rejeter pendant l'installation de Mermaid par NPM. A mon avis, la meilleure approche avec Node.JS consiste à l'installer par un autre canal que les dépôts. J'ai viré toute installation venant des dépôts sur ma machine et j'ai installé un outil qui s'appelle [n](https://github.com/tj/n) via NPM dont le rôle est gérer les installations de Node.JS. Cerise sur le gateau, il permet de faire cohabiter plusieurs versions de Node.JS, par exemple la LTS 10.16.0 et la dernière version 11.x.
|
||||
|
||||
Bien outillé, j'ai retenté l'installation du filtre :
|
||||
|
||||
npm install --global mermaid-filter
|
||||
|
||||
Mais elle échoue sur le téléchargement de chromium pendant l'installation d'une dépendance appelée *pupeteer* avec un message d'erreur abscons. La recherche de solution est un peu inquiétante : un gars aurait pu installer en utilisant un miroir chinois de npmjs, un autre l'a fait à la mano depuis une installation manuelle de chromium. Finalement c'est Stack Overflow qui fournit une solution plus acceptable en élevant les droits pendant l'installation du paquet :
|
||||
|
||||
npm install puppeteer --unsafe-perm=true --allow-root
|
||||
|
||||
Et là ça se passe bien !
|
||||
|
||||
Du coup je prépare un petit bout de Markdown avec du Mermaid dedans pour tester :
|
||||
|
||||
# Markdown et plus
|
||||
|
||||
Un diagramme rendu par Mermaid.
|
||||
|
||||
~~~mermaid
|
||||
sequenceDiagram
|
||||
Alice->>John: Hello John, how are you?
|
||||
John-->>Alice: Great!
|
||||
~~~
|
||||
|
||||
N'ayant pas installé le module node en tant que root mais sous mon utilisateur, mon test de Pandoc référence l'emplacement de l'installation :
|
||||
|
||||
pandoc -t html -F ~/node_modules/mermaid-filter/index.js -o mermaid.html mermaid.md
|
||||
|
||||
Et voici le rendu HTML:
|
||||
|
||||

|
||||
|
||||
Bon markdown !
|
||||
16
posts/2019/2019-07-26-je-vous-l-avais-bien-dit.md
Executable file
16
posts/2019/2019-07-26-je-vous-l-avais-bien-dit.md
Executable file
|
|
@ -0,0 +1,16 @@
|
|||
<!-- title: Je vous l'avais bien dit -->
|
||||
<!-- categories: Hébergement -->
|
||||
|
||||
Mini-bilan après les décisions des 8 derniers mois : migration Docker, refonte du blog, nouveau domaine, hébergement chez GitHub Pages... <!-- more -->
|
||||
|
||||
Je n'ai pas achevé le système de sauvegarde (alors que je tourne sur un VPS à 4 euros le mois),
|
||||
|
||||
Je n'ai pas achevé le système de monitoring,
|
||||
|
||||
Je viens de découvrir que le blog a perdu *magiquement* sa barre de navigation ! Je ne sais pas depuis quand, ce qui est sûr c'est que je ne maîtrise pas la génération HTML des pages GitHub.
|
||||
|
||||
J'ai voulu lever le pied sur la gestion de l'infra, me reposer sur GitHub mais c'est la cata ! Il est temps de se retrousser les manches
|
||||
|
||||

|
||||
|
||||
*Nous savons tous le réel plaisir que vous avez à dire : je vous l'avais bien dit...*
|
||||
Loading…
Add table
Add a link
Reference in a new issue