Tous les articles par jeanmich

Games Made in France 2026 : ce qu’il faut savoir

Games Made in France 2026 approche, et l’évènement s’annonce une nouvelle fois comme un rendez-vous important pour suivre la création vidéoludique française. Cette sixième édition mettra en avant 38 jeux développés par des studios français, avec un mélange de titres déjà disponibles, de démos jouables, d’accès anticipés et de projets encore attendus dans les prochains mois.

Le principe reste simple et efficace : pendant plusieurs jours, des passionnés présentent une sélection de productions françaises, commentent l’actualité des studios et donnent de la visibilité à des jeux très différents. Il y aura donc du connu, du plus confidentiel, et probablement quelques découvertes pour ceux qui aiment suivre la scène indépendante.

Games Made in France 2026 : dates et diffusion

L’évènement se tiendra du 23 au 26 avril 2026. La diffusion est prévue sur la chaîne Twitch de MisterMV, avec une présentation assurée en compagnie d’At0mium, Trinity et DamDamLive.

Le format sur quatre jours montre bien l’ambition de cette édition. Avec un tel volume de jeux présentés, l’idée n’est pas seulement d’enchaîner des bandes-annonces, mais aussi de laisser de la place aux échanges, aux réactions et à la mise en contexte. Pour ce type de rendez-vous, c’est souvent ce qui fait la différence entre une simple vitrine et un vrai moment de découverte.

Un évènement centré sur les jeux français

Ce qui fait l’intérêt de Games Made in France 2026, c’est sa capacité à rassembler des projets très variés sous une même bannière. On y retrouve des productions déjà installées, des sorties imminentes, des jeux avec démo disponible et d’autres encore en développement.

Cette diversité est importante, car elle donne une image assez large de la production française actuelle. On ne parle pas seulement d’un genre ou d’un seul niveau de budget. Au contraire, la sélection semble vouloir montrer plusieurs facettes du jeu vidéo français, entre indépendants, projets plus ambitieux et collaborations avec des licences connues.

  • Des jeux déjà disponibles
  • Des titres en accès anticipé
  • Des sorties prévues en 2026 et 2027
  • Des démos jouables pour découvrir certains projets
  • Une masterclass autour de A Plague Tale

Les jeux annoncés à surveiller

La liste communiquée est particulièrement dense. Parmi les titres déjà disponibles ou très identifiés, on peut citer Astral Ascent, Absolum, ENDLESS Legend 2 en accès anticipé, Pirates: Rogue’s Fortune en accès anticipé, ou encore Starship Troopers: Ultimate Bug War!.

D’autres jeux sont attendus dans les semaines qui suivront l’évènement, ce qui pourrait donner un relief particulier à leur présentation. C’est notamment le cas de Aphelion, Sintopia, Tides of Tomorrow, Yerba Buena ou TaVRn’s Takedown – Naheulbeuk.

La programmation comprend aussi plusieurs projets accompagnés d’une démo, ce qui est souvent un bon signal pour les joueurs curieux. C’est le cas, entre autres, de Battlestar Galactica: Scattered Hopes, Clean Up Earth, Darwin’s Paradox!, DIVE or DIE – Children of Rain, EONA, Fading Echo, Maseylia : Echoes of the Past, Micromega, Sydless, Terrinoth: Heroes of Descent, Tom the postgirl ou Wavekin.

Quelques sorties déjà datées

Plusieurs jeux disposent déjà d’une fenêtre de sortie précise. Cela donne un intérêt supplémentaire à leur présence dans le programme, car les présentations pourront servir de dernier coup de projecteur avant lancement.

  • TaVRn’s Takedown – Naheulbeuk : 26 mars 2026
  • Clean Up Earth : 2 avril 2026
  • Darwin’s Paradox! : 2 avril 2026
  • Sintopia : 16 avril 2026
  • Tides of Tomorrow : 22 avril 2026
  • Aphelion : 28 avril 2026
  • Yerba Buena : 26 mai 2026

Une masterclass autour de A Plague Tale

Au milieu de cette sélection de jeux, un autre moment retient l’attention : une masterclass sur A Plague Tale avec Asobo Studio et Focus Entertainment. C’est un ajout intéressant, car il élargit l’évènement au-delà de la simple présentation de titres.

Ce type de séquence peut apporter un regard plus concret sur la fabrication d’un jeu, la direction artistique, la production ou la manière dont une licence française s’est imposée à l’international. Sans préjuger du contenu exact de l’intervention, c’est clairement un temps fort potentiel pour les personnes qui s’intéressent autant aux coulisses qu’aux annonces.

Pourquoi cet évènement compte

Il existe beaucoup de présentations de jeux dans l’année, mais Games Made in France 2026 a un positionnement particulier. Il met en avant un écosystème local, avec ses studios, ses idées et ses projets à différents stades de maturité.

C’est aussi une manière de rappeler que la production française ne se limite pas à quelques grands noms. Elle repose également sur une scène très vivante, capable de proposer des jeux d’action, de stratégie, de narration, de gestion ou des expériences plus atypiques. Pour le public, cela permet de suivre des titres qui passeraient parfois sous le radar lors de grands shows plus généralistes.

Et puis il faut bien le dire : voir un évènement consacré aux studios français, présenté par des personnalités bien connues du streaming jeu vidéo, a quelque chose de naturellement sympathique. Le ton devrait être plus détendu qu’une conférence très formatée, sans empêcher les informations utiles de circuler.

Les informations pratiques à retenir

Si vous voulez suivre l’évènement, voici l’essentiel :

  • Nom : Games Made in France 2026
  • Dates : du 23 au 26 avril 2026
  • Diffusion : chaîne Twitch de MisterMV
  • Présentation : MisterMV, At0mium, Trinity et DamDamLive
  • Contenu annoncé : 38 jeux français et une masterclass dédiée à A Plague Tale

Des réseaux sociaux sont également prévus pour suivre l’actualité de l’évènement, avec une présence annoncée sur X, Bluesky et Instagram.

Ce qu’il faut retenir

Games Made in France 2026 s’annonce comme une vitrine particulièrement fournie pour la scène vidéoludique française. Entre jeux déjà disponibles, démos, accès anticipés, sorties proches et masterclass, cette sixième édition semble vouloir couvrir un spectre très large.

Si vous aimez découvrir de nouveaux projets, suivre les studios français ou simplement repérer vos prochains jeux à surveiller, ce rendez-vous de fin avril mérite clairement un coup d’œil. Reste maintenant à voir quels titres réussiront le plus à se démarquer pendant ces quatre jours de stream.

Source : https://www.cowcotland.com/news/100173/games-made-in-france-c-est-dans-un-petit-mois.html

Veille sur le support logiciel libre public

Le support logiciel libre dans l’administration française fait l’objet d’un travail de veille particulièrement intéressant. Dans le cadre du marché de support au logiciel libre piloté par la DGFiP, des études sont réalisées puis publiées, ce qui donne accès à une matière utile aussi bien pour les acteurs publics que pour les curieux du libre.

L’idée est simple, mais très pertinente : documenter l’état de l’offre sur différents sujets proposés par les administrations. Selon les cas, il peut s’agir d’une veille plutôt stratégique, pour évaluer la maturité d’un domaine fonctionnel précis, ou d’une veille plus technique, avec comparaison détaillée des logiciels existants à partir d’une grille fonctionnelle.

Pourquoi ces veilles sur le support logiciel libre sont utiles

Ce qui est intéressant ici, c’est que ces travaux ne servent pas seulement à informer. Les conclusions peuvent aussi contribuer à décider si un logiciel entre ou non dans le périmètre du marché de support interministériel. On n’est donc pas dans la documentation pour la documentation, mais dans un usage très concret.

Autre bon point : ces études sont publiées par l’administration dans un format bureautique ODT et sous licence CC BY-SA 2.0 FR. C’est cohérent avec l’esprit du sujet, et surtout cela permet la réutilisation de contenus d’intérêt général.

Une ressource à surveiller

Il existe bien un espace public où retrouver ces études pour la période récente : ADULLACT.

  • veille stratégique sur la maturité d’une offre libre ;
  • veille technique avec comparaison fonctionnelle ;
  • publication ouverte par l’administration ;
  • impact possible sur le périmètre du support interministériel.

Je trouve la démarche saine. Trop souvent, on parle du libre de manière théorique. Là, on voit au contraire une approche pragmatique : observer, comparer, publier, puis éventuellement intégrer. Pour qui s’intéresse aux logiciels libres dans le secteur public, c’est clairement une source à garder de côté.

Conclusion : ces études de veille donnent un aperçu concret de la manière dont l’administration évalue le libre. Rien que pour cela, elles méritent le détour.

Sources :

Claude Octopus, l’orchestrateur multi-IA

Claude Octopus est le genre d’outil qui attire immédiatement l’œil si vous suivez un peu ce qui se passe autour du code assisté par IA. L’idée est simple sur le papier : au lieu de demander un avis à un seul modèle, le plugin fait travailler plusieurs IA en parallèle sur le même sujet, puis ne laisse passer le résultat que si la convergence est jugée suffisante.

Sur le principe, c’est assez malin. On réduit un peu le risque de réponse trop rapide, bancale ou incomplète, ce qui est quand même un des reproches récurrents faits aux assistants de développement.

Claude Octopus mise sur la confrontation des modèles

L’outil orchestre notamment Claude, Codex et Gemini. Chaque moteur a son rôle, avec une logique de recherche, d’implémentation et de synthèse, puis un seuil de validation annoncé à plus de 75% avant de poursuivre dans le pipeline.

Autrement dit, on n’est pas juste sur un assistant qui répond, mais sur une tentative de croisement systématique des points de vue. Pour la revue de code, l’approche va même plus loin avec plusieurs agents spécialisés qui commentent les pull requests.

Un plugin ambitieux, mais pas gratuit en usage

L’installation semble assez simple, et l’outil fonctionnerait sur macOS, Linux et Windows. Le projet annonce aussi un ensemble conséquent de commandes, de personas spécialisées et de skills activées selon le besoin.

Ce qui paraît intéressant, c’est surtout la promesse de structurer le travail :

  • analyse en plusieurs phases,
  • contrôles qualité entre les étapes,
  • personas orientées sécurité, architecture ou UX,
  • mode plus automatisé à partir d’un fichier Markdown.

En revanche, il faut garder en tête la contrepartie : faire tourner plusieurs modèles en parallèle consomme mécaniquement plus de tokens et ajoute de la latence. La source évoque un coût d’environ 3 fois supérieur et un délai de 30 à 60 secondes par requête.

Pourquoi ce projet mérite un coup d’œil

Le vrai intérêt de Claude Octopus n’est peut-être pas de produire plus vite, mais de produire avec davantage de garde-fous. Dans un contexte où beaucoup d’outils IA misent surtout sur la vitesse, voir émerger une logique de débat, de convergence et de validation est plutôt sain.

Reste évidemment à voir ce que cela donne en conditions réelles, sur de vrais projets et avec de vraies contraintes de coût. Mais comme piste d’évolution pour l’IA appliquée au développement, c’est clairement une idée à suivre.

Source : https://korben.info/claude-octopus-orchestrateur-multi-ia-claude-code.html

Après Lilo, Stitch de Google s’attaque à Figma

Google Stitch revient avec une mise à jour qui montre clairement l’ambition de Google sur le design d’interface assisté par IA. L’idée n’est plus seulement de générer une maquette à partir d’un prompt, mais de faire du design en partant d’une intention, d’un objectif métier ou d’un ressenti attendu. Google parle ici de « vibe design », et derrière le terme marketing il y a tout de même un repositionnement intéressant.

Google Stitch veut dépasser la simple génération d’écrans

Stitch n’est pas un nouvel outil sorti de nulle part, ni même un petit monstre venu d’une planète extraterrestre. Il provient du rachat de Galileo AI, puis d’une première présentation lors de Google I/O 2025. La nouveauté annoncée en mars 2026 est plus profonde : interface refondue, canevas infini, gestion de plusieurs pistes de travail et agent de design capable de suivre l’historique du projet.

Concrètement, on peut partir de texte, d’images ou même de code. L’outil génère ensuite des interfaces, aide à itérer, puis transforme une maquette statique en prototype interactif. C’est probablement là que Google essaie de se différencier : ne pas s’arrêter au joli visuel, mais accélérer tout le cheminement produit.

Une concurrence frontale avec Figma

Le positionnement face à Figma est assez clair. Figma Make propose déjà une logique proche, avec génération par prompt et prototypage rapide. Mais Google ajoute plusieurs briques qui peuvent attirer les équipes techniques autant que les designers.

  • DESIGN.md pour exporter ou importer un système de design,
  • extraction automatique d’un design system depuis une URL,
  • commandes vocales pour piloter l’agent,
  • intégrations vers des outils de développement via MCP et SDK.

Ce point est important : Google Stitch semble vouloir relier plus directement design, prototypage et mise en production. Sur le papier, c’est séduisant.

Ce qu’il faut surveiller maintenant

Reste une question simple : est-ce que les équipes vont changer leurs habitudes ? Figma garde un avantage énorme, celui d’être déjà bien installé dans les workflows produit. Google, lui, mise sur l’IA native et sur une promesse de fluidité bout en bout.

À ce stade, il faut surtout retenir que Google Stitch devient un concurrent sérieux à surveiller. Pas forcément un remplaçant immédiat de Figma, mais clairement un signal que le design d’interface entre dans une nouvelle phase, plus conversationnelle, plus automatisée, et sans doute plus proche du développement.

Source : https://www.blogdumoderateur.com/google-attaque-figma-stitch-outil-vibe-design/

Classement IA mars 2026, le vainqueur est…

Le classement IA mars 2026 publié par le BDM montre une tendance qui se confirme : Anthropic reste très bien placé sur LMArena, devant Google, xAI et OpenAI. Si l’on suit un peu l’actualité des modèles, ce n’est pas vraiment une surprise, mais cela donne tout de même un bon instantané du marché vu par un benchmark collaboratif.

Anthropic garde la main sur le classement IA mars 2026

Les deux premières places sont occupées par Claude Opus 4.6, en version « thinking » puis en version standard. Derrière, on retrouve Gemini 3.1 Pro, puis Grok-4.20. Google place plusieurs modèles dans le top 10, tandis qu’OpenAI revient avec GPT-5.4 « high » et GPT-5.2 après avoir été plus discret ces derniers mois.

Le top 10 cité met en avant :

  • Claude Opus 4.6 « thinking »
  • Claude Opus 4.6
  • Gemini 3.1 Pro
  • Grok-4.20
  • Gemini 3 Pro
  • GPT-5.4 « high »
  • Grok-4.20 « reasoning »
  • GPT-5.2
  • Gemini 3 Flash
  • Claude Opus 4.5 « thinking »

Des leaders différents selon les usages

L’intérêt ici, c’est que LMArena ne se limite plus à un classement général. Par catégorie, les écarts deviennent plus parlants. En génération de texte et en développement web, Anthropic semble garder une avance nette. En analyse d’image, Google prend la main avec Gemini. Et en génération d’images, la source signale l’arrivée en tête de Nano Banana 2.

Autrement dit, parler du « meilleur modèle » n’a de sens que si l’on précise la tâche. C’est probablement le point le plus utile à retenir.

Ce qu’il faut en penser

Comme toujours avec LMArena, il faut garder en tête qu’il s’agit d’un benchmark fondé sur les votes des utilisateurs. C’est intéressant pour suivre la perception réelle des performances, mais ce n’est pas un verdict absolu. Malgré cela, la photographie de mars 2026 est claire : Anthropic domine encore la conversation, Google reste très solide, xAI progresse, et OpenAI n’a pas disparu du jeu.

À suivre donc, car sur ce marché, un classement tient parfois seulement jusqu’à la prochaine mise à jour.

Source : https://www.blogdumoderateur.com/top-20-modeles-ia-mars-2026-classement-complet/

OVHcloud et l’euro numérique souverain

L’euro numérique n’est plus seulement une idée de technocrates bruxellois ou un sujet de conférence entre banquiers centraux. Avec le choix d’OVHcloud par la BCE pour fournir une partie de l’infrastructure cloud souveraine du projet, on passe un cran plus loin : celui de la mise en œuvre concrète. Et ce n’est pas anodin.

Quand l’Europe parle de souveraineté numérique, on a souvent droit à des déclarations ambitieuses, puis à des solutions qui reposent encore sur des briques étrangères. Ici, le signal est au moins plus cohérent : un acteur européen, des serveurs opérés depuis l’Union européenne, et un projet monétaire qui touche directement à l’autonomie stratégique du continent.

OVHcloud entre dans le chantier de l’euro numérique

La BCE a retenu OVHcloud, avec Senacor Technologies, pour participer à l’infrastructure du futur euro numérique. Côté répartition des rôles, Senacor construit le composant technique SEPI, présenté comme un système d’échange sécurisé des informations de paiement. OVHcloud, de son côté, fournit l’infrastructure cloud souveraine sur laquelle une partie de cet ensemble reposera.

Le point mis en avant est clair : l’infrastructure est opérée à 100 % depuis l’Union européenne, avec des serveurs installés en Europe. Dit autrement, la BCE cherche ici à éviter qu’un projet aussi sensible dépende d’un hébergement ou d’une gouvernance technique extra-européenne.

Sur le papier, c’est exactement ce qu’on attend d’un projet de cette nature. On parle quand même d’une future monnaie électronique émise par la Banque centrale européenne, destinée à être utilisée pour payer en boutique, sur Internet ou entre particuliers. Si l’on voulait un cas d’usage où la question du contrôle de l’infrastructure est centrale, difficile de faire mieux.

Pourquoi la souveraineté revient au centre du jeu

Le sujet n’est pas seulement technique. Il est aussi politique, économique et même assez banal dans notre quotidien. Aujourd’hui, une grande partie des paiements par carte en Europe passe encore par des acteurs étrangers, notamment Visa et Mastercard. La source rappelle d’ailleurs que deux tiers des paiements par carte sur le continent transitent par des entreprises non européennes, et que treize pays de la zone euro ne disposent d’aucune solution locale de substitution.

Vu comme ça, l’euro numérique apparaît moins comme un gadget moderne que comme une tentative de reprendre la main sur une fonction essentielle : payer. On peut discuter du calendrier, du coût, de la complexité, mais le diagnostic de dépendance paraît difficile à contester.

Et c’est là que le choix d’OVHcloud prend une portée symbolique. L’Europe ne peut pas expliquer qu’elle veut une monnaie numérique souveraine tout en la faisant reposer sur des infrastructures dont elle ne maîtrise ni totalement l’exploitation, ni les contraintes juridiques, ni les dépendances industrielles. Sur ce point, le choix semble logique.

Ce que l’euro numérique pourrait changer

Dans la présentation du projet, plusieurs promesses reviennent. L’euro numérique doit permettre des paiements en magasin, en ligne, mais aussi des transferts d’argent entre particuliers. La BCE met également en avant un fonctionnement possible hors connexion internet, avec un niveau de discrétion rapproché de celui du cash.

Pour les commerçants, un autre argument est avancé : les frais. Aujourd’hui, chaque paiement par carte entraîne des commissions. Avec l’euro numérique, ces frais seraient plafonnés à un niveau inférieur à ceux pratiqués par les grands réseaux internationaux. Pour les petits commerces, la source évoque même une facture potentiellement divisée par deux.

Sur le principe, cela peut parler à beaucoup de monde :

  • moins de dépendance à des réseaux de paiement étrangers ;
  • des coûts potentiellement réduits pour certains commerçants ;
  • une infrastructure européenne pour un usage monétaire européen ;
  • une continuité de service pensée même sans connexion.

Dit comme ça, le projet coche beaucoup de cases. Reste évidemment la distance entre la promesse et l’exécution, qui est souvent l’endroit où les beaux discours rencontrent la réalité.

Un projet ambitieux, mais loin d’être gratuit

La source rappelle aussi un point moins vendeur : l’adaptation des systèmes bancaires représenterait entre 4 et 6 milliards d’euros d’investissements sur quatre ans. C’est considérable. Et comme souvent, ce genre de transformation ne consiste pas juste à brancher un nouveau service sur un existant bien propre. Il faut intégrer, sécuriser, superviser, faire cohabiter l’ancien et le nouveau, former, tester, auditer.

Autrement dit, le vrai sujet n’est pas seulement de savoir si l’euro numérique est pertinent en théorie. Il est aussi de savoir si l’écosystème bancaire européen est prêt à absorber l’effort technique et financier nécessaire. On parle d’un chantier de fond, pas d’une simple mise à jour logicielle.

Le lancement évoqué pour 2029 montre d’ailleurs que personne n’imagine une bascule rapide. Et c’est probablement une bonne chose. Sur ce type de sujet, aller trop vite serait une erreur.

Une bonne nouvelle, mais pas encore une victoire

Il y a malgré tout une tentation classique : voir dans cette annonce une preuve que la souveraineté numérique européenne est enfin gagnée. Ce serait aller un peu vite. Le choix d’OVHcloud est un signal fort, oui. C’est cohérent avec le discours européen sur l’autonomie stratégique, oui. Mais cela ne règle pas à lui seul toutes les questions autour du projet.

Il reste au moins trois niveaux de prudence à garder en tête. D’abord, le cadre législatif doit encore être adopté. Ensuite, un projet de paiement à l’échelle européenne se juge sur sa robustesse, sa simplicité d’usage et sa confiance perçue par le public. Enfin, la souveraineté ne se décrète pas uniquement parce que les serveurs sont en Europe : elle se construit aussi dans les logiciels, les standards, la gouvernance et la capacité à durer.

Mais pour une fois, on peut au moins dire qu’il y a une forme d’alignement entre le discours et le choix technique. Et dans le numérique européen, ce n’est déjà pas si fréquent.

Ce qu’il faut retenir

L’annonce autour d’OVHcloud et de l’euro numérique ne signifie pas que tout est bouclé. En revanche, elle montre que la BCE avance concrètement, et que la question de l’infrastructure souveraine n’est plus traitée comme un simple argument marketing.

Si le projet aboutit, il pourrait modifier en profondeur la manière dont l’Europe pense ses paiements numériques. Pas en remplaçant du jour au lendemain tous les usages existants, mais en créant une alternative plus directement maîtrisée sur le continent. Et dans le contexte actuel, ce n’est pas un détail, c’est probablement le cœur du sujet.

Source : https://www.clubic.com/actualite-605296-le-francais-ovhcloud-choisi-par-la-bce-pour-fournir-l-infrastructure-souveraine-cloud-de-l-euro-numerique.html

Le coût de la Suite numérique de l’État

La Suite numérique de l’État fait parler d’elle, souvent avec des critiques très tranchées. Trop chère pour certains, pas assez ambitieuse pour d’autres, utile mais encore incomplète pour beaucoup. Comme souvent sur le numérique public, le débat mélange technique, politique, usages et symboles. Le plus utile est donc de revenir aux faits, puis d’essayer de comprendre ce que ce projet dit vraiment de la stratégie numérique de l’État.

À ce stade, on peut déjà retenir une chose simple : il ne s’agit pas seulement d’une collection d’outils, mais d’une tentative de doter les agents publics d’un environnement de travail plus cohérent, fondé sur des logiciels libres et sur une maîtrise plus forte des données.

La Suite numérique de l’État, c’est quoi exactement ?

La Suite numérique de l’État est portée par la DINUM, la direction interministérielle du numérique. Son objectif est de proposer aux agents publics une série d’outils collaboratifs couvrant les usages les plus courants du travail quotidien.

D’après les éléments disponibles, cet ensemble comprend notamment :

  • Tchap, une messagerie instantanée reposant sur Matrix ;
  • Visio, pour la visioconférence ;
  • France Transfert, pour l’envoi de fichiers volumineux ;
  • Messagerie, pour les mails, contacts et rendez-vous ;
  • Fichiers, pour le stockage et le partage ;
  • Docs et Grist, pour l’édition collaborative et la gestion de données ;
  • un assistant IA présenté comme basé sur Mistral.

Le point important est que ces briques s’inscrivent dans une logique de logiciels libres. Cela ne signifie pas que tout est simple, parfait ou immédiatement interchangeable avec les suites des grands acteurs privés. En revanche, cela indique une orientation claire : réduire certaines dépendances technologiques et mieux contrôler les infrastructures et les données utilisées par l’administration.

Pourquoi ce projet suscite autant de débats ?

Le débat autour de la Suite numérique de l’État ne porte pas uniquement sur les fonctionnalités. Il touche à une question plus large : comment un État doit-il investir dans le numérique ? Faut-il acheter des solutions déjà dominantes sur le marché, quitte à renforcer la dépendance à quelques grands fournisseurs ? Ou faut-il financer des communs numériques, plus lents à construire mais potentiellement plus durables et plus cohérents avec l’intérêt général ?

Certaines critiques passent à côté de l’enjeu principal : construire des alternatives publiques et libres ne peut pas être jugé uniquement avec les réflexes habituels du marché privé, où l’on compare un coût immédiat à un service déjà industrialisé à très grande échelle.

Autrement dit, si l’on attend d’un projet public libre qu’il rivalise instantanément avec les plateformes les plus puissantes du marché, on risque de conclure trop vite à l’échec. La question pertinente est aussi celle de la capacité collective que l’on construit : maîtrise technique, réutilisation, interopérabilité, souveraineté sur les données et possibilité d’amélioration continue.

Le sujet du coût : ce que l’on peut dire prudemment

Le coût est évidemment au centre des discussions. D’après la contrainte fournie ici, la suite numérique a un coût d’un peu moins de 15 M€ pour une utilisation en moyenne par moins de 200 000 agents, soit environ 75 € par agent et par an. Présenté ainsi, le chiffre peut sembler élevé ou au contraire raisonnable selon le point de comparaison choisi.

Il faut donc éviter deux excès. Le premier serait de dire que ce montant prouve à lui seul un gaspillage. Le second serait d’affirmer qu’il valide automatiquement la stratégie. Un coût unitaire n’a de sens qu’en tenant compte de plusieurs éléments : le périmètre exact des services, le niveau de sécurité attendu, les coûts d’hébergement, de maintenance, d’intégration, d’accompagnement et la capacité du projet à produire des briques réutilisables ailleurs.

Le rapport de la Cour des comptes cité parmi les sources rappelle plus largement que le pilotage de la transformation numérique de l’État est un sujet complexe. Cela invite à une lecture prudente : un chiffre isolé éclaire une partie du problème, mais ne suffit pas à résumer la valeur d’une politique publique numérique.

Coût estimé de la Suite numérique de l’État par agent et par an
Coût estimé de la Suite numérique de l’État par agent et par an

Au-delà du prix, la vraie question est celle des communs

Le point le plus intéressant est sans doute là. L’alternative aux grandes plateformes ne viendrait pas d’un simple « champion européen » copiant les logiques des Big Tech à une autre échelle. Elle viendrait plutôt des communs numériques : logiciels libres, infrastructures interopérables, gouvernance partagée, ancrage dans l’intérêt général.

Cette idée change la manière d’évaluer la Suite numérique de l’État. Si l’on raisonne uniquement en produit fini, on regardera surtout les manques, les retards ou l’adoption encore limitée. Si l’on raisonne en communs, on regarde aussi autre chose :

  • la réutilisabilité du code ;
  • la réduction des dépendances ;
  • la transparence technique ;
  • la possibilité de mutualiser entre administrations ;
  • la contribution à un écosystème libre plus large.

Ce n’est pas une garantie de succès. C’est simplement une autre grille de lecture, probablement plus adaptée à un projet public de cette nature.

Pourquoi l’adoption reste un enjeu central

Même avec une bonne intention politique, un outil ne vaut que s’il est utilisé. Or les sources évoquent une utilisation moyenne par moins de 200 000 agents, ce qui montre qu’on reste loin d’une généralisation à l’ensemble de la fonction publique. Cela pose une question très concrète : comment faire adopter une suite publique quand les habitudes, les outils existants et les contraintes de terrain sont déjà très installés ?

Dans ce type de projet, la difficulté n’est pas seulement de développer des services. Il faut aussi convaincre, former, intégrer aux pratiques réelles, garantir la fiabilité et éviter que l’outil public soit perçu comme une solution imposée mais moins pratique. C’est souvent là que se joue la réussite.

En clair, la Suite numérique de l’État ne peut pas être évaluée uniquement sur son intention politique. Elle doit aussi démontrer sa qualité d’usage. Sur ce point, la critique reste légitime : un commun numérique utile doit être non seulement libre, mais aussi pratique.

Ce qu’il faut retenir

La Suite numérique de l’État est à la fois un projet d’outillage administratif et un révélateur d’un débat plus profond sur le numérique public. Oui, son coût interroge. Oui, son niveau d’adoption reste un sujet. Mais non, on ne peut pas résumer le dossier à une simple dépense par agent ou à une opposition caricaturale entre efficacité et logiciel libre.

Le vrai sujet est peut-être plus ambitieux : savoir si l’État veut seulement consommer des solutions numériques, ou aussi contribuer à construire des communs sur lesquels il garde une prise. C’est plus long, plus difficile, parfois plus ingrat. Mais c’est probablement là que se joue une part importante de la crédibilité d’une politique numérique publique.

Et comme souvent en informatique, tout l’enjeu n’est pas seulement d’avoir un outil. C’est de savoir dans quelle dépendance on entre en l’utilisant.

Sources :

Arrêtez de dire bonjour !

Le travail à distance a beau être entré dans les habitudes, on continue de voir passer les mêmes défauts de communication. Et le problème n’est pas seulement une question de politesse ou de confort : ce sont souvent de petites habitudes qui cassent la concentration, ralentissent les réponses et rendent les échanges inutilement pénibles. Trois travers très courants : le simple « bonjour » sans contexte, la demande d’« appel rapide » et la réunion sans ordre du jour. Dit comme ça, cela peut sembler anodin. En pratique, ça ne l’est pas du tout.

Ce que j’aime bien dans ce rappel, c’est qu’il ne demande pas de révolution. Il demande surtout un peu d’effort, de clarté, et une meilleure compréhension de ce qu’est vraiment une communication asynchrone.

Travail à distance : le piège du simple « bonjour »

Le premier cas est probablement le plus fréquent. Vous recevez un message : « Bonjour ». Puis plus rien. Il faut répondre pour découvrir enfin la question. C’est précisément ce que critique le site nohello, cité dans la source : dans un chat, écrire seulement « salut » revient un peu à appeler quelqu’un, dire bonjour, puis le mettre en attente.

Le souci n’est pas la politesse. Personne ne reproche à quelqu’un d’être courtois. Le souci, c’est de bloquer l’échange en deux temps alors qu’il pourrait être traité en un seul. Si la question est posée immédiatement, l’autre personne peut lire, réfléchir et répondre quand elle est disponible. Si elle ne voit qu’un « bonjour », elle ne peut rien faire d’utile avec cette information.

Dans le travail à distance, cette différence est importante, car tout ne se passe pas en temps réel. On n’est pas forcément devant son écran, on est peut-être concentré sur une tâche, en réunion, ou simplement occupé. Un message complet permet une réponse asynchrone. Un message vide de contexte crée juste une attente supplémentaire.

Ce qu’il vaut mieux faire

Le plus simple est de garder la politesse, mais d’ajouter tout de suite le besoin. Par exemple :

  • Bonjour, tu sais à quelle heure commence la démo ?
  • Salut, j’ai une question sur le ticket 248 : tu confirmes que le correctif part aujourd’hui ?
  • Bonjour, quand tu as un moment, peux-tu me dire où se trouve la dernière version du document ?

On reste aimable, mais on évite de faire perdre du temps à tout le monde. Et surtout, on augmente les chances d’obtenir une réponse plus vite.

Le faux bon plan de « l’appel rapide »

Deuxième mauvaise habitude : demander un « appel rapide » sans expliquer le sujet. Là encore, sur le papier, cela peut sembler efficace. En réalité, cela transfère l’effort sur l’autre. C’est à lui d’interrompre ce qu’il fait, de se rendre disponible, puis de découvrir seulement ensuite ce dont il s’agit.

Le problème n’est pas l’appel en lui-même. Un appel peut être utile, parfois même nécessaire. Le problème, c’est l’absence de contexte. Dans beaucoup de cas, une question bien formulée dans un message suffit. Et si un échange oral est vraiment préférable, il est raisonnable d’indiquer pourquoi.

Dans le travail à distance, chaque interruption a un coût. Reprendre le fil après avoir été coupé n’est pas instantané, surtout pour des tâches techniques, rédactionnelles ou d’analyse. Le « tu as 5 minutes ? » est rarement neutre. Il peut désorganiser bien plus que ce qu’on imagine.

Une meilleure formulation serait par exemple :

  • J’ai besoin de 10 minutes pour valider l’approche sur le déploiement, car c’est difficile à expliquer par écrit. Es-tu disponible cet après-midi ?
  • J’ai un blocage sur tel sujet. Voici le contexte. Si tu préfères, on peut faire un point rapide.
  • Je t’envoie les éléments ici, et on se cale un appel seulement si nécessaire.

Autrement dit : on commence par cadrer. Ensuite seulement, on choisit le bon format.

Les réunions sans ordre du jour sont rarement une bonne idée

Troisième travers : les réunions sans description ni ordre du jour. Là encore, c’est extrêmement courant. On reçoit une invitation, parfois avec un titre flou, sans savoir ce qu’il faut préparer, pourquoi on est convié, ni quelle décision doit être prise.

Le résultat est presque toujours le même : des gens arrivent sans contexte, la réunion démarre lentement, le sujet se cherche, puis s’étire. Et à la fin, on ne sait pas toujours ce qui a été décidé ni qui fait quoi.

Une réunion utile devrait au minimum préciser :

  1. le sujet exact ;
  2. l’objectif de la réunion ;
  3. les personnes réellement nécessaires ;
  4. les éléments à lire ou préparer avant ;
  5. le résultat attendu : décision, arbitrage, partage d’information, plan d’action.

Cela peut paraître basique, mais c’est justement ce qui manque souvent. Une réunion sans ordre du jour, c’est un peu comme convoquer des gens dans une salle en disant « on verra bien ». Dans une équipe distribuée, c’est encore plus coûteux, car chacun protège son temps et son attention comme il peut.

Ce que ces erreurs disent de nos habitudes

Au fond, ces trois erreurs ont un point commun : elles privilégient la commodité de l’émetteur au détriment du temps du destinataire. Envoyer « bonjour », demander un appel immédiat, lancer une réunion floue, c’est souvent plus simple sur le moment pour celui qui initie l’échange. Mais cela reporte la charge mentale sur les autres.

Je trouve le rappel utile parce qu’il remet un peu de discipline dans des usages numériques que beaucoup considèrent comme anodins. Or ils ne le sont pas. Dans une organisation où tout le monde interrompt tout le monde, on finit par travailler moins bien, répondre moins vite, et s’épuiser davantage.

Le bon réflexe est assez simple : donner du contexte, formuler clairement la demande, et choisir le canal adapté. Ce n’est pas froid, ce n’est pas brutal, et ce n’est pas impoli. C’est au contraire une forme de respect du temps et de l’attention des autres.

Mieux communiquer à distance, sans se compliquer la vie

Si l’on veut améliorer le travail à distance, il n’y a pas forcément besoin d’outils supplémentaires. Il faut déjà mieux utiliser ceux qu’on a. Un message complet, un appel justifié, une réunion préparée : cela change énormément la qualité de collaboration.

On gagnerait sans doute tous à adopter cette règle simple : avant d’envoyer un message ou une invitation, se demander si l’autre personne aura assez d’éléments pour comprendre, répondre, ou se préparer sans devoir vous relancer. Si la réponse est non, il manque probablement quelque chose.

Et finalement, c’est peut-être ça le vrai sujet : à distance, bien communiquer demande un peu plus d’intention. Mais ce petit effort évite beaucoup de perte de temps ensuite.

Sources :

Spotify sort le Mode Exclusif pour un audio parfait

Spotify Windows mode exclusif : voilà une nouveauté qui peut intéresser ceux qui écoutent vraiment la musique, et pas seulement un fond sonore. Spotify déploie en effet sur Windows un Mode Exclusif qui vise une lecture audio plus fidèle, en bit-perfect.

L’idée est simple : laisser Spotify prendre la main sur la sortie audio pour éviter que Windows ne modifie le signal avant qu’il n’arrive au DAC ou à l’interface audio. Sur le papier, c’est une vraie bonne nouvelle pour les oreilles un peu exigeantes.

Spotify Windows mode exclusif : ce que ça change

Le principe du bit-perfect est de transmettre le flux audio sans altération, bit pour bit. Spotify explique que sans ce mode, l’ordinateur peut rééchantillonner le signal, y mélanger des sons système ou encore modifier le volume.

Autrement dit, ce nouveau réglage cherche à réduire les traitements intermédiaires. Si vous avez un bon casque, un DAC ou une interface audio, cela peut avoir du sens. Si vous écoutez sur les haut-parleurs d’un PC portable, le gain sera sans doute plus limité.

Comment l’activer sur Windows

L’option se trouve dans les paramètres de lecture de Spotify, dans la partie Sortie. Spotify recommande aussi d’activer en parallèle l’option Lossless, lancée en septembre 2025, pour profiter de la meilleure qualité disponible.

  • Ouvrir les paramètres de Spotify
  • Aller dans la section Lecture
  • Ouvrir le menu Sortie
  • Activer le Mode Exclusif
  • Activer aussi le Lossless si disponible

Une nouveauté utile, mais pas pour tout le monde

Cette fonction est pour l’instant réservée à Windows et incluse dans l’abonnement Premium. Elle désactive aussi certaines fonctions comme le mixage automatique et le fondu enchaîné. Elle ne concerne pas non plus les podcasts, clips musicaux, extraits de prévisualisation et Canvas.

Bref, Spotify continue d’améliorer sa partie audio. Ce n’est pas une révolution pour tous les usages, mais pour les utilisateurs bien équipés, c’est clairement une option à tester.

Source : https://www.clubic.com/actualite-605062-spotify-activez-cette-fonction-windows-pour-beneficier-d-une-qualite-audio-inegalee.html

DevOps et l’infrastructure as code par l’exemple

L’infrastructure as code fait partie intégrante du DevOps. C’est en approfondissant mes recherches sur ce dernier que je suis tombé sur ce très bon article qui décrit de manière très simple comment décrire son architecture en écrivant ses fichiers de conf.

L’auteur y parle de Terraform, l’outil n°1 pour faire de l’IaC.

J’invite d’ailleurs à parcourir par la suite le reste du blog qui est très bon et très facile à lire sur tout ce qui est dév avec divers conseils ou retours d’expérience.