jeudi 22 janvier 2026
Prompt caching: 10x cheaper LLM tokens, but how? [Romain]
« Une explication claire du mécanisme par lequel il est possible de mettre en cache des prompts lors de l'utilisation d'un LLM. »
bunnie's piggyback hack [Romain]
« La fabrication de matériel libre se heurte souvent à des contraintes d'échelle. Cory Doctorow raconte comment Andrew "bunnie" Huang a su profiter des « chutes » d'autres projets pour rendre viable ce type de réalisation. »
How to : Indenter son source en tabulation ou en espaces [Vincent]
« Faut-il indenter son code avec des espaces ou des tabulations ? Un débat sans fin, mais cette fois, avec un peu de contexte et une conclusion que je vous laisse découvrir. »
'AI' is a dick move, redux [Maxence]
« Message aux développeurs qui utilisent l'IA. »
Open Responses [Romain]
« Une tentative de standardisation des API d'accès aux LLM. »
I decided to make a worse UUID for the pettiest of reasons. [Sébastien]
« Un retour d'expérience amusant d'un dev qui a réécrit son propre UUID... ce qui lui a permis de souligner la pertinence des choix de l'UUID original. »
Pʟᴏᴛʟʏ++ [Sébastien]
« Une bibliothèque C++ header only qui offre une surcouche à plotly. »
Accéder à la liste de tous les billets de veille.