jeudi 22 janvier 2026
- Prompt caching: 10x cheaper LLM tokens, but how? [Romain]
- « Une explication claire du mécanisme par lequel il est possible de mettre en cache des prompts lors de l'utilisation d'un LLM. »
- bunnie's piggyback hack [Romain]
- « La fabrication de matériel libre se heurte souvent à des contraintes d'échelle. Cory Doctorow raconte comment Andrew "bunnie" Huang a su profiter des « chutes » d'autres projets pour rendre viable ce type de réalisation. »
- How to : Indenter son source en tabulation ou en espaces [Vincent]
- « Faut-il indenter son code avec des espaces ou des tabulations ? Un débat sans fin, mais cette fois, avec un peu de contexte et une conclusion que je vous laisse découvrir. »
- 'AI' is a dick move, redux [Maxence]
- « Message aux développeurs qui utilisent l'IA. »
- Open Responses [Romain]
- « Une tentative de standardisation des API d'accès aux LLM. »
- I decided to make a worse UUID for the pettiest of reasons. [Sébastien]
- « Un retour d'expérience amusant d'un dev qui a réécrit son propre UUID... ce qui lui a permis de souligner la pertinence des choix de l'UUID original. »
- Pʟᴏᴛʟʏ++ [Sébastien]
- « Une bibliothèque C++ header only qui offre une surcouche à plotly. »
Accéder à la
liste de tous les billets de veille.