same problem here :(
12.11.2025 19:15 — 👍 1 🔁 0 💬 0 📌 0@adrienbufort.bsky.social
Data Scientist at Orange Like matching flow models Elden rings player
same problem here :(
12.11.2025 19:15 — 👍 1 🔁 0 💬 0 📌 0Trois ans après l’invasion de l’Ukraine, et une énorme vague de viols, enlèvements, tortures et meurtres de civils qui se poursuivent encore chaque jours, ce genre d’annonces de demi-mesures timorées ne fait que montrer l’incompétence et la lâcheté des dirigeants européens face à Poutine.
07.11.2025 12:36 — 👍 151 🔁 61 💬 3 📌 2I have my doubts ... I am a dev and i use for 10€ per month on openrouter for my needs ... If anthropic plan to have 70b of revenu it means that there will be 580m people like me ... There is not that many dev in the world
05.11.2025 13:33 — 👍 1 🔁 0 💬 2 📌 0This is so sad to see france last on self reported science engagement ... But it matches my experiences
03.11.2025 21:50 — 👍 1 🔁 0 💬 0 📌 0je ne veux pas paraître rabat joie mais des papiers qui déclarent comme améliorer d'un facteur 100 des perfs sur un benchmark c'est douteux ... ça me rappelle le papier précédant (Hierarchical Reasoning Model) où l'on s'était aperçu que toutes les perfs venaient de la pipeline data/training
13.10.2025 21:47 — 👍 0 🔁 0 💬 1 📌 0(pour l'année 2024)
09.10.2025 21:22 — 👍 0 🔁 0 💬 0 📌 0la partie du monde qui se réchauffe le plus rapidement semble être le Québec :(
09.10.2025 21:12 — 👍 2 🔁 1 💬 2 📌 0it seems surprising ... on one note time continual learning would seems more appropriate that extending the context window. But the continual training is costier (you need training for each new base mldel) and harder (you probably need some ML engineer / AI engineer to create the dataset).
06.10.2025 06:42 — 👍 0 🔁 0 💬 0 📌 0i wonder how those models behave when finetune (compare to auto regressive one)
30.09.2025 13:55 — 👍 1 🔁 0 💬 0 📌 0Dans l'article de nvidia les tests sont fait sur mistral 8x7B sur 2h100. J'ai extrapolé les perfs sur qwen 3 openrouter.ai/qwen/qwen3-2... (même perfs mais sur 8H100) parce que qwen est vraiment "état de l'art"
28.09.2025 07:11 — 👍 0 🔁 0 💬 1 📌 0Le mieux étant de faire les tests soit même mais j'ai trouvé ça : www.baseten.co/blog/high-pe... (mais les tests sont fait sur des h100 l'ancienne génération )
28.09.2025 07:05 — 👍 0 🔁 0 💬 1 📌 0Je vous retrouve ça
28.09.2025 06:51 — 👍 1 🔁 0 💬 1 📌 0What were the relevant 20% ?
24.09.2025 19:39 — 👍 0 🔁 0 💬 1 📌 0Et en 2025, avec la Blackwell (successeur H100), l'efficacité énergétique grimpe encore de 2-3x, rendant ça encore plus marginal. epoch.ai/gradient-upd...
24.09.2025 13:22 — 👍 1 🔁 0 💬 1 📌 0les coûts énergétiques de l'inférence sont faibles en comparaison des coûts de capex. Un H100 consomme ~700 W (1500W en comptant les autres élements info). Avec un prix électricité moyen de 0,20 €/kWh, ça fait du 50k euros sur 3 ans pour mes 8 GPUs.
24.09.2025 13:22 — 👍 0 🔁 0 💬 1 📌 0erratum : "ça fait que en 3 ans de vie 8 GPUs" : le calcul est fait pour les 8 GPUs
24.09.2025 09:09 — 👍 0 🔁 0 💬 1 📌 0entre les coûts énergétiques, les optimisations des providers et le facteur de charge, mon hypothèse c'est que tout ce monde s'y retrouve.
24.09.2025 09:04 — 👍 0 🔁 0 💬 0 📌 0developer.nvidia.com/blog/achievi... ça fait que en 3 ans de vie un GPU aura fourni 1.2 e12 token. Ca fait 7 millions de token par euros (0.14 euros le millions de token soit 6 fois moins cher que le prix du marché openrouter.ai/qwen/qwen3-v...).
24.09.2025 09:03 — 👍 0 🔁 0 💬 3 📌 0quand je fais un calcul d'ordre de grandeur, je ne trouve pas des prix décorrélés des coûts de production. Une GPUs H100 coûte 25k euros (nvidia se fait plein une grosse marge). 8 des ces GPUs peuvent servir des modèles "état de l'art" à 15000 tokens par seconde sur des modèles "état de l'art".
24.09.2025 08:57 — 👍 1 🔁 0 💬 1 📌 0c'est "self reported" c'est à dire qu'ils prennent les chiffres des boîtes qui publient les modèles
23.09.2025 19:45 — 👍 0 🔁 0 💬 0 📌 0"Artificial Analysis Intelligence Index: Combination metric [...] the simplest way to compare how smart models are. [...] includes: MMLU-Pro, GPQA Diamond, Humanity's Last Exam, LiveCodeBench, SciCode, AIME 2025, IFBench, AA-LCR, Terminal-Bench Hard, 𝜏²-Bench Telecom"
23.09.2025 19:44 — 👍 0 🔁 0 💬 1 📌 0ça vient de artificialanalysis.ai qui est une boîte qui benchmark les gros modèles. Le graphe montre qu'à "iso performance" (intelligence index) les prix baissent
23.09.2025 19:42 — 👍 1 🔁 0 💬 1 📌 0La France est la cible prioritaire des actions informationnelles russes en Europe.
Et pour lutter contre ces tentatives de déstabilisation politique, il ne faut pas seulement couper les accès mais agir sur les causes de ce ciblage...
Sinon, en 2027, on aura un(e) Trumpiste à l'Elysée...
j'étais dans une boîte de conseil (MP data) et l'idée était la même : on obtenait le CIR (alors qu'on était des consultants) pour le projet sur lequel je travaillais et on essayait de le renouveler chaque année. Mon avis est que ce genre de pratique est malheureusement monnaie courante.
20.09.2025 07:36 — 👍 1 🔁 0 💬 1 📌 0Je suis d'accord que la multiplicité des usages implique une analyse plus fine (les devs informatiques peuvent consommer jusqu'à 200e par mois en LLM).
17.09.2025 17:38 — 👍 1 🔁 0 💬 0 📌 0Ça fait un maximum théorique de 2.5 millions de requêtes par jour pour une seule de ces machines. On est déjà avec des ordres de grandeurs qui penche pour une consommation raisonnable de l'ai (surtout au vu des améliorations software et hardware qui viennent).
17.09.2025 16:57 — 👍 1 🔁 0 💬 1 📌 0De l'ordre de 15000 token par seconde (je fais des produits en croix par rapport à developer.nvidia.com/blog/achievi...). Une réponse pour un écolier / user normal c'est 400 token. Ça fait 30 requêtes par seconde (approx).
17.09.2025 16:56 — 👍 0 🔁 0 💬 1 📌 0En fait c'est des calculs qui font fuir les lecteurs mais je peux faire les calculs pour toi : pour une machine dans le cloud (avec 8 gpu H100) un modèle (qui a une taille raisonnable pour être considérer comme "state of the art" comme qwen (Qwen/Qwen3-235B-A22B-Instruct-2507-FP8)) aura un output de
17.09.2025 16:54 — 👍 1 🔁 0 💬 1 📌 0That's why open source matter so much. The fact that private pharma companies control so much of the day to day med tools (today drugs, tomorrow llm) is problematic because they dont have the well being of patient as they first inventive.
04.09.2025 17:25 — 👍 1 🔁 0 💬 0 📌 0