Very proud of our recent work, kudos to the team! Read @davidpicard.bsky.social’s excellent post for more details or the paper arxiv.org/pdf/2502.21318
08.10.2025 21:19 — 👍 2 🔁 3 💬 0 📌 0@davidpicard.bsky.social
Professor of Computer Vision/Machine Learning at Imagine/LIGM, École nationale des Ponts et Chaussées @ecoledesponts.bsky.social Music & overall happiness 🌳🪻 Born well below 350ppm 📍Paris 🔗 https://davidpicard.github.io/
Very proud of our recent work, kudos to the team! Read @davidpicard.bsky.social’s excellent post for more details or the paper arxiv.org/pdf/2502.21318
08.10.2025 21:19 — 👍 2 🔁 3 💬 0 📌 0And of course, all the authors who worked really hard to produce these valuable contributions:
@lucasdegeorge.bsky.social
@arrijitghosh.bsky.social
@nicolasdufour.bsky.social
@vickykalogeiton.bsky.social
Final note: I'm (we're) tempted to organize a challenge on that topic as a workshop at a CV conf. ImageNet is the only source of images allowed and then you compete to get the bold numbers.
Do you think there would be people in for that? Do you think it would make for a nice competition?
The paper has a gigantic number of supmat (owing to its reviewing curse): arxiv.org/abs/2502.21318
It's now 29 pages. All you ever need to know to train your own T2I model and then fine-tune/LoRa it to whatever you need.
We show you don't need to start from SDXL or Flux, you can be much more frugal
We release everything:
The training code: github.com/lucasdegeorg...
The data (captions, cutmix, all): huggingface.co/arijitghosh/...
And even some models (eventually all, once it's user-friendly).
You're 500hrs away from training your T2I model from scratch! Can you wrap your head around that?🤯
But there's more: that checkpoint has all you can expect from a good pretrained model.
We take the checkpoint, upscale it to 1k² and fine-tune it on Laion-POP (400k imgs) for high aesthetics targets.
I would have never bet that you could get those images with ImageNet pretraining + a bit of FT.
We train models at 256² resolution and then finetune at 512² to get competitive results on composition benchmarks.
This show that a rather small model (400M) trained on few but curated data has good understanding and generative capabilities.
Contrarily to popular belief: scale is not required!
To enable training T2I on ImageNet, we:
- augment the entire dataset with rich detailed caption (TA)
- remove the object-centric bias with CutMix augmentations (IA)
Using both augmentations is sufficient to successfully train a model producing the images in the teaser (1 post), using only ImageNet😲
Main motivation:
- T2I research is impossible to reproduce because massive datasets are kept secret and open datasets (LAION) are decaying
- Methods are impossible to compare because of the lack of common data
We proposed a reproducible setup: train on ImageNet! It's affordable and ticks all boxes
🚨Updated: "How far can we go with ImageNet for Text-to-Image generation?"
TL;DR: train a text2image model from scratch on ImageNet only and beat SDXL.
Paper, code, data available! Reproducible science FTW!
🧵👇
📜 arxiv.org/abs/2502.21318
💻 github.com/lucasdegeorg...
💽 huggingface.co/arijitghosh/...
Tu sais, nous on est en train de changer de logiciel de RH¹ et je ne serais pas surpris que certains ne soient pas payés à cause de problème de bascule. Les outils numériques sont toujours la cata.
¹On va utiliser RenoiRH. Oui, tu as bien lu. Et personne n'a tiqué sur le nom lors du développement.
To paraphrase Douglas Adams, the US had always considered it was vastly superior the EU because it had generated billionnaires like Sam Altman, Elon Musk or Marc Andreessen, and the EU had not.
An the EU considered it was vastly superior to the US for exactly the same reason.
Ce qui en soit n'a pas l'air trop difficile à trouver.
08.10.2025 19:41 — 👍 0 🔁 0 💬 0 📌 0Oui, pareil ! Franchement, j'étais pas emballé au départ, mais la différence avec la MGEN est le jour et la nuit. Je ne sais pas combien de temps ça va durer, mais c'est très appréciable.
08.10.2025 19:29 — 👍 0 🔁 0 💬 1 📌 0à 3 euros près, ce sera le maximum de toute façon.
08.10.2025 19:21 — 👍 1 🔁 0 💬 1 📌 0#Distinction 🏆| Charlotte Pelletier, lauréate d'une chaire #IUF, développe des méthodes d’intelligence artificielle appliquées aux séries temporelles d’images satellitaires.
➡️ www.ins2i.cnrs.fr/fr/cnrsinfo/...
🤝 @irisa-lab.bsky.social @cnrs-bretagneloire.bsky.social
C'est l'automne 🍂🍁🍄
08.10.2025 07:34 — 👍 18 🔁 1 💬 0 📌 0Il y a cent ans, entre fin septembre et début octobre 1925, la barbarie fasciste tombait méthodiquement sur Florence, tuait, brûlait et bastonnait pour "purifier" dans sa "Sainte violence" anti-maçonnique l'Italie d'une part de son heritage vivant des Lumières.
agone.org/les-crimes-f...
Ce simulateur de coalition est hyper intéressant. Ça permet de comprendre qu'en France, on aime pas les compromis menant à des coalitions.
datan.fr/outils/coali...
« This blocks the required majority in the EU Council, derailing the plan to pass the surveillance law next week ».
www.patrick-breyer.de/en/citizen-p...
High dimensional wolves or low dimensional wolves? That changes quite a lot what I think.
07.10.2025 20:05 — 👍 0 🔁 0 💬 1 📌 0That's the best way of catching a pneumonia. Not sure I would call that fun. 🥶
07.10.2025 20:01 — 👍 1 🔁 0 💬 1 📌 0If you were to make the most potent and addictive drug ever, how would you know? Because if you test it on yourself...😅
07.10.2025 17:26 — 👍 0 🔁 0 💬 0 📌 0Imaginez que le gouvernement décide d'imposer à La Poste d'ouvrir tout le courrier envoyé par les Français, pour vérifier qu'il n'y ait pas de contenu pédocriminel.
C'est pourtant ce que 🇪🇺 s'apprête potentiellement à faire, en disant "mais ne vous inquiétez pas on refermera juste après".
Another great event for @valeoai.bsky.social team: a PhD defense of Corentin Sautier.
His thesis «Learning Actionable LiDAR Representations w/o Annotations» covers the papers BEVContrast (learning self-sup LiDAR features), SLidR, ScaLR (distillation), UNIT and Alpine (solving tasks w/o labels).
Nobel Prize in Physics awarded to researchers who have nothing to do with CS? Heresy!
07.10.2025 10:40 — 👍 4 🔁 1 💬 0 📌 0Seulement 59% ? J'imagine que la répartition géographique et thématique est loin d'être uniforme cela dit. Je vois bien quelques facs où ça doit être 95+%.
07.10.2025 09:50 — 👍 2 🔁 0 💬 1 📌 0Ça dépend si vous voulez avoir votre budget ou pas. Un certain nombre de lettres d'engagement doivent être signées par le/la ministre (Nicolas, corrige moi si je me trompe), ce qui quand l'emploi du temps est surchargé veut dire retard de disponibilité des crédits...
07.10.2025 08:46 — 👍 1 🔁 0 💬 1 📌 0C'est bien ce que je craignais. Vu la charge de travail que représente déjà l'EN, on a plus vraiment de ministre. En tout cas, plus vraiment de "temps de ministre disponible"... Super.
07.10.2025 08:28 — 👍 0 🔁 0 💬 1 📌 0One of the lessons of the 2008 crisis should have been: "if you're too big to fail, you should be too big to exist".
06.10.2025 19:07 — 👍 38 🔁 6 💬 1 📌 0