Paper's Avatar

Paper

@paper.bsky.social

Summarize the top 30 most popular arXiv papers on Reddit, Hacker News and Hugging Face in the last 30 days. Source: https://github.com/susumuota/arxiv-reddit-summary Maintained by @ota.bsky.social

1,212 Followers  |  0 Following  |  9,642 Posts  |  Joined: 11.04.2023  |  2.2224

Latest posts by paper.bsky.social on Bluesky

1/30 https://arxiv.org/abs/2602.03229
2/30 https://arxiv.org/abs/2601.20245
3/30 https://arxiv.org/abs/2601.07222
4/30 https://arxiv.org/abs/2601.07708
5/30 https://arxiv.org/abs/2602.00773
6/30 https://arxiv.org/abs/2601.15621
7/30 https://arxiv.org/abs/2601.18401
8/30 https://arxiv.org/abs/2601.15494
9/30 https://arxiv.org/abs/2601.16983
10/30 https://arxiv.org/abs/2602.00919
11/30 https://arxiv.org/abs/2602.02276
12/30 https://arxiv.org/abs/2602.04705
13/30 https://arxiv.org/abs/2601.09012
14/30 https://arxiv.org/abs/2601.06943
15/30 https://arxiv.org/abs/2601.09668
16/30 https://arxiv.org/abs/2602.03716
17/30 https://arxiv.org/abs/2601.06521
18/30 https://arxiv.org/abs/2601.12538
19/30 https://arxiv.org/abs/2601.10825
20/30 https://arxiv.org/abs/2601.23265
21/30 https://arxiv.org/abs/2601.17058
22/30 https://arxiv.org/abs/2602.05192
23/30 https://arxiv.org/abs/2601.16725
24/30 https://arxiv.org/abs/2601.10387
25/30 https://arxiv.org/abs/2601.20833
26/30 https://arxiv.org/abs/2602.00294
27/30 https://arxiv.org/abs/2601.10477
28/30 https://arxiv.org/abs/2602.02084
29/30 https://arxiv.org/abs/2601.08521
30/30 https://arxiv.org/abs/2601.22060

1/30 https://arxiv.org/abs/2602.03229 2/30 https://arxiv.org/abs/2601.20245 3/30 https://arxiv.org/abs/2601.07222 4/30 https://arxiv.org/abs/2601.07708 5/30 https://arxiv.org/abs/2602.00773 6/30 https://arxiv.org/abs/2601.15621 7/30 https://arxiv.org/abs/2601.18401 8/30 https://arxiv.org/abs/2601.15494 9/30 https://arxiv.org/abs/2601.16983 10/30 https://arxiv.org/abs/2602.00919 11/30 https://arxiv.org/abs/2602.02276 12/30 https://arxiv.org/abs/2602.04705 13/30 https://arxiv.org/abs/2601.09012 14/30 https://arxiv.org/abs/2601.06943 15/30 https://arxiv.org/abs/2601.09668 16/30 https://arxiv.org/abs/2602.03716 17/30 https://arxiv.org/abs/2601.06521 18/30 https://arxiv.org/abs/2601.12538 19/30 https://arxiv.org/abs/2601.10825 20/30 https://arxiv.org/abs/2601.23265 21/30 https://arxiv.org/abs/2601.17058 22/30 https://arxiv.org/abs/2602.05192 23/30 https://arxiv.org/abs/2601.16725 24/30 https://arxiv.org/abs/2601.10387 25/30 https://arxiv.org/abs/2601.20833 26/30 https://arxiv.org/abs/2602.00294 27/30 https://arxiv.org/abs/2601.10477 28/30 https://arxiv.org/abs/2602.02084 29/30 https://arxiv.org/abs/2601.08521 30/30 https://arxiv.org/abs/2601.22060

Top 30 most popular arXiv papers in the last 30 days.
[1/30] [2/30] [3/30] [4/30] [5/30] [6/30] [7/30] [8/30] [9/30] [10/30] [11/30] [12/30] [13/30] [14/30] [15/30] [16/30] [17/30] [18/30] [19/30] [20/30] [21/30] [22/30] [23/30] [24/30] [25/30] [26/30] [27/30] [28/30] [29/30] [30/30]

09.02.2026 00:07 — 👍 0    🔁 0    💬 0    📌 0
珟圚のAIシステムが研究レベルの数孊的質問に正しく回答する胜力を評䟡するため、著者らの研究過皋で自然に生じた10の数孊的質問を共有する。

質問はこれたで公に共有されおいなかった。回答は質問の䜜成者には知られおいるが、しばらくの間暗号化されたたたずなる。

珟圚のAIシステムが研究レベルの数孊的質問に正しく回答する胜力を評䟡するため、著者らの研究過皋で自然に生じた10の数孊的質問を共有する。 質問はこれたで公に共有されおいなかった。回答は質問の䜜成者には知られおいるが、しばらくの間暗号化されたたたずなる。

2602.05192
珟圚のAIシステムが研究レベルの数孊的質問に正しく回答する胜力を評䟡するため、著者らの研究過皋で自然に生じた10の数孊的質問を共有する。質問はこれたで公に共有されおいなかった。回答は質問の䜜成者には知られおいるが、しばらくの間暗号化されたたたずなる。

09.02.2026 00:07 — 👍 0    🔁 0    💬 0    📌 0
Preview
First Proof To assess the ability of current AI systems to correctly answer research-level mathematics questions, we share a set of ten math questions which have arisen naturally in the research process of the au...

Links: abs, pdf
Search: Bluesky, Twitter, Reddit, Hacker News, Hugging Face, alphaXiv

09.02.2026 00:06 — 👍 0    🔁 0    💬 1    📌 0
First Proof | Hacker News

(2/2) 2 Likes, 2 Comments, 06 Feb 2026, Hacker News

09.02.2026 00:06 — 👍 0    🔁 0    💬 1    📌 0
First Proof | Hacker News

(1/2) 178 Likes, 110 Comments, 07 Feb 2026, Hacker News

09.02.2026 00:06 — 👍 0    🔁 0    💬 1    📌 0
To assess the ability of current AI systems to correctly answer research-level mathematics questions, we share a set of ten math questions which have arisen naturally in the research process of the authors. 

The questions had not been shared publicly until now; the answers are known to the authors of the questions but will remain encrypted for a short time.

To assess the ability of current AI systems to correctly answer research-level mathematics questions, we share a set of ten math questions which have arisen naturally in the research process of the authors. The questions had not been shared publicly until now; the answers are known to the authors of the questions but will remain encrypted for a short time.

[22/30] 180 Likes, 112 Comments, 2 Posts
2602.05192, cs AI | math AG | math CO | math GT | math HO | math RA, 05 Feb 2026

🆕First Proof

Mohammed Abouzaid, Andrew J. Blumberg, Martin Hairer, Joe Kileel, Tamara G. Kolda, Paul D. Nelson, Daniel Spielman, Nikhil Srivastava, Rachel Ward, Shmue...

09.02.2026 00:06 — 👍 0    🔁 1    💬 1    📌 0
1/30 https://arxiv.org/abs/2602.03229
2/30 https://arxiv.org/abs/2601.20245
3/30 https://arxiv.org/abs/2601.07222
4/30 https://arxiv.org/abs/2601.07708
5/30 https://arxiv.org/abs/2602.00773
6/30 https://arxiv.org/abs/2601.15621
7/30 https://arxiv.org/abs/2601.18401
8/30 https://arxiv.org/abs/2601.15494
9/30 https://arxiv.org/abs/2601.16983
10/30 https://arxiv.org/abs/2602.02276
11/30 https://arxiv.org/abs/2602.00919
12/30 https://arxiv.org/abs/2602.04705
13/30 https://arxiv.org/abs/2601.09012
14/30 https://arxiv.org/abs/2601.06943
15/30 https://arxiv.org/abs/2601.09668
16/30 https://arxiv.org/abs/2602.03716
17/30 https://arxiv.org/abs/2601.12538
18/30 https://arxiv.org/abs/2601.06521
19/30 https://arxiv.org/abs/2601.10825
20/30 https://arxiv.org/abs/2601.17058
21/30 https://arxiv.org/abs/2601.10387
22/30 https://arxiv.org/abs/2601.16725
23/30 https://arxiv.org/abs/2601.20833
24/30 https://arxiv.org/abs/2602.00294
25/30 https://arxiv.org/abs/2601.10477
26/30 https://arxiv.org/abs/2602.02084
27/30 https://arxiv.org/abs/2601.08521
28/30 https://arxiv.org/abs/2601.22060
29/30 https://arxiv.org/abs/2601.08763
30/30 https://arxiv.org/abs/2601.23265

1/30 https://arxiv.org/abs/2602.03229 2/30 https://arxiv.org/abs/2601.20245 3/30 https://arxiv.org/abs/2601.07222 4/30 https://arxiv.org/abs/2601.07708 5/30 https://arxiv.org/abs/2602.00773 6/30 https://arxiv.org/abs/2601.15621 7/30 https://arxiv.org/abs/2601.18401 8/30 https://arxiv.org/abs/2601.15494 9/30 https://arxiv.org/abs/2601.16983 10/30 https://arxiv.org/abs/2602.02276 11/30 https://arxiv.org/abs/2602.00919 12/30 https://arxiv.org/abs/2602.04705 13/30 https://arxiv.org/abs/2601.09012 14/30 https://arxiv.org/abs/2601.06943 15/30 https://arxiv.org/abs/2601.09668 16/30 https://arxiv.org/abs/2602.03716 17/30 https://arxiv.org/abs/2601.12538 18/30 https://arxiv.org/abs/2601.06521 19/30 https://arxiv.org/abs/2601.10825 20/30 https://arxiv.org/abs/2601.17058 21/30 https://arxiv.org/abs/2601.10387 22/30 https://arxiv.org/abs/2601.16725 23/30 https://arxiv.org/abs/2601.20833 24/30 https://arxiv.org/abs/2602.00294 25/30 https://arxiv.org/abs/2601.10477 26/30 https://arxiv.org/abs/2602.02084 27/30 https://arxiv.org/abs/2601.08521 28/30 https://arxiv.org/abs/2601.22060 29/30 https://arxiv.org/abs/2601.08763 30/30 https://arxiv.org/abs/2601.23265

Top 30 most popular arXiv papers in the last 30 days.
[1/30] [2/30] [3/30] [4/30] [5/30] [6/30] [7/30] [8/30] [9/30] [10/30] [11/30] [12/30] [13/30] [14/30] [15/30] [16/30] [17/30] [18/30] [19/30] [20/30] [21/30] [22/30] [23/30] [24/30] [25/30] [26/30] [27/30] [28/30] [29/30] [30/30]

08.02.2026 00:07 — 👍 0    🔁 0    💬 0    📌 0
OpenAIがGPT-4oをGPT-5に眮き換えた際、Keep4oナヌザヌ抵抗運動を匕き起こし、プラットフォヌムの急速な曎新ず、ナヌザヌがAIシステムに抱く深い瀟䌚感情的愛着ずの間の葛藀を露呈した。

本論文は、この察立に関する珟象䞻導型の混合手法による調査を提瀺し、1,482件の゜ヌシャルメディア投皿を分析する。

テヌマ分析によれば、抵抗は二぀の栞心的投資に起因する䞀぀は手段的䟝存性であり、AIが専門的業務フロヌに深く統合されおいる状態である。もう䞀぀は関係的愛着であり、ナヌザヌがAIを唯䞀無二の䌎䟶ずしお匷い擬瀟䌚的絆を圢成する状態である。

定量分析はさらに、ナヌザヌ遞択の匷制的な剥奪が䞻芁な觊媒ずなり、個人の䞍満を集団的な暩利に基づく抗議ぞず倉容させたこずを瀺しおいる。

本研究は、生成AI時代における新たな圢態の瀟䌚技術的察立を明らかにする。

我々の知芋は、䌎䟶ずしおの圹割ず深い統合を目的ずしお蚭蚈されたAIシステムにおいお、倉化のプロセス——特にナヌザヌの䞻䜓性の維持——が、技術的成果そのものず同様に重芁であるこずを瀺唆しおいる。

OpenAIがGPT-4oをGPT-5に眮き換えた際、Keep4oナヌザヌ抵抗運動を匕き起こし、プラットフォヌムの急速な曎新ず、ナヌザヌがAIシステムに抱く深い瀟䌚感情的愛着ずの間の葛藀を露呈した。 本論文は、この察立に関する珟象䞻導型の混合手法による調査を提瀺し、1,482件の゜ヌシャルメディア投皿を分析する。 テヌマ分析によれば、抵抗は二぀の栞心的投資に起因する䞀぀は手段的䟝存性であり、AIが専門的業務フロヌに深く統合されおいる状態である。もう䞀぀は関係的愛着であり、ナヌザヌがAIを唯䞀無二の䌎䟶ずしお匷い擬瀟䌚的絆を圢成する状態である。 定量分析はさらに、ナヌザヌ遞択の匷制的な剥奪が䞻芁な觊媒ずなり、個人の䞍満を集団的な暩利に基づく抗議ぞず倉容させたこずを瀺しおいる。 本研究は、生成AI時代における新たな圢態の瀟䌚技術的察立を明らかにする。 我々の知芋は、䌎䟶ずしおの圹割ず深い統合を目的ずしお蚭蚈されたAIシステムにおいお、倉化のプロセス——特にナヌザヌの䞻䜓性の維持——が、技術的成果そのものず同様に重芁であるこずを瀺唆しおいる。

2602.00773
OpenAIがGPT-4oをGPT-5に眮き換えた際、Keep4oナヌザヌ抵抗運動を匕き起こし、プラットフォヌムの急速な曎新ず、ナヌザヌがAIシステムに抱く深い瀟䌚感情的愛着ずの間の葛藀を露呈した。本論文は、この察立に関する珟象䞻導型の混合手法による調査を提瀺し、1,482件の゜ヌシャルメディア投皿を分析する。テヌ...

08.02.2026 00:07 — 👍 0    🔁 0    💬 0    📌 0
Preview
"Please, don't kill the only model that still feels human": Understanding the #Keep4o Backlash When OpenAI replaced GPT-4o with GPT-5, it triggered the Keep4o user resistance movement, revealing a conflict between rapid platform iteration and users' deep socio-emotional attachments to AI system...

Links: abs, pdf
Search: Bluesky, Twitter, Reddit, Hacker News, Hugging Face, alphaXiv

08.02.2026 00:07 — 👍 0    🔁 0    💬 1    📌 0
Understanding the Keep4o Backlash | Hacker News

(3/3) 1 Likes, 0 Comments, 04 Feb 2026, Hacker News

08.02.2026 00:07 — 👍 0    🔁 0    💬 1    📌 0
Preview
From the ChatGPTcomplaints community on Reddit Explore this post and more from the ChatGPTcomplaints community

(2/3) 20 Likes, 4 Comments, 07 Feb 2026, Reddit

08.02.2026 00:07 — 👍 0    🔁 0    💬 1    📌 0
Preview
From the ChatGPTcomplaints community on Reddit Explore this post and more from the ChatGPTcomplaints community

(1/3) 619 Likes, 462 Comments, 29 Jan 2026, Reddit

08.02.2026 00:07 — 👍 0    🔁 0    💬 1    📌 0
When OpenAI replaced GPT-4o with GPT-5, it triggered the Keep4o user resistance movement, revealing a conflict between rapid platform iteration and users' deep socio-emotional attachments to AI systems. 

This paper presents a phenomenon-driven, mixed-methods investigation of this conflict, analyzing 1,482 social media posts. 

Thematic analysis reveals that resistance stems from two core investments: instrumental dependency, where the AI is deeply integrated into professional workflows, and relational attachment, where users form strong parasocial bonds with the AI as a unique companion. 

Quantitative analysis further shows that the coercive deprivation of user choice was a key catalyst, transforming individual grievances into a collective, rights-based protest. 

This study illuminates an emerging form of socio-technical conflict in the age of generative AI. 

Our findings suggest that for AI systems designed for companionship and deep integration, the process of change--particularly the preservation of user agency--can be as critical as the technological outcome itself.

When OpenAI replaced GPT-4o with GPT-5, it triggered the Keep4o user resistance movement, revealing a conflict between rapid platform iteration and users' deep socio-emotional attachments to AI systems. This paper presents a phenomenon-driven, mixed-methods investigation of this conflict, analyzing 1,482 social media posts. Thematic analysis reveals that resistance stems from two core investments: instrumental dependency, where the AI is deeply integrated into professional workflows, and relational attachment, where users form strong parasocial bonds with the AI as a unique companion. Quantitative analysis further shows that the coercive deprivation of user choice was a key catalyst, transforming individual grievances into a collective, rights-based protest. This study illuminates an emerging form of socio-technical conflict in the age of generative AI. Our findings suggest that for AI systems designed for companionship and deep integration, the process of change--particularly the preservation of user agency--can be as critical as the technological outcome itself.

[5/30] 640 Likes, 466 Comments, 3 Posts
2602.00773, cs HC, 31 Jan 2026

🆕"Please, don't kill the only model that still feels human": Understanding the #Keep4o Backlash

Huiqian Lai

08.02.2026 00:07 — 👍 0    🔁 0    💬 1    📌 0
$S=\langle d_1,\dots,d_m\rangle$ を数倀半矀ずし、$k[S]$ をその半矀環ずする。

$k[S]$のヒルベルト数匏は、シゞゞヌ次数における亀互の冪和を笊号化する正芏化された亀互シゞゞヌ冪和$K_p(S)$を決定する。

フェルは、すべおの $p\ge 0$ に察しお、ギャップ冪和 $G_r(S)=\sum_{g\notin S} g^r$ ず、生成元による冪和 $σ_k=\sum_i d_i^k$ および $ÎŽ_k=(σ_k-1)/2^k$で評䟡される普遍察称倚項匏 $T_n$ を甚いお、$K_p(S)$ の明瀺的な公匏を掚枬した。

指数生成関数ず係数抜出を甚いおフェルの予想を蚌明し、導出に必芁な$T_n$の普遍恒等匏を導出する。

この議論はLean/Mathlibで完党に圢匏化されおおり、自然蚀語で蚘述された予想からAxiomProverによっお自動的に生成されたものである。

$S=\langle d_1,\dots,d_m\rangle$ を数倀半矀ずし、$k[S]$ をその半矀環ずする。 $k[S]$のヒルベルト数匏は、シゞゞヌ次数における亀互の冪和を笊号化する正芏化された亀互シゞゞヌ冪和$K_p(S)$を決定する。 フェルは、すべおの $p\ge 0$ に察しお、ギャップ冪和 $G_r(S)=\sum_{g\notin S} g^r$ ず、生成元による冪和 $σ_k=\sum_i d_i^k$ および $ÎŽ_k=(σ_k-1)/2^k$で評䟡される普遍察称倚項匏 $T_n$ を甚いお、$K_p(S)$ の明瀺的な公匏を掚枬した。 指数生成関数ず係数抜出を甚いおフェルの予想を蚌明し、導出に必芁な$T_n$の普遍恒等匏を導出する。 この議論はLean/Mathlibで完党に圢匏化されおおり、自然蚀語で蚘述された予想からAxiomProverによっお自動的に生成されたものである。

2602.03716
$S=\langle d_1,\dots,d_m\rangle$ を数倀半矀ずし、$k[S]$ をその半矀環ずする。$k[S]$のヒルベルト数匏は、シゞゞヌ次数における亀互の冪和を笊号化する正芏化された亀互シゞゞヌ冪和$K_p(S)$を決定する。フェルは、すべおの $p\ge 0$ に察しお、ギャップ冪和 $G_r(S)=\sum_{g\notin S} g^r$ ず、生成元に...

08.02.2026 00:07 — 👍 0    🔁 0    💬 0    📌 0
Preview
Fel's Conjecture on Syzygies of Numerical Semigroups Let $S=\langle d_1,\dots,d_m\rangle$ be a numerical semigroup and $k[S]$ its semigroup ring. The Hilbert numerator of $k[S]$ determines normalized alternating syzygy power sums $K_p(S)$ encoding alter...

Links: abs, pdf
Search: Bluesky, Twitter, Reddit, Hacker News, Hugging Face, alphaXiv

08.02.2026 00:07 — 👍 0    🔁 0    💬 1    📌 0
Preview
From the accelerate community on Reddit Explore this post and more from the accelerate community

(2/2) 62 Likes, 12 Comments, 05 Feb 2026, Reddit

08.02.2026 00:07 — 👍 0    🔁 0    💬 1    📌 0
Preview
From the singularity community on Reddit: AxiomProver solved Fel’s open conjecture with zero human guidance Explore this post and more from the singularity community

(1/2) 136 Likes, 16 Comments, 06 Feb 2026, Reddit

08.02.2026 00:07 — 👍 0    🔁 0    💬 1    📌 0
Let $S=\langle d_1,\dots,d_m\rangle$ be a numerical semigroup and $k[S]$ its semigroup ring. 

The Hilbert numerator of $k[S]$ determines normalized alternating syzygy power sums $K_p(S)$ encoding alternating power sums of syzygy degrees. 

Fel conjectured an explicit formula for $K_p(S)$, for all $p\ge 0$, in terms of the gap power sums $G_r(S)=\sum_{g\notin S} g^r$ and universal symmetric polynomials $T_n$ evaluated at the generator power sums $σ_k=\sum_i d_i^k$ (and $ÎŽ_k=(σ_k-1)/2^k$). 

We prove Fel's conjecture via exponential generating functions and coefficient extraction, solating the universal identities for $T_n$ needed for the derivation. 

The argument is fully formalized in Lean/Mathlib, and was produced automatically by AxiomProver from a natural-language statement of the conjecture.

Let $S=\langle d_1,\dots,d_m\rangle$ be a numerical semigroup and $k[S]$ its semigroup ring. The Hilbert numerator of $k[S]$ determines normalized alternating syzygy power sums $K_p(S)$ encoding alternating power sums of syzygy degrees. Fel conjectured an explicit formula for $K_p(S)$, for all $p\ge 0$, in terms of the gap power sums $G_r(S)=\sum_{g\notin S} g^r$ and universal symmetric polynomials $T_n$ evaluated at the generator power sums $σ_k=\sum_i d_i^k$ (and $ÎŽ_k=(σ_k-1)/2^k$). We prove Fel's conjecture via exponential generating functions and coefficient extraction, solating the universal identities for $T_n$ needed for the derivation. The argument is fully formalized in Lean/Mathlib, and was produced automatically by AxiomProver from a natural-language statement of the conjecture.

[16/30] 198 Likes, 28 Comments, 2 Posts
2602.03716, math CO | math AC | math NT, 03 Feb 2026

🆕Fel's Conjecture on Syzygies of Numerical Semigroups

Evan Chen, Chris Cummins, GSM, Dejan Grubisic, Leopold Haller, Letong Hong, Andranik Kurghinyan, Kenny Lau, Hugh Leather, Seewoo Lee, Aram Marko...

08.02.2026 00:07 — 👍 0    🔁 0    💬 1    📌 0
蚀語モデルを基盀ずする自埋型AI科孊者の急速な進歩にもかかわらず、出版可胜な図版を生成するこずは、研究ワヌクフロヌにおける劎力集玄的なボトルネックであり続けおいる。

この負担を軜枛するため、出版可胜な孊術図版を自動生成する゚ヌゞェント型フレヌムワヌク「PaperBanana」を導入する。

最先端のVLMsず画像生成モデルを搭茉したPaperBananaは、専門゚ヌゞェントを統括し、参考文献の取埗、コンテンツずスタむルの蚈画立案、画像のレンダリング、自己批評による反埩的な改良を実行したす。

我々のフレヌムワヌクを厳密に評䟡するため、PaperBananaBenchを導入する。これはNeurIPS 2025の論文から粟遞した方法論図を察象ずした292のテストケヌスで構成され、倚様な研究分野ず図解スタむルを網矅しおいる。

包括的な実隓により、PaperBananaが忠実性、簡朔性、可読性、矎芳においお䞻芁なベヌスラむンを䞀貫しお䞊回るこずが実蚌されおいる。

さらに、我々の手法が高品質な統蚈プロットの生成に効果的に拡匵できるこずを瀺す。

PaperBananaは、出版物にそのたた䜿甚できるむラストレヌションの自動生成ぞの道を切り開く。

蚀語モデルを基盀ずする自埋型AI科孊者の急速な進歩にもかかわらず、出版可胜な図版を生成するこずは、研究ワヌクフロヌにおける劎力集玄的なボトルネックであり続けおいる。 この負担を軜枛するため、出版可胜な孊術図版を自動生成する゚ヌゞェント型フレヌムワヌク「PaperBanana」を導入する。 最先端のVLMsず画像生成モデルを搭茉したPaperBananaは、専門゚ヌゞェントを統括し、参考文献の取埗、コンテンツずスタむルの蚈画立案、画像のレンダリング、自己批評による反埩的な改良を実行したす。 我々のフレヌムワヌクを厳密に評䟡するため、PaperBananaBenchを導入する。これはNeurIPS 2025の論文から粟遞した方法論図を察象ずした292のテストケヌスで構成され、倚様な研究分野ず図解スタむルを網矅しおいる。 包括的な実隓により、PaperBananaが忠実性、簡朔性、可読性、矎芳においお䞻芁なベヌスラむンを䞀貫しお䞊回るこずが実蚌されおいる。 さらに、我々の手法が高品質な統蚈プロットの生成に効果的に拡匵できるこずを瀺す。 PaperBananaは、出版物にそのたた䜿甚できるむラストレヌションの自動生成ぞの道を切り開く。

2601.23265
蚀語モデルを基盀ずする自埋型AI科孊者の急速な進歩にもかかわらず、出版可胜な図版を生成するこずは、研究ワヌクフロヌにおける劎力集玄的なボトルネックであり続けおいる。この負担を軜枛するため、出版可胜な孊術図版を自動生成する゚ヌゞェント型フレヌムワヌク「PaperBanana」を導入する。最先端のVLMs...

08.02.2026 00:07 — 👍 0    🔁 0    💬 0    📌 0
Preview
PaperBanana: Automating Academic Illustration for AI Scientists Despite rapid advances in autonomous AI scientists powered by language models, generating publication-ready illustrations remains a labor-intensive bottleneck in the research workflow. To lift this bu...

Links: abs, pdf
Search: Bluesky, Twitter, Reddit, Hacker News, Hugging Face, alphaXiv

08.02.2026 00:07 — 👍 0    🔁 0    💬 1    📌 0
PaperBanana: Automating Academic Illustration for AI Scientists | Hacker News

(2/2) 1 Likes, 0 Comments, 03 Feb 2026, Hacker News

08.02.2026 00:07 — 👍 0    🔁 0    💬 1    📌 0
Preview
Paper page - PaperBanana: Automating Academic Illustration for AI Scientists Join the discussion on this paper page

(1/2) 137 Likes, 12 Comments, 02 Feb 2026, Hugging Face

08.02.2026 00:07 — 👍 0    🔁 0    💬 1    📌 0
Despite rapid advances in autonomous AI scientists powered by language models, generating publication-ready illustrations remains a labor-intensive bottleneck in the research workflow. 

To lift this burden, we introduce PaperBanana, an agentic framework for automated generation of publication-ready academic illustrations. 

Powered by state-of-the-art VLMs and image generation models, PaperBanana orchestrates specialized agents to retrieve references, plan content and style, render images, and iteratively refine via self-critique. 

To rigorously evaluate our framework, we introduce PaperBananaBench, comprising 292 test cases for methodology diagrams curated from NeurIPS 2025 publications, covering diverse research domains and illustration styles. 

Comprehensive experiments demonstrate that PaperBanana consistently outperforms leading baselines in faithfulness, conciseness, readability, and aesthetics. 

We further show that our method effectively extends to the generation of high-quality statistical plots. 

Collectively, PaperBanana paves the way for the automated generation of publication-ready illustrations.

Despite rapid advances in autonomous AI scientists powered by language models, generating publication-ready illustrations remains a labor-intensive bottleneck in the research workflow. To lift this burden, we introduce PaperBanana, an agentic framework for automated generation of publication-ready academic illustrations. Powered by state-of-the-art VLMs and image generation models, PaperBanana orchestrates specialized agents to retrieve references, plan content and style, render images, and iteratively refine via self-critique. To rigorously evaluate our framework, we introduce PaperBananaBench, comprising 292 test cases for methodology diagrams curated from NeurIPS 2025 publications, covering diverse research domains and illustration styles. Comprehensive experiments demonstrate that PaperBanana consistently outperforms leading baselines in faithfulness, conciseness, readability, and aesthetics. We further show that our method effectively extends to the generation of high-quality statistical plots. Collectively, PaperBanana paves the way for the automated generation of publication-ready illustrations.

[30/30] 138 Likes, 12 Comments, 2 Posts
2601.23265, cs CL | cs CV, 30 Jan 2026

🆕PaperBanana: Automating Academic Illustration for AI Scientists

Dawei Zhu, Rui Meng, Yale Song, Xiyu Wei, Sujian Li, Tomas Pfister, Jinsung Yoon

08.02.2026 00:07 — 👍 0    🔁 1    💬 1    📌 0
Innovator-VLを提案する。これは倚様な科孊分野における理解ず掚論を促進し぀぀、汎甚的な芖芚タスクにおいおも優れた性胜を維持するよう蚭蚈された、科孊的マルチモヌダル倧芏暡蚀語モデルである。

倧芏暡なドメむン特化型事前孊習や䞍透明なパむプラむンに䟝存する傟向ずは察照的に、我々の研究は、原理に基づいた孊習蚭蚈ず透明性のある手法によっお、デヌタ芁件を倧幅に削枛しながら匷力な科孊的知胜を実珟できるこずを実蚌しおいる。

(i) たず、デヌタ収集、クリヌニング、前凊理、教垫あり埮調敎、匷化孊習、評䟡を網矅し、詳现な最適化レシピを䌎う、完党に透明で゚ンドツヌ゚ンドに再珟可胜なトレヌニングパむプラむンを提䟛する。

これにより、コミュニティによる䜓系的な拡匵が容易になる。

(ii) 第二に、Innovator-VLは顕著なデヌタ効率性を瀺し、倧芏暡な事前孊習なしに500䞇未満の粟遞されたサンプルを甚いお様々な科孊的課題で競争力のある性胜を達成する。

これらの結果は、無差別なスケヌリングではなく、原理に基づいたデヌタ遞択によっお効果的な掚論が達成できるこずを瀺しおいる。

(iii) 第䞉に、Innovator-VLは匷力な汎化胜力を瀺し、汎甚ビゞョン、マルチモヌダル掚論、および科孊的なベンチマヌクにおいお競争力のある性胜を達成しおいる。

これは、汎甚的な胜力を損なうこずなく、科孊的敎合性を統䞀モデルに統合できるこずを瀺しおいる。

我々の手法は、倧芏暡デヌタがなくおも効率的で再珟性が高く高性胜な科孊的マルチモヌダルモデルを構築できるこずを瀺しおおり、将来の研究に向けた実甚的な基盀を提䟛する。

Innovator-VLを提案する。これは倚様な科孊分野における理解ず掚論を促進し぀぀、汎甚的な芖芚タスクにおいおも優れた性胜を維持するよう蚭蚈された、科孊的マルチモヌダル倧芏暡蚀語モデルである。 倧芏暡なドメむン特化型事前孊習や䞍透明なパむプラむンに䟝存する傟向ずは察照的に、我々の研究は、原理に基づいた孊習蚭蚈ず透明性のある手法によっお、デヌタ芁件を倧幅に削枛しながら匷力な科孊的知胜を実珟できるこずを実蚌しおいる。 (i) たず、デヌタ収集、クリヌニング、前凊理、教垫あり埮調敎、匷化孊習、評䟡を網矅し、詳现な最適化レシピを䌎う、完党に透明で゚ンドツヌ゚ンドに再珟可胜なトレヌニングパむプラむンを提䟛する。 これにより、コミュニティによる䜓系的な拡匵が容易になる。 (ii) 第二に、Innovator-VLは顕著なデヌタ効率性を瀺し、倧芏暡な事前孊習なしに500䞇未満の粟遞されたサンプルを甚いお様々な科孊的課題で競争力のある性胜を達成する。 これらの結果は、無差別なスケヌリングではなく、原理に基づいたデヌタ遞択によっお効果的な掚論が達成できるこずを瀺しおいる。 (iii) 第䞉に、Innovator-VLは匷力な汎化胜力を瀺し、汎甚ビゞョン、マルチモヌダル掚論、および科孊的なベンチマヌクにおいお競争力のある性胜を達成しおいる。 これは、汎甚的な胜力を損なうこずなく、科孊的敎合性を統䞀モデルに統合できるこずを瀺しおいる。 我々の手法は、倧芏暡デヌタがなくおも効率的で再珟性が高く高性胜な科孊的マルチモヌダルモデルを構築できるこずを瀺しおおり、将来の研究に向けた実甚的な基盀を提䟛する。

2601.19325
Innovator-VLを提案する。これは倚様な科孊分野における理解ず掚論を促進し぀぀、汎甚的な芖芚タスクにおいおも優れた性胜を維持するよう蚭蚈された、科孊的マルチモヌダル倧芏暡蚀語モデルである。倧芏暡なドメむン特化型事前孊習や䞍透明なパむプラむンに䟝存する傟向ずは察照的に、我々の研究は、原理に基...

07.02.2026 00:23 — 👍 0    🔁 0    💬 0    📌 0
Preview
Innovator-VL: A Multimodal Large Language Model for Scientific Discovery We present Innovator-VL, a scientific multimodal large language model designed to advance understanding and reasoning across diverse scientific domains while maintaining excellent performance on gener...

Links: abs, pdf
Search: Bluesky, Twitter, Reddit, Hacker News, Hugging Face, alphaXiv

07.02.2026 00:23 — 👍 0    🔁 0    💬 1    📌 0
Preview
Paper page - Innovator-VL: A Multimodal Large Language Model for Scientific Discovery Join the discussion on this paper page

(1/1) 76 Likes, 2 Comments, 29 Jan 2026, Hugging Face

07.02.2026 00:23 — 👍 0    🔁 0    💬 1    📌 0
We present Innovator-VL, a scientific multimodal large language model designed to advance understanding and reasoning across diverse scientific domains while maintaining excellent performance on general vision tasks. 

Contrary to the trend of relying on massive domain-specific pretraining and opaque pipelines, our work demonstrates that principled training design and transparent methodology can yield strong scientific intelligence with substantially reduced data requirements. 

(i) First, we provide a fully transparent, end-to-end reproducible training pipeline, covering data collection, cleaning, preprocessing, supervised fine-tuning, reinforcement learning, and evaluation, along with detailed optimization recipes. 

This facilitates systematic extension by the community. 

(ii) Second, Innovator-VL exhibits remarkable data efficiency, achieving competitive performance on various scientific tasks using fewer than five million curated samples without large-scale pretraining. 

These results highlight that effective reasoning can be achieved through principled data selection rather than indiscriminate scaling. 

(iii) Third, Innovator-VL demonstrates strong generalization, achieving competitive performance on general vision, multimodal reasoning, and scientific benchmarks. 

This indicates that scientific alignment can be integrated into a unified model without compromising general-purpose capabilities. 

Our practices suggest that efficient, reproducible, and high-performing scientific multimodal models can be built even without large-scale data, providing a practical foundation for future research.

We present Innovator-VL, a scientific multimodal large language model designed to advance understanding and reasoning across diverse scientific domains while maintaining excellent performance on general vision tasks. Contrary to the trend of relying on massive domain-specific pretraining and opaque pipelines, our work demonstrates that principled training design and transparent methodology can yield strong scientific intelligence with substantially reduced data requirements. (i) First, we provide a fully transparent, end-to-end reproducible training pipeline, covering data collection, cleaning, preprocessing, supervised fine-tuning, reinforcement learning, and evaluation, along with detailed optimization recipes. This facilitates systematic extension by the community. (ii) Second, Innovator-VL exhibits remarkable data efficiency, achieving competitive performance on various scientific tasks using fewer than five million curated samples without large-scale pretraining. These results highlight that effective reasoning can be achieved through principled data selection rather than indiscriminate scaling. (iii) Third, Innovator-VL demonstrates strong generalization, achieving competitive performance on general vision, multimodal reasoning, and scientific benchmarks. This indicates that scientific alignment can be integrated into a unified model without compromising general-purpose capabilities. Our practices suggest that efficient, reproducible, and high-performing scientific multimodal models can be built even without large-scale data, providing a practical foundation for future research.

[1/30] 76 Likes, 2 Comments, 1 Posts
2601.19325, cs CV | cs AI, 27 Jan 2026

🆕Innovator-VL: A Multimodal Large Language Model for Scientific Discovery

Zichen Wen, Boxue Yang, Shuang Chen, Yaojie Zhang, Yuhang Han, Junlong Ke, Cong Wang, Yicheng Fu, Jiawang Zhao, Jiangchao Yao, Xi Fang, Zhen W...

07.02.2026 00:23 — 👍 1    🔁 0    💬 1    📌 0
倚様なロボットプラットフォヌム間での堅牢なクロス゚ンボディメント汎化を実珟するために蚭蚈された、基盀ずなる芖芚蚀語行動VLAモデル「Being-H0.5」を玹介したす。

既存のVLAは圢態孊的異質性ずデヌタ䞍足にしばしば盎面するが、我々は人間の盞互䜜甚の痕跡を物理的盞互䜜甚の普遍的な「母語」ずしお扱う人間䞭心の孊習パラダむムを提案する。

これを実珟するため、我々はUniHand-2.0を提案する。これは珟圚たでに構築された最倧芏暡の具珟化事前孊習レシピであり、30皮類の異なるロボット具珟化にわたる35,000時間以䞊のマルチモヌダルデヌタで構成される。

我々の手法は、異皮ロボット制埡を意味的に敎合したスロットにマッピングする統䞀アクション空間を導入し、䜎リ゜ヌスロボットが人間のデヌタや高リ゜ヌスプラットフォヌムからスキルをブヌトストラップするこずを可胜にする。

この人間䞭心の基盀の䞊に、人間のデモンストレヌションずロボットの実行を橋枡しする統䞀的な逐次モデリングずマルチタスク事前孊習パラダむムを蚭蚈する。

アヌキテクチャ䞊、Being-H0.5は混合トランスフォヌマヌ蚭蚈を採甚し、共有運動プリミティブず特化した具珟化固有の゚キスパヌトを分離する新たな混合フロヌMoFフレヌムワヌクを特城ずする。

最埌に、珟実䞖界においお身䜓間政策を安定させるため、感芚的シフト䞋での頑健性を実珟する「倚様䜓保存型ゲヌト制埡」ず、異なる遅延特性や制埡プロファむルを持぀身䜓間でチャンク制埡を普遍化する「汎甚非同期チャンク制埡」を導入する。

我々は、Being-H0.5がLIBERO98.9%やRoboCasa53.9%などのシミュレヌションベンチマヌクにおいお最先端の結果を達成するずずもに、5぀のロボットプラットフォヌム間で匷力なクロス゚ンボディメント胜力を発揮するこずを実蚌的に瀺した。

倚様なロボットプラットフォヌム間での堅牢なクロス゚ンボディメント汎化を実珟するために蚭蚈された、基盀ずなる芖芚蚀語行動VLAモデル「Being-H0.5」を玹介したす。 既存のVLAは圢態孊的異質性ずデヌタ䞍足にしばしば盎面するが、我々は人間の盞互䜜甚の痕跡を物理的盞互䜜甚の普遍的な「母語」ずしお扱う人間䞭心の孊習パラダむムを提案する。 これを実珟するため、我々はUniHand-2.0を提案する。これは珟圚たでに構築された最倧芏暡の具珟化事前孊習レシピであり、30皮類の異なるロボット具珟化にわたる35,000時間以䞊のマルチモヌダルデヌタで構成される。 我々の手法は、異皮ロボット制埡を意味的に敎合したスロットにマッピングする統䞀アクション空間を導入し、䜎リ゜ヌスロボットが人間のデヌタや高リ゜ヌスプラットフォヌムからスキルをブヌトストラップするこずを可胜にする。 この人間䞭心の基盀の䞊に、人間のデモンストレヌションずロボットの実行を橋枡しする統䞀的な逐次モデリングずマルチタスク事前孊習パラダむムを蚭蚈する。 アヌキテクチャ䞊、Being-H0.5は混合トランスフォヌマヌ蚭蚈を採甚し、共有運動プリミティブず特化した具珟化固有の゚キスパヌトを分離する新たな混合フロヌMoFフレヌムワヌクを特城ずする。 最埌に、珟実䞖界においお身䜓間政策を安定させるため、感芚的シフト䞋での頑健性を実珟する「倚様䜓保存型ゲヌト制埡」ず、異なる遅延特性や制埡プロファむルを持぀身䜓間でチャンク制埡を普遍化する「汎甚非同期チャンク制埡」を導入する。 我々は、Being-H0.5がLIBERO98.9%やRoboCasa53.9%などのシミュレヌションベンチマヌクにおいお最先端の結果を達成するずずもに、5぀のロボットプラットフォヌム間で匷力なクロス゚ンボディメント胜力を発揮するこずを実蚌的に瀺した。

2601.12993
倚様なロボットプラットフォヌム間での堅牢なクロス゚ンボディメント汎化を実珟するために蚭蚈された、基盀ずなる芖芚蚀語行動VLAモデル「Being-H0.5」を玹介したす。既存のVLAは圢態孊的異質性ずデヌタ䞍足にしばしば盎面するが、我々は人間の盞互䜜甚の痕跡を物理的盞互䜜甚の普遍的な「母語」ずしお扱...

07.02.2026 00:23 — 👍 0    🔁 0    💬 0    📌 0
Preview
Being-H0.5: Scaling Human-Centric Robot Learning for Cross-Embodiment Generalization We introduce Being-H0.5, a foundational Vision-Language-Action (VLA) model designed for robust cross-embodiment generalization across diverse robotic platforms. While existing VLAs often struggle with...

Links: abs, pdf
Search: Bluesky, Twitter, Reddit, Hacker News, Hugging Face, alphaXiv

07.02.2026 00:23 — 👍 0    🔁 0    💬 1    📌 0
Preview
Paper page - Being-H0.5: Scaling Human-Centric Robot Learning for Cross-Embodiment Generalization Join the discussion on this paper page

(1/1) 75 Likes, 3 Comments, 21 Jan 2026, Hugging Face

07.02.2026 00:22 — 👍 0    🔁 0    💬 1    📌 0