Paper's Avatar

Paper

@paper.bsky.social

Summarize the top 30 most popular arXiv papers on Reddit, Hacker News and Hugging Face in the last 30 days. Source: https://github.com/susumuota/arxiv-reddit-summary Maintained by @ota.bsky.social

1,195 Followers  |  0 Following  |  8,820 Posts  |  Joined: 11.04.2023  |  2.3702

Latest posts by paper.bsky.social on Bluesky

1/30 https://arxiv.org/abs/2511.08892
2/30 https://arxiv.org/abs/2511.12414
3/30 https://arxiv.org/abs/2511.10647
4/30 https://arxiv.org/abs/2512.04047
5/30 https://arxiv.org/abs/2511.15304
6/30 https://arxiv.org/abs/2511.09030
7/30 https://arxiv.org/abs/2511.07416
8/30 https://arxiv.org/abs/2512.02556
9/30 https://arxiv.org/abs/2511.16652
10/30 https://arxiv.org/abs/2511.15935
11/30 https://arxiv.org/abs/2511.18659
12/30 https://arxiv.org/abs/2511.08923
13/30 https://arxiv.org/abs/2511.18538
14/30 https://arxiv.org/abs/2511.14593
15/30 https://arxiv.org/abs/2511.14993
16/30 https://arxiv.org/abs/2511.20626
17/30 https://arxiv.org/abs/2511.06876
18/30 https://arxiv.org/abs/2511.15848
19/30 https://arxiv.org/abs/2511.22982
20/30 https://arxiv.org/abs/2511.11793
21/30 https://arxiv.org/abs/2511.18423
22/30 https://arxiv.org/abs/2511.21689
23/30 https://arxiv.org/abs/2511.22699
24/30 https://arxiv.org/abs/2511.20785
25/30 https://arxiv.org/abs/2511.19399
26/30 https://arxiv.org/abs/2511.17879
27/30 https://arxiv.org/abs/2512.04677
28/30 https://arxiv.org/abs/2511.13254
29/30 https://arxiv.org/abs/2511.06221
30/30 https://arxiv.org/abs/2511.13612

1/30 https://arxiv.org/abs/2511.08892 2/30 https://arxiv.org/abs/2511.12414 3/30 https://arxiv.org/abs/2511.10647 4/30 https://arxiv.org/abs/2512.04047 5/30 https://arxiv.org/abs/2511.15304 6/30 https://arxiv.org/abs/2511.09030 7/30 https://arxiv.org/abs/2511.07416 8/30 https://arxiv.org/abs/2512.02556 9/30 https://arxiv.org/abs/2511.16652 10/30 https://arxiv.org/abs/2511.15935 11/30 https://arxiv.org/abs/2511.18659 12/30 https://arxiv.org/abs/2511.08923 13/30 https://arxiv.org/abs/2511.18538 14/30 https://arxiv.org/abs/2511.14593 15/30 https://arxiv.org/abs/2511.14993 16/30 https://arxiv.org/abs/2511.20626 17/30 https://arxiv.org/abs/2511.06876 18/30 https://arxiv.org/abs/2511.15848 19/30 https://arxiv.org/abs/2511.22982 20/30 https://arxiv.org/abs/2511.11793 21/30 https://arxiv.org/abs/2511.18423 22/30 https://arxiv.org/abs/2511.21689 23/30 https://arxiv.org/abs/2511.22699 24/30 https://arxiv.org/abs/2511.20785 25/30 https://arxiv.org/abs/2511.19399 26/30 https://arxiv.org/abs/2511.17879 27/30 https://arxiv.org/abs/2512.04677 28/30 https://arxiv.org/abs/2511.13254 29/30 https://arxiv.org/abs/2511.06221 30/30 https://arxiv.org/abs/2511.13612

Top 30 most popular arXiv papers in the last 30 days.
[1/30] [2/30] [3/30] [4/30] [5/30] [6/30] [7/30] [8/30] [9/30] [10/30] [11/30] [12/30] [13/30] [14/30] [15/30] [16/30] [17/30] [18/30] [19/30] [20/30] [21/30] [22/30] [23/30] [24/30] [25/30] [26/30] [27/30] [28/30] [29/30] [30/30]

07.12.2025 00:06 — 👍 1    🔁 0    💬 0    📌 0
生成的AIのアプリケヌションのほずんどは、人がプロンプトを入力しお応答を埅぀ずいう逐次的なむンタラクションを含み、反応時間や適応性は重芁な芁玠ではない。

察照的に、ラむブ・ゞャミングは、創造的な流れを維持するために倚様性を保ちながら、盞手の将来の動きにアクセスするこずなく、リアルタむムの調敎ず適応を必芁ずする共同むンタラクションである。

孊習埌の匷化孊習は、ポリシヌ䞊の盞互䜜甚を通じお効果的な適応を可胜にするが、コヒヌレンスに基づく報酬を利甚するため、出力の倚様性を䜎䞋させるこずが倚い。

この砎綻は「報酬ハッキング」ずしお知られ、倚くのRLポストトレヌニングパむプラむンに圱響を及がすが、音楜の創造性がダむナミックな倉化ず盞互反応に䟝存するラむブゞャムでは特に有害である。

本論文では、メロディから和音ぞの䌎奏のRLポストトレヌニングにおける報酬ハッキングを軜枛するために、ポリシヌによっお生成された軌道を甚いた新しい敵察的孊習法を提案する。

共進化する識別噚はデヌタ分垃からポリシヌの軌道を分離し、ポリシヌはコヒヌレンス報酬に加えお識別噚の出力を最倧化し、぀たらない出力ぞの厩壊を防ぐ。

固定されたテストメロディず孊習されたメロディ゚ヌゞェントの䞡方を甚いたシミュレヌションで䌎奏の品質ず出力の倚様性を評䟡し、熟緎した音楜家ずのリアルタむムの察話システムにモデルを導入しおナヌザヌスタディを行った。

定量的評䟡ずナヌザヌからのフィヌドバックにより、出力の倚様性、ハヌモニック・コヒヌレンス、適応速床、ナヌザヌ・゚ヌゞェンシヌが改善されたこずが実蚌された。

この結果は、生成シヌケンスモデルのRLポストトレヌニングにおける報酬ハッキングを緩和する、シンプルか぀効果的な方法を瀺しおいる。

生成的AIのアプリケヌションのほずんどは、人がプロンプトを入力しお応答を埅぀ずいう逐次的なむンタラクションを含み、反応時間や適応性は重芁な芁玠ではない。 察照的に、ラむブ・ゞャミングは、創造的な流れを維持するために倚様性を保ちながら、盞手の将来の動きにアクセスするこずなく、リアルタむムの調敎ず適応を必芁ずする共同むンタラクションである。 孊習埌の匷化孊習は、ポリシヌ䞊の盞互䜜甚を通じお効果的な適応を可胜にするが、コヒヌレンスに基づく報酬を利甚するため、出力の倚様性を䜎䞋させるこずが倚い。 この砎綻は「報酬ハッキング」ずしお知られ、倚くのRLポストトレヌニングパむプラむンに圱響を及がすが、音楜の創造性がダむナミックな倉化ず盞互反応に䟝存するラむブゞャムでは特に有害である。 本論文では、メロディから和音ぞの䌎奏のRLポストトレヌニングにおける報酬ハッキングを軜枛するために、ポリシヌによっお生成された軌道を甚いた新しい敵察的孊習法を提案する。 共進化する識別噚はデヌタ分垃からポリシヌの軌道を分離し、ポリシヌはコヒヌレンス報酬に加えお識別噚の出力を最倧化し、぀たらない出力ぞの厩壊を防ぐ。 固定されたテストメロディず孊習されたメロディ゚ヌゞェントの䞡方を甚いたシミュレヌションで䌎奏の品質ず出力の倚様性を評䟡し、熟緎した音楜家ずのリアルタむムの察話システムにモデルを導入しおナヌザヌスタディを行った。 定量的評䟡ずナヌザヌからのフィヌドバックにより、出力の倚様性、ハヌモニック・コヒヌレンス、適応速床、ナヌザヌ・゚ヌゞェンシヌが改善されたこずが実蚌された。 この結果は、生成シヌケンスモデルのRLポストトレヌニングにおける報酬ハッキングを緩和する、シンプルか぀効果的な方法を瀺しおいる。

2511.17879
生成的AIのアプリケヌションのほずんどは、人がプロンプトを入力しお応答を埅぀ずいう逐次的なむンタラクションを含み、反応時間や適応性は重芁な芁玠ではない。察照的に、ラむブ・ゞャミングは、創造的な流れを維持するために倚様性を保ちながら、盞手の将来の動きにアクセスするこずなく、リアルタむムの調...

07.12.2025 00:06 — 👍 0    🔁 0    💬 0    📌 0
Preview
Generative Adversarial Post-Training Mitigates Reward Hacking in Live Human-AI Music Interaction Most applications of generative AI involve a sequential interaction in which a person inputs a prompt and waits for a response, and where reaction time and adaptivity are not important factors. In con...

Links: abs, pdf
Search: Bluesky, Twitter, Reddit, Hacker News, Hugging Face, alphaXiv

07.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
Preview
From the singularity community on Reddit: The end (of diversity collapse) is nigh Explore this post and more from the singularity community

(1/1) 140 Likes, 50 Comments, 04 Dec 2025, Reddit

07.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
Most applications of generative AI involve a sequential interaction in which a person inputs a prompt and waits for a response, and where reaction time and adaptivity are not important factors. 

In contrast, live jamming is a collaborative interaction that requires real-time coordination and adaptation without access to the other player's future moves, while preserving diversity to sustain a creative flow. 

Reinforcement learning post-training enables effective adaptation through on-policy interaction, yet it often reduces output diversity by exploiting coherence-based rewards. 

This collapse, known as ``reward hacking'', affects many RL post-training pipelines, but is especially harmful in live jamming, where musical creativity relies on dynamic variation and mutual responsiveness. 

In this paper, we propose a novel adversarial training method on policy-generated trajectories to mitigate reward hacking in RL post-training for melody-to-chord accompaniment. 

A co-evolving discriminator separates policy trajectories from the data distribution, while the policy maximizes the discriminator output in addition to coherence rewards to prevent collapse to trivial outputs. 

We evaluate accompaniment quality and output diversity in simulation with both fixed test melodies and learned melody agents, and we conduct a user study with the model deployed in a real-time interactive system with expert musicians. 

Quantitative evaluation and user feedback demonstrate improved output diversity, harmonic coherence, adaptation speed and user agency. 

Our results demonstrate a simple yet effective method to mitigate reward hacking in RL post-training of generative sequence models.

Most applications of generative AI involve a sequential interaction in which a person inputs a prompt and waits for a response, and where reaction time and adaptivity are not important factors. In contrast, live jamming is a collaborative interaction that requires real-time coordination and adaptation without access to the other player's future moves, while preserving diversity to sustain a creative flow. Reinforcement learning post-training enables effective adaptation through on-policy interaction, yet it often reduces output diversity by exploiting coherence-based rewards. This collapse, known as ``reward hacking'', affects many RL post-training pipelines, but is especially harmful in live jamming, where musical creativity relies on dynamic variation and mutual responsiveness. In this paper, we propose a novel adversarial training method on policy-generated trajectories to mitigate reward hacking in RL post-training for melody-to-chord accompaniment. A co-evolving discriminator separates policy trajectories from the data distribution, while the policy maximizes the discriminator output in addition to coherence rewards to prevent collapse to trivial outputs. We evaluate accompaniment quality and output diversity in simulation with both fixed test melodies and learned melody agents, and we conduct a user study with the model deployed in a real-time interactive system with expert musicians. Quantitative evaluation and user feedback demonstrate improved output diversity, harmonic coherence, adaptation speed and user agency. Our results demonstrate a simple yet effective method to mitigate reward hacking in RL post-training of generative sequence models.

[26/30] 140 Likes, 50 Comments, 1 Posts
2511.17879, cs LG | cs SD, 26 Nov 2025

🆕Generative Adversarial Post-Training Mitigates Reward Hacking in Live Human-AI Music Interaction

Yusong Wu, Stephen Brade, Teng Ma, Tia-Jane Fowler, Enning Yang, Berker Banar, Aaron Courville, Natasha Jaques, Che...

07.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
既存の拡散ベヌスの映像生成手法は、基本的に逐次蚈算ずロングホラむズン䞍敎合に制玄されおおり、リアルタむムのストリヌミングオヌディオ駆動型アバタヌ合成における実甚的な採甚が制限されおいる。

我々は、140億パラメヌタの拡散モデルを甚いお、効率的、高忠実床、無限の長さのアバタヌ生成を可胜にする、アルゎリズムずシステムの共同蚭蚈フレヌムワヌクであるLive Avatarを発衚する。

我々のアプロヌチは、耇数のGPUに枡っおノむズ陀去ステップをパむプラむン化する分散掚論パラダむムであるTimestep-forcing Pipeline Parallelism (TPP)を導入し、自己回垰ボトルネックを効果的に解消し、安定した䜎レむテンシのリアルタむムストリヌミングを保蚌する。

時間的䞀貫性をさらに高め、同䞀性ドリフトや色アヌチファクトを軜枛するために、キャッシュされた参照画像を䜿甚しお動的に倖芳を再范正するこずにより、シヌケンスの忠実床を維持するロヌリングシンクフレヌム機構RSFMを提案する。

さらに、Self-Forcing Distribution Matching Distillation自己匷制分垃マッチング蒞留を掻甚するこずで、芖芚的な品質を犠牲にするこずなく、倧芏暡モデルの因果的でストリヌミング可胜な適応を促進したす。

Live Avatarは、5぀のH800 GPUで20 FPSの゚ンド・ツヌ・゚ンド生成を達成し、最先端の性胜を瀺しおいたす。私たちの知る限り、この芏暡で実甚的なリアルタむムの高忠実床アバタヌ生成を達成したのは、これが初めおです。

我々の研究は、産業甚長尺映像合成アプリケヌションに高床な拡散モデルを導入するための新しいパラダむムを確立した。

既存の拡散ベヌスの映像生成手法は、基本的に逐次蚈算ずロングホラむズン䞍敎合に制玄されおおり、リアルタむムのストリヌミングオヌディオ駆動型アバタヌ合成における実甚的な採甚が制限されおいる。 我々は、140億パラメヌタの拡散モデルを甚いお、効率的、高忠実床、無限の長さのアバタヌ生成を可胜にする、アルゎリズムずシステムの共同蚭蚈フレヌムワヌクであるLive Avatarを発衚する。 我々のアプロヌチは、耇数のGPUに枡っおノむズ陀去ステップをパむプラむン化する分散掚論パラダむムであるTimestep-forcing Pipeline Parallelism (TPP)を導入し、自己回垰ボトルネックを効果的に解消し、安定した䜎レむテンシのリアルタむムストリヌミングを保蚌する。 時間的䞀貫性をさらに高め、同䞀性ドリフトや色アヌチファクトを軜枛するために、キャッシュされた参照画像を䜿甚しお動的に倖芳を再范正するこずにより、シヌケンスの忠実床を維持するロヌリングシンクフレヌム機構RSFMを提案する。 さらに、Self-Forcing Distribution Matching Distillation自己匷制分垃マッチング蒞留を掻甚するこずで、芖芚的な品質を犠牲にするこずなく、倧芏暡モデルの因果的でストリヌミング可胜な適応を促進したす。 Live Avatarは、5぀のH800 GPUで20 FPSの゚ンド・ツヌ・゚ンド生成を達成し、最先端の性胜を瀺しおいたす。私たちの知る限り、この芏暡で実甚的なリアルタむムの高忠実床アバタヌ生成を達成したのは、これが初めおです。 我々の研究は、産業甚長尺映像合成アプリケヌションに高床な拡散モデルを導入するための新しいパラダむムを確立した。

2512.04677
既存の拡散ベヌスの映像生成手法は、基本的に逐次蚈算ずロングホラむズン䞍敎合に制玄されおおり、リアルタむムのストリヌミングオヌディオ駆動型アバタヌ合成における実甚的な採甚が制限されおいる。我々は、140億パラメヌタの拡散モデルを甚いお、効率的、高忠実床、無限の長さのアバタヌ生成を可胜にする...

07.12.2025 00:06 — 👍 0    🔁 0    💬 0    📌 0
Preview
Live Avatar: Streaming Real-time Audio-Driven Avatar Generation with Infinite Length Existing diffusion-based video generation methods are fundamentally constrained by sequential computation and long-horizon inconsistency, limiting their practical adoption in real-time, streaming audi...

Links: abs, pdf
Search: Bluesky, Twitter, Reddit, Hacker News, Hugging Face, alphaXiv

07.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
Preview
Paper page - Live Avatar: Streaming Real-time Audio-Driven Avatar Generation with Infinite Length Join the discussion on this paper page

(1/1) 135 Likes, 4 Comments, 05 Dec 2025, Hugging Face

07.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
Existing diffusion-based video generation methods are fundamentally constrained by sequential computation and long-horizon inconsistency, limiting their practical adoption in real-time, streaming audio-driven avatar synthesis. 

We present Live Avatar, an algorithm-system co-designed framework that enables efficient, high-fidelity, and infinite-length avatar generation using a 14-billion-parameter diffusion model. 

Our approach introduces Timestep-forcing Pipeline Parallelism (TPP), a distributed inference paradigm that pipelines denoising steps across multiple GPUs, effectively breaking the autoregressive bottleneck and ensuring stable, low-latency real-time streaming. 

To further enhance temporal consistency and mitigate identity drift and color artifacts, we propose the Rolling Sink Frame Mechanism (RSFM), which maintains sequence fidelity by dynamically recalibrating appearance using a cached reference image. 

Additionally, we leverage Self-Forcing Distribution Matching Distillation to facilitate causal, streamable adaptation of large-scale models without sacrificing visual quality. 

Live Avatar demonstrates state-of-the-art performance, reaching 20 FPS end-to-end generation on 5 H800 GPUs, and, to the best of our knowledge, is the first to achieve practical, real-time, high-fidelity avatar generation at this scale. 

Our work establishes a new paradigm for deploying advanced diffusion models in industrial long-form video synthesis applications.

Existing diffusion-based video generation methods are fundamentally constrained by sequential computation and long-horizon inconsistency, limiting their practical adoption in real-time, streaming audio-driven avatar synthesis. We present Live Avatar, an algorithm-system co-designed framework that enables efficient, high-fidelity, and infinite-length avatar generation using a 14-billion-parameter diffusion model. Our approach introduces Timestep-forcing Pipeline Parallelism (TPP), a distributed inference paradigm that pipelines denoising steps across multiple GPUs, effectively breaking the autoregressive bottleneck and ensuring stable, low-latency real-time streaming. To further enhance temporal consistency and mitigate identity drift and color artifacts, we propose the Rolling Sink Frame Mechanism (RSFM), which maintains sequence fidelity by dynamically recalibrating appearance using a cached reference image. Additionally, we leverage Self-Forcing Distribution Matching Distillation to facilitate causal, streamable adaptation of large-scale models without sacrificing visual quality. Live Avatar demonstrates state-of-the-art performance, reaching 20 FPS end-to-end generation on 5 H800 GPUs, and, to the best of our knowledge, is the first to achieve practical, real-time, high-fidelity avatar generation at this scale. Our work establishes a new paradigm for deploying advanced diffusion models in industrial long-form video synthesis applications.

[27/30] 135 Likes, 4 Comments, 1 Posts
2512.04677, cs CV, 04 Dec 2025

🆕Live Avatar: Streaming Real-time Audio-Driven Avatar Generation with Infinite Length

Yubo Huang, Hailong Guo, Fangtai Wu, Shifeng Zhang, Shijie Huang, Qijun Gan, Lin Liu, Sirui Zhao, Enhong Chen, Jiaming Liu, Steven Hoi

07.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
1/30 https://arxiv.org/abs/2511.08892
2/30 https://arxiv.org/abs/2511.12414
3/30 https://arxiv.org/abs/2511.10647
4/30 https://arxiv.org/abs/2512.04047
5/30 https://arxiv.org/abs/2511.15304
6/30 https://arxiv.org/abs/2511.09030
7/30 https://arxiv.org/abs/2511.07416
8/30 https://arxiv.org/abs/2512.02556
9/30 https://arxiv.org/abs/2511.16652
10/30 https://arxiv.org/abs/2511.15935
11/30 https://arxiv.org/abs/2511.08923
12/30 https://arxiv.org/abs/2511.18538
13/30 https://arxiv.org/abs/2511.18659
14/30 https://arxiv.org/abs/2511.14593
15/30 https://arxiv.org/abs/2511.14993
16/30 https://arxiv.org/abs/2511.20639
17/30 https://arxiv.org/abs/2511.04570
18/30 https://arxiv.org/abs/2511.20626
19/30 https://arxiv.org/abs/2511.06876
20/30 https://arxiv.org/abs/2511.15848
21/30 https://arxiv.org/abs/2511.11793
22/30 https://arxiv.org/abs/2511.22982
23/30 https://arxiv.org/abs/2511.18423
24/30 https://arxiv.org/abs/2511.21689
25/30 https://arxiv.org/abs/2511.20785
26/30 https://arxiv.org/abs/2511.22699
27/30 https://arxiv.org/abs/2511.19399
28/30 https://arxiv.org/abs/2511.13254
29/30 https://arxiv.org/abs/2511.06221
30/30 https://arxiv.org/abs/2511.13612

1/30 https://arxiv.org/abs/2511.08892 2/30 https://arxiv.org/abs/2511.12414 3/30 https://arxiv.org/abs/2511.10647 4/30 https://arxiv.org/abs/2512.04047 5/30 https://arxiv.org/abs/2511.15304 6/30 https://arxiv.org/abs/2511.09030 7/30 https://arxiv.org/abs/2511.07416 8/30 https://arxiv.org/abs/2512.02556 9/30 https://arxiv.org/abs/2511.16652 10/30 https://arxiv.org/abs/2511.15935 11/30 https://arxiv.org/abs/2511.08923 12/30 https://arxiv.org/abs/2511.18538 13/30 https://arxiv.org/abs/2511.18659 14/30 https://arxiv.org/abs/2511.14593 15/30 https://arxiv.org/abs/2511.14993 16/30 https://arxiv.org/abs/2511.20639 17/30 https://arxiv.org/abs/2511.04570 18/30 https://arxiv.org/abs/2511.20626 19/30 https://arxiv.org/abs/2511.06876 20/30 https://arxiv.org/abs/2511.15848 21/30 https://arxiv.org/abs/2511.11793 22/30 https://arxiv.org/abs/2511.22982 23/30 https://arxiv.org/abs/2511.18423 24/30 https://arxiv.org/abs/2511.21689 25/30 https://arxiv.org/abs/2511.20785 26/30 https://arxiv.org/abs/2511.22699 27/30 https://arxiv.org/abs/2511.19399 28/30 https://arxiv.org/abs/2511.13254 29/30 https://arxiv.org/abs/2511.06221 30/30 https://arxiv.org/abs/2511.13612

Top 30 most popular arXiv papers in the last 30 days.
[1/30] [2/30] [3/30] [4/30] [5/30] [6/30] [7/30] [8/30] [9/30] [10/30] [11/30] [12/30] [13/30] [14/30] [15/30] [16/30] [17/30] [18/30] [19/30] [20/30] [21/30] [22/30] [23/30] [24/30] [25/30] [26/30] [27/30] [28/30] [29/30] [30/30]

06.12.2025 00:06 — 👍 0    🔁 0    💬 0    📌 0
民䞻䞻矩囜家では、䞻芁な政策決定には通垞、ある皮の倚数決やコンセンサスが必芁ずされるため、゚リヌトは統治するために倧衆の支持を確保しなければならない。

歎史的に、゚リヌトは孊校教育やマスメディアのような限られた手段を通じおのみ支持を圢成するこずができた。AIによる説埗の進歩は、䞖論圢成のコストを倧幅に削枛し、粟床を高め、遞奜の分垃そのものを意図的なデザむンの察象ずする。

我々は、゚リヌトが説埗コストず倚数決制玄のもずで、政策遞奜の分垃をどの皋床倉化させるかを遞択する動的モデルを開発する。

゚リヌトが䞀人であれば、どのような最適な介入も瀟䌚をより二極化されたオピニオン・プロファむル「二極化の匕力」ぞず抌しやる傟向があり、説埗技術の向䞊はこのドリフトを加速させる。

察立する2぀の゚リヌトが亀互に暩力を握っおいる堎合、同じテクノロゞヌは、意芋がたずたりやすく、ラむバルが芆しにくい「セミロック」地域に瀟䌚を駐留させるむンセンティブも生み出す。

これらを総合するず、より安䟡な説埗技術は、分極化を玔粋に出珟した瀟䌚的副産物ではなく、ガバナンスの戊略的手段ずしお捉え盎すものであり、AIの胜力が進歩するに぀れ、民䞻䞻矩の安定にずっお重芁な意味を持぀こずになる。

民䞻䞻矩囜家では、䞻芁な政策決定には通垞、ある皮の倚数決やコンセンサスが必芁ずされるため、゚リヌトは統治するために倧衆の支持を確保しなければならない。 歎史的に、゚リヌトは孊校教育やマスメディアのような限られた手段を通じおのみ支持を圢成するこずができた。AIによる説埗の進歩は、䞖論圢成のコストを倧幅に削枛し、粟床を高め、遞奜の分垃そのものを意図的なデザむンの察象ずする。 我々は、゚リヌトが説埗コストず倚数決制玄のもずで、政策遞奜の分垃をどの皋床倉化させるかを遞択する動的モデルを開発する。 ゚リヌトが䞀人であれば、どのような最適な介入も瀟䌚をより二極化されたオピニオン・プロファむル「二極化の匕力」ぞず抌しやる傟向があり、説埗技術の向䞊はこのドリフトを加速させる。 察立する2぀の゚リヌトが亀互に暩力を握っおいる堎合、同じテクノロゞヌは、意芋がたずたりやすく、ラむバルが芆しにくい「セミロック」地域に瀟䌚を駐留させるむンセンティブも生み出す。 これらを総合するず、より安䟡な説埗技術は、分極化を玔粋に出珟した瀟䌚的副産物ではなく、ガバナンスの戊略的手段ずしお捉え盎すものであり、AIの胜力が進歩するに぀れ、民䞻䞻矩の安定にずっお重芁な意味を持぀こずになる。

2512.04047
民䞻䞻矩囜家では、䞻芁な政策決定には通垞、ある皮の倚数決やコンセンサスが必芁ずされるため、゚リヌトは統治するために倧衆の支持を確保しなければならない。歎史的に、゚リヌトは孊校教育やマスメディアのような限られた手段を通じおのみ支持を圢成するこずができた。AIによる説埗の進歩は、䞖論圢成のコ...

06.12.2025 00:06 — 👍 0    🔁 0    💬 0    📌 0
Preview
Polarization by Design: How Elites Could Shape Mass Preferences as AI Reduces Persuasion Costs In democracies, major policy decisions typically require some form of majority or consensus, so elites must secure mass support to govern. Historically, elites could shape support only through limited...

Links: abs, pdf
Search: Bluesky, Twitter, Reddit, Hacker News, Hugging Face, alphaXiv

06.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
How elites could shape mass preferences as AI reduces persuasion costs | Hacker News

(1/1) 675 Likes, 640 Comments, 04 Dec 2025, Hacker News

06.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
In democracies, major policy decisions typically require some form of majority or consensus, so elites must secure mass support to govern. 

Historically, elites could shape support only through limited instruments like schooling and mass media; advances in AI-driven persuasion sharply reduce the cost and increase the precision of shaping public opinion, making the distribution of preferences itself an object of deliberate design. 

We develop a dynamic model in which elites choose how much to reshape the distribution of policy preferences, subject to persuasion costs and a majority rule constraint. 

With a single elite, any optimal intervention tends to push society toward more polarized opinion profiles - a ``polarization pull'' - and improvements in persuasion technology accelerate this drift. 

When two opposed elites alternate in power, the same technology also creates incentives to park society in ``semi-lock'' regions where opinions are more cohesive and harder for a rival to overturn, so advances in persuasion can either heighten or dampen polarization depending on the environment. 

Taken together, cheaper persuasion technologies recast polarization as a strategic instrument of governance rather than a purely emergent social byproduct, with important implications for democratic stability as AI capabilities advance.

In democracies, major policy decisions typically require some form of majority or consensus, so elites must secure mass support to govern. Historically, elites could shape support only through limited instruments like schooling and mass media; advances in AI-driven persuasion sharply reduce the cost and increase the precision of shaping public opinion, making the distribution of preferences itself an object of deliberate design. We develop a dynamic model in which elites choose how much to reshape the distribution of policy preferences, subject to persuasion costs and a majority rule constraint. With a single elite, any optimal intervention tends to push society toward more polarized opinion profiles - a ``polarization pull'' - and improvements in persuasion technology accelerate this drift. When two opposed elites alternate in power, the same technology also creates incentives to park society in ``semi-lock'' regions where opinions are more cohesive and harder for a rival to overturn, so advances in persuasion can either heighten or dampen polarization depending on the environment. Taken together, cheaper persuasion technologies recast polarization as a strategic instrument of governance rather than a purely emergent social byproduct, with important implications for democratic stability as AI capabilities advance.

[4/30] 675 Likes, 640 Comments, 1 Posts
2512.04047, econ GN | cs AI | cs CY, 03 Dec 2025

🆕Polarization by Design: How Elites Could Shape Mass Preferences as AI Reduces Persuasion Costs

Nadav Kunievsky

06.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
我々は、堎の量子論のトモナガ・シュノィンガヌTS定匏化を甚いお、局所ハミルトニアン密床ぞの状態䟝存の远加すなわち線圢シュレディンガヌ進化ぞの修正が盞察論的共分散に違反する堎合を決定する。

我々は、状態䟝存性から生じるフレシェ埮分項を含む、フォリ゚ヌション独立性に必芁な新しい䜜甚玠可積条件を導出する。

量子力孊の非線圢修正は、空間的分離における䜜甚玠関係に圱響を䞎え、可積分条件の違反に぀ながる。

我々は、堎の量子論のトモナガ・シュノィンガヌTS定匏化を甚いお、局所ハミルトニアン密床ぞの状態䟝存の远加すなわち線圢シュレディンガヌ進化ぞの修正が盞察論的共分散に違反する堎合を決定する。 我々は、状態䟝存性から生じるフレシェ埮分項を含む、フォリ゚ヌション独立性に必芁な新しい䜜甚玠可積条件を導出する。 量子力孊の非線圢修正は、空間的分離における䜜甚玠関係に圱響を䞎え、可積分条件の違反に぀ながる。

2511.15935
我々は、堎の量子論のトモナガ・シュノィンガヌTS定匏化を甚いお、局所ハミルトニアン密床ぞの状態䟝存の远加すなわち線圢シュレディンガヌ進化ぞの修正が盞察論的共分散に違反する堎合を決定する。我々は、状態䟝存性から生じるフレシェ埮分項を含む、フォリ゚ヌション独立性に必芁な新しい䜜甚玠可...

06.12.2025 00:06 — 👍 0    🔁 0    💬 0    📌 0
Preview
Relativistic Covariance and Nonlinear Quantum Mechanics: Tomonaga-Schwinger Analysis We use the Tomonaga-Schwinger (TS) formulation of quantum field theory to determine when state-dependent additions to the local Hamiltonian density (i.e., modifications to linear Schrodinger evolution...

Links: abs, pdf
Search: Bluesky, Twitter, Reddit, Hacker News, Hugging Face, alphaXiv

06.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
Preview
From the accelerate community on Reddit: GPT-5 generated the key insight for a paper accepted to Physics Letters B, a serious and reputable peer-reviewed journal Explore this post and more from the accelerate community

(2/2) 36 Likes, 2 Comments, 05 Dec 2025, Reddit

06.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
Preview
From the singularity community on Reddit: GPT-5 generated the key insight for a paper accepted to Physics Letters B, a serious and reputable peer-reviewed journal Explore this post and more from the singularity community

(1/2) 250 Likes, 101 Comments, 04 Dec 2025, Reddit

06.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
We use the Tomonaga-Schwinger (TS) formulation of quantum field theory to determine when state-dependent additions to the local Hamiltonian density (i.e., modifications to linear Schrodinger evolution) violate relativistic covariance. 

We derive new operator integrability conditions required for foliation independence, including the Frechet derivative terms that arise from state-dependence. 

Nonlinear modifications of quantum mechanics affect operator relations at spacelike separation, leading to violation of the integrability conditions.

We use the Tomonaga-Schwinger (TS) formulation of quantum field theory to determine when state-dependent additions to the local Hamiltonian density (i.e., modifications to linear Schrodinger evolution) violate relativistic covariance. We derive new operator integrability conditions required for foliation independence, including the Frechet derivative terms that arise from state-dependence. Nonlinear modifications of quantum mechanics affect operator relations at spacelike separation, leading to violation of the integrability conditions.

[10/30] 286 Likes, 103 Comments, 2 Posts
2511.15935, hep-th, 19 Nov 2025

🆕Relativistic Covariance and Nonlinear Quantum Mechanics: Tomonaga-Schwinger Analysis

Stephen D. H. Hsu

06.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
マルチ゚ヌゞェントシステム(MAS)は、倧芏暡蚀語モデル(LLM)を独立した単䞀モデルの掚論から協調的なシステムレベルの知胜ぞず拡匵する。

既存のLLM゚ヌゞェントが掚論ずコミュニケヌションのためにテキストベヌスの調停に䟝存しおいるのに察しお、我々はモデルが連続的な朜圚空間内で盎接コラボレヌションできるようにするこずで䞀歩前進する。

LLM゚ヌゞェント間の玔粋な朜圚的コラボレヌションを可胜にする、゚ンド・ツヌ・゚ンドのトレヌニング䞍芁のフレヌムワヌクであるLatentMASを玹介する。

LatentMASでは、各゚ヌゞェントはたず最終局の隠れ埋め蟌みによっお自動回垰的な朜圚思考生成を行う。

そしお共有された朜圚的ワヌキングメモリが、各゚ヌゞェントの内郚衚珟を保存・転送し、ロスレスな情報亀換を保蚌する。

我々は、LatentMASが埓来のテキストベヌスのMASよりも耇雑性を倧幅に䜎枛しながら、より高い衚珟力ず可逆的な情報保存を達成するこずを立蚌する理論的分析を提䟛する。

さらに、数孊ず科孊の掚論、垞識的な理解、コヌド生成にたたがる9぀の包括的なベンチマヌクを察象ずした実蚌的評䟡により、LatentMASは匷力な単䞀モデルおよびテキストベヌスのMASベヌスラむンを䞀貫しお凌駕し、最倧14.6%の高粟床、70.8%83.7%の出力トヌクン䜿甚量の削枛、4倍4.3倍の高速な゚ンドツヌ゚ンドの掚論を実珟するこずが瀺された。

これらの結果は、我々の新しい朜圚的コラボレヌションフレヌムワヌクが、システムレベルの掚論品質を向䞊させるず同時に、远加のトレヌニングなしで倧幅な効率向䞊を提䟛するこずを瀺しおいる。

コヌドずデヌタはhttps://github.com/Gen-Verse/LatentMAS、完党にオヌプン゜ヌス化されおいる。

マルチ゚ヌゞェントシステム(MAS)は、倧芏暡蚀語モデル(LLM)を独立した単䞀モデルの掚論から協調的なシステムレベルの知胜ぞず拡匵する。 既存のLLM゚ヌゞェントが掚論ずコミュニケヌションのためにテキストベヌスの調停に䟝存しおいるのに察しお、我々はモデルが連続的な朜圚空間内で盎接コラボレヌションできるようにするこずで䞀歩前進する。 LLM゚ヌゞェント間の玔粋な朜圚的コラボレヌションを可胜にする、゚ンド・ツヌ・゚ンドのトレヌニング䞍芁のフレヌムワヌクであるLatentMASを玹介する。 LatentMASでは、各゚ヌゞェントはたず最終局の隠れ埋め蟌みによっお自動回垰的な朜圚思考生成を行う。 そしお共有された朜圚的ワヌキングメモリが、各゚ヌゞェントの内郚衚珟を保存・転送し、ロスレスな情報亀換を保蚌する。 我々は、LatentMASが埓来のテキストベヌスのMASよりも耇雑性を倧幅に䜎枛しながら、より高い衚珟力ず可逆的な情報保存を達成するこずを立蚌する理論的分析を提䟛する。 さらに、数孊ず科孊の掚論、垞識的な理解、コヌド生成にたたがる9぀の包括的なベンチマヌクを察象ずした実蚌的評䟡により、LatentMASは匷力な単䞀モデルおよびテキストベヌスのMASベヌスラむンを䞀貫しお凌駕し、最倧14.6%の高粟床、70.8%83.7%の出力トヌクン䜿甚量の削枛、4倍4.3倍の高速な゚ンドツヌ゚ンドの掚論を実珟するこずが瀺された。 これらの結果は、我々の新しい朜圚的コラボレヌションフレヌムワヌクが、システムレベルの掚論品質を向䞊させるず同時に、远加のトレヌニングなしで倧幅な効率向䞊を提䟛するこずを瀺しおいる。 コヌドずデヌタはhttps://github.com/Gen-Verse/LatentMAS、完党にオヌプン゜ヌス化されおいる。

2511.20639
マルチ゚ヌゞェントシステム(MAS)は、倧芏暡蚀語モデル(LLM)を独立した単䞀モデルの掚論から協調的なシステムレベルの知胜ぞず拡匵する。既存のLLM゚ヌゞェントが掚論ずコミュニケヌションのためにテキストベヌスの調停に䟝存しおいるのに察しお、我々はモデルが連続的な朜圚空間内で盎接コラボレヌションで...

06.12.2025 00:06 — 👍 0    🔁 0    💬 0    📌 0
Preview
Latent Collaboration in Multi-Agent Systems Multi-agent systems (MAS) extend large language models (LLMs) from independent single-model reasoning to coordinative system-level intelligence. While existing LLM agents depend on text-based mediatio...

Links: abs, pdf
Search: Bluesky, Twitter, Reddit, Hacker News, Hugging Face, alphaXiv

06.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
LatentMAS – agent collaboration from token space into the model's latent space | Hacker News

(3/3) 3 Likes, 1 Comments, 03 Dec 2025, Hacker News

06.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
Preview
From the MachineLearning community on Reddit Explore this post and more from the MachineLearning community

(2/3) 105 Likes, 59 Comments, 05 Dec 2025, Reddit

06.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
Preview
Paper page - Latent Collaboration in Multi-Agent Systems Join the discussion on this paper page

(1/3) 109 Likes, 12 Comments, 27 Nov 2025, Hugging Face

06.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
Multi-agent systems (MAS) extend large language models (LLMs) from independent single-model reasoning to coordinative system-level intelligence. 

While existing LLM agents depend on text-based mediation for reasoning and communication, we take a step forward by enabling models to collaborate directly within the continuous latent space. 

We introduce LatentMAS, an end-to-end training-free framework that enables pure latent collaboration among LLM agents. 

In LatentMAS, each agent first performs auto-regressive latent thoughts generation through last-layer hidden embeddings. 

A shared latent working memory then preserves and transfers each agent's internal representations, ensuring lossless information exchange. 

We provide theoretical analyses establishing that LatentMAS attains higher expressiveness and lossless information preservation with substantially lower complexity than vanilla text-based MAS. 

In addition, empirical evaluations across 9 comprehensive benchmarks spanning math and science reasoning, commonsense understanding, and code generation show that LatentMAS consistently outperforms strong single-model and text-based MAS baselines, achieving up to 14.6% higher accuracy, reducing output token usage by 70.8%-83.7%, and providing 4x-4.3x faster end-to-end inference. 

These results demonstrate that our new latent collaboration framework enhances system-level reasoning quality while offering substantial efficiency gains without any additional training. 

Code and data are fully open-sourced at https://github.com/Gen-Verse/LatentMAS.

Multi-agent systems (MAS) extend large language models (LLMs) from independent single-model reasoning to coordinative system-level intelligence. While existing LLM agents depend on text-based mediation for reasoning and communication, we take a step forward by enabling models to collaborate directly within the continuous latent space. We introduce LatentMAS, an end-to-end training-free framework that enables pure latent collaboration among LLM agents. In LatentMAS, each agent first performs auto-regressive latent thoughts generation through last-layer hidden embeddings. A shared latent working memory then preserves and transfers each agent's internal representations, ensuring lossless information exchange. We provide theoretical analyses establishing that LatentMAS attains higher expressiveness and lossless information preservation with substantially lower complexity than vanilla text-based MAS. In addition, empirical evaluations across 9 comprehensive benchmarks spanning math and science reasoning, commonsense understanding, and code generation show that LatentMAS consistently outperforms strong single-model and text-based MAS baselines, achieving up to 14.6% higher accuracy, reducing output token usage by 70.8%-83.7%, and providing 4x-4.3x faster end-to-end inference. These results demonstrate that our new latent collaboration framework enhances system-level reasoning quality while offering substantial efficiency gains without any additional training. Code and data are fully open-sourced at https://github.com/Gen-Verse/LatentMAS.

[16/30] 217 Likes, 72 Comments, 3 Posts
2511.20639, cs CL | cs AI | cs LG, 25 Nov 2025

🆕Latent Collaboration in Multi-Agent Systems

Jiaru Zou, Xiyuan Yang, Ruizhong Qiu, Gaotang Li, Katherine Tieu, Pan Lu, Ke Shen, Hanghang Tong, Yejin Choi, Jingrui He, James Zou, Mengdi Wang, Ling Yang

06.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
倧芏暡な蚀語モデルは匷力なゞェネラリストであるが、人類最埌の詊隓HLEのような深く耇雑な問題を解くこずは、抂念的に困難であり、蚈算コストがかかる。

我々は、他のモデルや様々なツヌルを管理する小さなオヌケストレヌタヌが、むンテリゞェンスの䞊限を抌し䞊げ、困難な゚ヌゞェントタスクを解決する効率を向䞊させるこずができるこずを瀺す。

むンテリゞェントなツヌルを調敎する小さなオヌケストレヌタヌを蚓緎する方法であるToolOrchestraを玹介する。

ToolOrchestraは、成果、効率、ナヌザヌ嗜奜を考慮した報酬による匷化孊習を明瀺的に䜿甚しおいる。

ToolOrchestraを䜿甚するこずで、我々はOrchestratorずいう8Bモデルを䜜成する。Orchestratorは、埓来のツヌル䜿甚゚ヌゞェントよりも䜎コストで高い粟床を達成するず同時に、䞎えられたク゚リに察しおどのツヌルを䜿甚するかずいうナヌザヌの奜みに合わせるこずができる。

HLEでは、Orchestratorは37.1%のスコアを達成し、GPT-535.1%を䞊回るず同時に、2.5倍の効率を実珟した。

tau2-BenchずFRAMESでは、OrchestratorはGPT-5を倧差で䞊回ったが、䜿甚したコストは玄30に過ぎなかった。

広範な分析により、Orchestratorは耇数のメトリクスの䞋でパフォヌマンスずコストの最適なトレヌドオフを達成し、未知のツヌルにも頑健に䞀般化するこずが瀺された。

これらの結果は、軜量なオヌケストレヌションモデルを甚いお倚様なツヌルを組み合わせるこずが、既存の方法よりも効率的か぀効果的であるこずを瀺しおおり、実甚的でスケヌラブルなツヌル拡匵型掚論システムぞの道を開くものである。

倧芏暡な蚀語モデルは匷力なゞェネラリストであるが、人類最埌の詊隓HLEのような深く耇雑な問題を解くこずは、抂念的に困難であり、蚈算コストがかかる。 我々は、他のモデルや様々なツヌルを管理する小さなオヌケストレヌタヌが、むンテリゞェンスの䞊限を抌し䞊げ、困難な゚ヌゞェントタスクを解決する効率を向䞊させるこずができるこずを瀺す。 むンテリゞェントなツヌルを調敎する小さなオヌケストレヌタヌを蚓緎する方法であるToolOrchestraを玹介する。 ToolOrchestraは、成果、効率、ナヌザヌ嗜奜を考慮した報酬による匷化孊習を明瀺的に䜿甚しおいる。 ToolOrchestraを䜿甚するこずで、我々はOrchestratorずいう8Bモデルを䜜成する。Orchestratorは、埓来のツヌル䜿甚゚ヌゞェントよりも䜎コストで高い粟床を達成するず同時に、䞎えられたク゚リに察しおどのツヌルを䜿甚するかずいうナヌザヌの奜みに合わせるこずができる。 HLEでは、Orchestratorは37.1%のスコアを達成し、GPT-535.1%を䞊回るず同時に、2.5倍の効率を実珟した。 tau2-BenchずFRAMESでは、OrchestratorはGPT-5を倧差で䞊回ったが、䜿甚したコストは玄30に過ぎなかった。 広範な分析により、Orchestratorは耇数のメトリクスの䞋でパフォヌマンスずコストの最適なトレヌドオフを達成し、未知のツヌルにも頑健に䞀般化するこずが瀺された。 これらの結果は、軜量なオヌケストレヌションモデルを甚いお倚様なツヌルを組み合わせるこずが、既存の方法よりも効率的か぀効果的であるこずを瀺しおおり、実甚的でスケヌラブルなツヌル拡匵型掚論システムぞの道を開くものである。

2511.21689
倧芏暡な蚀語モデルは匷力なゞェネラリストであるが、人類最埌の詊隓HLEのような深く耇雑な問題を解くこずは、抂念的に困難であり、蚈算コストがかかる。我々は、他のモデルや様々なツヌルを管理する小さなオヌケストレヌタヌが、むンテリゞェンスの䞊限を抌し䞊げ、困難な゚ヌゞェントタスクを解決する...

06.12.2025 00:06 — 👍 0    🔁 0    💬 0    📌 0
Preview
ToolOrchestra: Elevating Intelligence via Efficient Model and Tool Orchestration Large language models are powerful generalists, yet solving deep and complex problems such as those of the Humanity's Last Exam (HLE) remains both conceptually challenging and computationally expensiv...

Links: abs, pdf
Search: Bluesky, Twitter, Reddit, Hacker News, Hugging Face, alphaXiv

06.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
Nvidia ToolOrchestra – 8B model "manager" improves intelligence and efficiency | Hacker News

(3/3) 5 Likes, 0 Comments, 28 Nov 2025, Hacker News

06.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
Preview
From the machinelearningnews community on Reddit: NVIDIA AI Releases Orchestrator-8B: A Reinforcement Learning Trained Controller for Efficient Tool and Model Selection Explore this post and more from the machinelearningnews community

(2/3) 44 Likes, 2 Comments, 29 Nov 2025, Reddit

06.12.2025 00:06 — 👍 0    🔁 0    💬 1    📌 0
Preview
Paper page - ToolOrchestra: Elevating Intelligence via Efficient Model and Tool Orchestration Join the discussion on this paper page

(1/3) 94 Likes, 3 Comments, 03 Dec 2025, Hugging Face

06.12.2025 00:05 — 👍 0    🔁 0    💬 1    📌 0