@rstockm.bsky.social Kennst du das paper hier schon: arxiv.org/pdf/2401.118... ? Die Behaptung ist, dass alle LLMs halluzinieren müssen. Darin ist auch ein Beispiel wie man prompts generieren kann an denen angeblich alle LLMs scheitern, war aber vor den o1 Modellen…