Dennis Hauk's Avatar

Dennis Hauk

@eduteach.bsky.social

Professor für Fachdidaktik Gemeinschaftskunde, Universität Leipzig | Professor for Teaching and Learning in Civic Education, Leipzig University | https://t.ly/mjASz

221 Followers  |  283 Following  |  88 Posts  |  Joined: 23.09.2023  |  1.8347

Latest posts by eduteach.bsky.social on Bluesky


www.uni-potsdam.de/fileadmin/pr...

Please share, please circulate:
In my ERC project, we are recruiting new team members for the second phase.

Forwarding to networks, lists, and colleagues is very welcome.

21.01.2026 17:42 — 👍 4    🔁 3    💬 0    📌 0

Das ist ein richtig wichtiger Punkt und wäre mein Auftrag an alle Ausbildner:innen hier nach innovativen Ansätzen zu suchen (und diese bestenfalls wissenschaftlich begleiten zu lassen).

25.12.2025 15:56 — 👍 1    🔁 0    💬 0    📌 0

Gerne! Das ist letztendlich auch der Tatsache geschuldet, dass es hier in Leipzig kein Praxissemester, sondern Blockpraktika gibt. Aber ich gebe hier voll und ganz recht: das ist schon sehr umfangreich und wird auch im Rahmen der neuen Ordnung verringert/vereinheitlicht.

25.12.2025 14:32 — 👍 0    🔁 0    💬 0    📌 0

Die Entwürfe stammen aus universitären Praktika, die sind umfangreicher als im Ref. 60-100 Seiten ist die Spannweite, die meisten bewegen sich eher an der Untergrenze. Im Mittel sind 30-50 % des Umfangs Ausführlicher Anhang (kopierte Schulbuchseiten, Tafelbilder, Arbeitsblätter, etc).

25.12.2025 14:06 — 👍 1    🔁 0    💬 1    📌 0

Benoten ist also genau nicht die Idee: Unsere Daten sprechen eher dafür, LLMs als frühes Screening zu nutzen (z. B. um Unklarheiten, Inkonsistenzen, fehlende Begründungen zu markieren). „Final decisions“ gehören in die Hände der Profession – u. a. auch mit Blick auf Regulierung.

25.12.2025 13:44 — 👍 1    🔁 0    💬 0    📌 0

Für Anfänger-Lehrende: LLM als Checkliste + Fragegenerator (Struktur, Passung, Klarheit).
Für Expert*innen: LLM als Second opinion und „Bias-Check“: Wo bin ich zu schnell? Was übersehe ich? Danach priorisiert der Mensch.

25.12.2025 13:44 — 👍 1    🔁 0    💬 1    📌 0

4. Dialog: Feedbackgespräch mit Student*in (Begründungen einfordern)
5. Revision: Plan überarbeiten + ggf. zweites LLM-Screening

25.12.2025 13:44 — 👍 2    🔁 0    💬 1    📌 0

Ein praktikabler Human(s!)-in-the-loop Ablauf (für Anfänger bis Expert*innen):
1. Input: Lesson Plan + Kontextinfos (Klasse, Ziele, Zeit, Voraussetzungen)
2. LLM-Screening: Stärken/Risiken + Fragen statt Urteile
3. Human Review: Mentor*in prüft Plausibilität, ergänzt Kontext

25.12.2025 13:44 — 👍 2    🔁 0    💬 2    📌 0

Hierbei würde ich KI zur QS nicht als „Benoter“ denken, sondern als Screening- & Reflexions-Assistenz am Anfang: Sie hilft, Risiken/Unklarheiten sichtbar zu machen und gute Rückfragen fürs Coaching zu generieren. Human judgement bleibt zentral.

25.12.2025 13:44 — 👍 1    🔁 0    💬 1    📌 0

Spannende Nachfrage. Ganz wichtig: Wir haben LLM benutzt, um die Qualität vorhandener Entwürfe zu analysieren, nicht, um Entwürfe zu generieren.

25.12.2025 13:44 — 👍 1    🔁 0    💬 2    📌 0

Gerne! Die Plattform schaue ich mir gerne einmal an. Danke für den Tipp.

25.12.2025 10:20 — 👍 2    🔁 0    💬 0    📌 0

Bitteschön, viel Spaß beim Lesen. Gerne Feedback.

25.12.2025 08:46 — 👍 2    🔁 0    💬 0    📌 0
Preview
How Reliable Are Large Language Models in Analyzing the Quality of Written Lesson Plans? A Mixed-Methods Study From a Teacher Internship Program This study investigates the reliability of Large Language Models (LLMs) in evaluating the quality of written lesson plans from pre-service teachers. A…

Die Ergebnisse im Detail gibt’s direkt online im Paper, erschienen bei Computers and Education: AI : “How reliable are large language models in analyzing the quality of written lesson plans? A mixed-methods study from a teacher internship program” www.sciencedirect.com/science/arti...

25.12.2025 08:37 — 👍 1    🔁 0    💬 0    📌 0

Take-home: LLMs können Unterrichtsplanungen vorstrukturieren und Mentoring entlasten, aber professionelle Urteile über Qualität brauchen weiterhin menschliche Expertise, insbesondere bei Kontext und didaktischer Begründung.

25.12.2025 08:37 — 👍 1    🔁 0    💬 1    📌 0

Für Praktikumsprogramme: Standardisierte Rubrics + LLM können Feedback skalieren, aber nur mit Qualitätskontrolle: kurze Kalibrierung, Beispiele für “gute Antworten”, und klare Regel: LLM liefert Vorschläge, Mentor*innen entscheiden.

25.12.2025 08:37 — 👍 0    🔁 0    💬 1    📌 0

Einsetzbar mit klaren Prompts wie:
“Markiere 3 Stärken/3 Risiken im Plan bezogen auf Lernziele, Aufgaben, Diagnose, Differenzierung. Gib Rückfragen statt Urteile.”
So wird das Modell zum Reflexionsanstoß, nicht zur Bewertungsmaschine.

25.12.2025 08:37 — 👍 0    🔁 0    💬 1    📌 0

Empfehlung für die Lehrerbildung: LLM-Output als dritte Stimme im Triadengespräch nutzen (Studentin–Mentorin–Tool). Mentoring bleibt entscheidend: Mentor:in prüft, priorisiert, kontextualisiert.

25.12.2025 08:37 — 👍 0    🔁 0    💬 1    📌 0

Risiko: Das Tool klingt oft überzeugend, auch wenn es danebenliegt. Besonders kritisch wird’s bei kontextsensitiven Punkten der Unterrichtsplanung (z. B. Passung zur Lerngruppe, Plausibilität von Diagnosen, Konsequenz der Sequenzierung). Daher: nie ohne professionelles Gegenlesen.

25.12.2025 08:37 — 👍 0    🔁 0    💬 1    📌 0

Für z.B. Mentor:innen im Praktikum kann ein LLM hilfreich sein als
1. schneller Erstcheck (z. B. Zielklarheit, Aufgabenpassung),
2. Ideengeber für Nachfragen,
3. Strukturhilfe fürs Feedbackgespräch.
Es spart Zeit – wenn man es als Assistenz und nicht als Urteil nutzt.

25.12.2025 08:37 — 👍 0    🔁 0    💬 1    📌 0

Und hier die Ergebnisse im Detail: Wir haben LLM-Codings systematisch gegen einen Human-Expert-Standard geprüft. Ergebnis: je nach Dimension schwankende Übereinstimmung. Die Botschaft für Forschung & Praxis: LLM-Feedback ist eher “screening & prompting” als “final grading”.

25.12.2025 08:37 — 👍 2    🔁 0    💬 1    📌 0
Preview
How Reliable Are Large Language Models in Analyzing the Quality of Written Lesson Plans? A Mixed-Methods Study From a Teacher Internship Program This study investigates the reliability of Large Language Models (LLMs) in evaluating the quality of written lesson plans from pre-service teachers. A…

Zur Studie: Wir prüfen, wie zuverlässig LLMs die Qualität schriftl Unterrichtsplanungen gegen einen Human-Expert-Standard codiert. Ergebnis:viel Potenzial fürs Screening & Feedback, aber nicht stabil genug für “Automatik-Bewertung”. Die Stude gibts hier: www.sciencedirect.com/science/arti... #BlueLZ

25.12.2025 08:31 — 👍 11    🔁 0    💬 4    📌 0

Ich wünsche der Bluesky Community frohe Weihnachten. Damit es nicht langweilig wird, präsentiere ich im nächsten Skeet unsere neueste Studie, in der wir untersucht haben, wie LLMs Ausbildner:innen+Studis bei der Analyse und Bewertung schriftlicher Unterrichtsentwürfe unterstützen können. #BlueLZ

25.12.2025 08:26 — 👍 5    🔁 0    💬 0    📌 0
Demokratiebildung als Querschnittsaufgabe der Lehrer:innenbildung

Demokratiebildung als Querschnittsaufgabe der Lehrer:innenbildung

Dieser Band greift die Bedeutung der Professionalisierung von Lehrpersonen für die Demokratiebildung auf. Er präsentiert innovative Konzepte und Praxisformate zur Stärkung dieser Querschnittsaufgabe.

👉 www.wochenschau-verlag.de/Demokratiebi...

#Demokratiebildung #Demokratiepädagogik

19.12.2025 17:02 — 👍 4    🔁 1    💬 0    📌 0
Preview
Talk is cheap: why structural assessment changes are needed for a time of GenAI Generative AI (GenAI) challenges assessment validity by enabling students to complete tasks without demonstrating genuine capability. In response to this challenge, institutions have developed and ...

Guter Punkt, ich glaube aber, dass wir nicht nur im Kontinuum zwischen mündlichen und schriftlichen Prüfungsformaten denken dürfen. Das Kontinuum ist größer und vor allem müssen wir an den Hochschulen über strukturelle Änderungen nachdenken: www.tandfonline.com/doi/full/10....

11.12.2025 09:40 — 👍 3    🔁 0    💬 0    📌 0

Angesichts des Frustrationspotenzials auf beiden Seiten müssten das besser heute als morgen geschehen. Aber es stimmt, Hochschullehre ist wahrlich kein Ort für schnelle Entscheidung und prüfungsbezogene Innovation.

10.12.2025 21:05 — 👍 3    🔁 0    💬 0    📌 0

Ich fühle hier mit, versuche aber mit einer (zugegebenermaßen) gewagten These zu antworten: Ich glaube nicht, dass LLM an dieser Stelle das Problem sind - es ist die klassische Hausarbeit, die in der Gegenwart und insbesondere in der Lehrer:innenbildung kein adäquates Prüfungsformat mehr ist.

10.12.2025 20:56 — 👍 3    🔁 0    💬 2    📌 0
Preview
Großteil der Lehrer in Sachsen macht Überstunden – Minister zieht erste Konsequenzen 69 Prozent der Vollzeitlehrkräfte arbeiten nach einer Studie von Sachsens Kultusministerium in Schulwochen mehr als 40 Stunden – manche deutlich mehr. Der Minister zieht erste Konsequenzen.

Das wäre dann wirklich in aller Kürze, würde aber den differenzierten Ergebnissen des SMK wohl nicht gerecht. Dann ist man halt schnell bei Schlagzeilen wie „Großteil der Lehrer in Sachsen macht Überstunden“ (www.saechsische.de/politik/regi...) Schwierig.

16.10.2025 13:04 — 👍 2    🔁 0    💬 0    📌 0

Danke für die tolle Übersicht. Ich bin versucht, noch die Zeile „Ergebnisse (kurz)“ zu ergänzen, weil das natürlich bei jeder Aus- und Weiterbildungsgelegenheit die erste Nachfrage wäre - weiß aber auch, dass man dass nicht in einem Dreizeiler zusammenfassen kann. Grüße aus Leipzig!

16.10.2025 12:48 — 👍 2    🔁 0    💬 0    📌 0

We’re running a study now with preservice teachers. Early takeaways: participants rated the chats highly dialogic, moderately authentic, and the talk was roughly balanced between teacher and avatar. Paper is forthcoming

09.09.2025 15:25 — 👍 0    🔁 0    💬 1    📌 0

@eduteach is following 20 prominent accounts