Citation one is very critical - the more you use it, the less the chances you'll ever be cited yourself.
28.01.2025 06:21 — 👍 0 🔁 0 💬 0 📌 0@pwintersberger.bsky.social
Deutsches Profil. Prof. of Intelligent User Interfaces at IT:U. Ext. Lehrender bei TU Wien/FHOOe. Mische mich ein wenns um KI, Computer, und Menschen geht!
Citation one is very critical - the more you use it, the less the chances you'll ever be cited yourself.
28.01.2025 06:21 — 👍 0 🔁 0 💬 0 📌 0It is only scientific misconduct when hidden.
+ You may get more generalized responses (typically there is a small N in Qual)
- you cant really test something novel
- hardly gets around biases (see the current Deepseek Taiwan issue)
Overall, better a tool to evaluate Qual data than generate it.
In der Tat - bei uns gibt es aber soweit ich weiß dafür noch keine gesetzliche Grundlage.
23.01.2025 19:59 — 👍 1 🔁 0 💬 0 📌 0Na klar. Aber ich bin überzeugt es wird derartiges kommen müssen, alleine aus haftungsgründen. Irgendwann traut sich jemand das Auto oder den Service verkaufen mit dem Versprechen, die Verantwortung für eigene AI Aktionen zu übernehmen - und wenn davor viel schief geht, gewinnt dieser dann auch.
23.01.2025 19:52 — 👍 1 🔁 0 💬 1 📌 0wie auch bei automatisieren Fahrzeugen - letztverantwortlich ist aktuell der user. So wie es für uns wichtig ist zu wissen, ob wir mit einem Menschen oder einer KI interagieren, so wird es zukünftig auch bei derartigen Systemen (nur umgekehrt) sein.
23.01.2025 19:45 — 👍 0 🔁 0 💬 1 📌 0Gut erklärt. Bei Sprache kommt eben auch noch das "Problem" dazu, dass es keine eindeutige Ground truth gibt. Insgesamt denke ich haben Betreiber aber auch wenig Interesse daran, dass ihre Systeme Blödsinn statt Fakten ausspucken.
23.01.2025 19:09 — 👍 0 🔁 0 💬 0 📌 0Leseempfehlung: Guidines über den genAI Einsatz in schulischen Arbeiten.
23.01.2025 18:17 — 👍 2 🔁 1 💬 0 📌 0Wünschen würde ich mir das auch, aber leider glaube ich nicht mehr daran.
21.01.2025 09:16 — 👍 1 🔁 0 💬 1 📌 0Ich meinte damit: Andere Parteien könnten ja auch mehr in eigene Medien, social Media Bots,oder whatsoever investieren. Ich verstehe, dass das nicht leicht mit dem eigenen Gewissen zu vereinbaren ist.
Aber ich glaube nicht, dass man in so einem informationskrieg anders Schritt halten kann.
Ich sehe das auch als großes Problem, denke aber nicht, dass der Zugang dies lösen kann. Eher müssten die politischen Gegner ähnliche Strategien intensivieren.
Langfristig muss man auf Bildung setzen, damit die Menschen wieder mehr vertrauen und die Mechanismen der Wahrheitsfindung bekommen.
Gute Zusammenfassung, wenn auch der Fokus hauptsächlich auf language models liegt.
19.01.2025 15:30 — 👍 1 🔁 0 💬 0 📌 0Es muß einfach gelingen dies auf andere Mobilitätsformen zu übertragen. Die Träume werden sich nicht ändern (die gibt's wohl seit Jahrtausenden), aber sie könnten besser genährt werden.
19.01.2025 08:43 — 👍 1 🔁 0 💬 1 📌 0Möglicherweise sind viele derartige Projekte noch Unterhalt der Schwelle der Wahrnehmung.
19.01.2025 08:41 — 👍 0 🔁 0 💬 0 📌 0Während ihre Vorgänger wie Gates oder Jobs zumindest noch Visionen einer besseren Zukunft hatten erinnern Musk und Konsorten eher an Parodien wie Dr. Strangelove. Das macht mich wenigstens leicht optimistisch - die Welt hat schon professionellere Bösewichte überlebt.
17.01.2025 17:30 — 👍 3 🔁 0 💬 0 📌 0📣 1st Inaugural Lecture at IT:U – Mark your Calendar!
Join Christopher Frauenberger and Philipp Wintersberger, founding professors at IT:U, as they dive into: "Humans and their computers, a non-trivial problem"
🔗 Register here: forms.office.com/e/cvy3st6Cit
🛑 Registration deadline: 15 January 2024
Als ehemaliger Hundebesitzer denke ich das auch.
12.01.2025 17:12 — 👍 0 🔁 0 💬 0 📌 0Verstehe. Wir haben das Mal (noch vor 2022) im Team abgestimmt. Von 8 Personen gab's nur eine, welche sich für verteidigen entschied (ü 50)
12.01.2025 16:22 — 👍 0 🔁 0 💬 1 📌 0Sie würden nicht überlegen zu flüchten sondern Österreich mit der Waffe verteidigen?
12.01.2025 16:12 — 👍 0 🔁 0 💬 2 📌 0