彷徨っている情報系教員's Avatar

彷徨っている情報系教員

@tsuchm.bsky.social

情報系の大学教員です。職務に関係するように見えるつぶやきが多いですが、全ての発言は架空のもので、所属組織はもちろん、本人および現実世界と関係ありません。

255 Followers  |  148 Following  |  4,099 Posts  |  Joined: 13.08.2023  |  1.9654

Latest posts by tsuchm.bsky.social on Bluesky

正論や建前、善意を前提にして制度設計してはダメ。悪意に耐えられる制度設計が重要(と言っても、本物の悪党は、こちらが想定した悪意の更に斜め上をいくのですけど。それでも、最初からノーガードなのは問題外でしょ?)

16.02.2026 11:40 — 👍 0    🔁 0    💬 0    📌 0

普通の業務に適用しちゃダメ、絶対。
(派遣社員の規制緩和の顛末を見ても、無期転換から雇止めの顛末を見ても、とにかくこの手の「建前」頼りの制度が上手くいった例はないと思うんですが)

16.02.2026 11:12 — 👍 2    🔁 0    💬 1    📌 0

あら?大学のネットワークが落ちてるかな?

16.02.2026 08:56 — 👍 0    🔁 0    💬 0    📌 0

reject++
(あたた、これは計画が狂ったぞ、参ったな)

16.02.2026 06:33 — 👍 0    🔁 0    💬 0    📌 0
Preview
小学校段階で「英語格差」、「英語嫌い」が増え教員も指導困難に陥った根本原因 英語教育学の専門家が戦慄した調査結果の数々 2020年度から実施された小学校学習指導要領の目玉は、小学5・6年生の外国語(実質は英語)を週2コマの正式教科にしたことだった。これによって、それまでの「聴く・話す」に「読む・書く」も加わり、成績もつける…

高校入試の得点分布グラフを見ると、英語だけ何かが深刻に間違っていることがはっきりわかるね。入試問題は学習指導要領に基づいて作られているはずなので、この結果が示しているのは、「これこれを身につけさせるカリキュラム」として設計されたものが全く機能しておらず、生徒には全然身についていないということ

toyokeizai.net/articles/-/8...

15.02.2026 23:37 — 👍 113    🔁 75    💬 0    📌 3

最近の人はええなあと言いたくなる案件を観測したけど、それは単に、最近の人の苦労が見えてないだけだよ > 自分

16.02.2026 00:40 — 👍 1    🔁 0    💬 0    📌 0

私が簡単に思いつくくらいのことは、既に誰か手をつけてる(ポジティブかネガティヴかは分からないけど)、または、必要な資源が大きすぎて手が出せない。なので、もっと必死になって知恵を絞らないといけない。

15.02.2026 11:31 — 👍 1    🔁 0    💬 0    📌 0

最近の個人テーマは、バックスケーティングの片足滑走。前進だと片足体重で滑れるんだけど、バックだとどうしても両足体重(インエッジ)になってしまう。先生によって言っていること(矯正のための練習方法)が違うんだけど、目指しているところは結局同じってことが分かってきて面白い。

15.02.2026 10:44 — 👍 0    🔁 0    💬 0    📌 0

本日もスケート教室。忙しいとか、身体がきつくなってきたとか、とにかく止める言い訳には事欠かないわけで。最早、続けているだけでエライと言って良いのではないか。

15.02.2026 10:02 — 👍 1    🔁 0    💬 1    📌 0
Post image

1日遅れとか、頂けるものに細かいことは言いませんとも。

15.02.2026 09:53 — 👍 2    🔁 0    💬 0    📌 0

つまり、タスクそのものが事前学習コーパスに含まれている必要はなくて、タスクを解くために必要な何らかのパターンが含まれていれば良い、ということが示唆されているように見える。LLM が単純なコピペではない、というのはおそらくその通りで、私たちが思っている以上に柔軟なコピペがおそらくできるのでしょう。
(なお、この論文については、NIIの佐藤先生のブログ「言語モデルの物理学」 joisino.hatenablog.com/entry/physics がとても詳しいので、私の下手な説明より、そちらを見た方が良いです)

15.02.2026 08:12 — 👍 2    🔁 0    💬 0    📌 0

事前学習コーパスに質問応答の文例を混ぜておくと、回答できるようになる。ここまでは、先の論文で指摘されているのと同様、新規に解いているのではなく、事前学習済の既知タスクを検索して解いているのではないか、という話に近そう。
次に、伝記文を用意する時に「アーニャ・ブライア・フォージャーの誕生日は1996年10月2日(略)働いていた場所はカリフォルニア州メンロパーク」などのように順序を入れ替えたり、表現を変えたりして、バリエーションを増やしてやる。すると、事前学習コーパスに質問応答の文例を混ぜておかなくても、回答できるようになる。

15.02.2026 08:12 — 👍 1    🔁 1    💬 1    📌 0
Preview
Physics of Language Models: Part 3.1, Knowledge Storage and Extraction Large language models (LLMs) can store a vast amount of world knowledge, often extractable via question-answering (e.g., "What is Abraham Lincoln's birthday?"). However, do they answer such questions ...

Physics of Language Models: Part 3.1, Knowledge Storage and Extraction arxiv.org/abs/2309.14316 の分析が、とても面白い。架空の人物に関する伝記「アーニャ・ブライア・フォージャーは1996年10月2日生まれ。幼少期をニュージャージー州プリンストンで過ごす(略)カリフォルニア州メンロパークに勤務」だけからなる事前学習コーパスで訓練したモデルに、「アーニャ・ブライア・フォージャーはどこで勤務していた?」と質問しても答えられない(instruction tuning を施しても)。

15.02.2026 08:12 — 👍 1    🔁 1    💬 1    📌 0

世界中でよってたかって計算効率の改善競争(ハード bsky.app/profile/tsuc... もソフト bsky.app/profile/tsuc... も)をしているので、数年以内に電力不足問題は解決するんじゃないかな、という個人的予想。

15.02.2026 07:27 — 👍 0    🔁 1    💬 0    📌 0

子「ねーねー、自分の実力を把握できずに見栄を優先して自爆する10代男子キャラって、どう思う?」
母「かわいいなーって思う」
子「30代なら?」
母「そろそろ自分の実力を弁えろよって思う」
父(自分の実力とか余計なことを考えるより、やらねばならんことをやってるだけですが、なにか?)

14.02.2026 22:43 — 👍 1    🔁 0    💬 0    📌 0

平日は大学業務のTODOタスク、休日は家族業務のTODOタスク。やっぱりそろそろ秘書がほしい(けど、そんな予算はない)。やはりここは、なにかしら仕組み化して乗り切るしかないか。

14.02.2026 01:25 — 👍 0    🔁 0    💬 0    📌 0

日本語が母語ではない講演者(非常勤講師)を見つけてこい、という依頼。だったら、その人に記入してもらう書類は英語化しとけよ、という気持ち。

13.02.2026 22:43 — 👍 1    🔁 0    💬 0    📌 0

この分析、面白かったんですけど、じゃあもっと極端にコンテキストを長くしたタスク(RAGなど)はどう解釈したら良いのかな、と。また論文読まなきゃ。

13.02.2026 14:55 — 👍 2    🔁 0    💬 0    📌 0

言い換えると、LLM はコピペで問題を解いていると示唆されていることになるので、現状の LLM が「知的なのか?」と言うと、(相変わらず)それは違うのでは、という意見になるのですけど。しかし、LLM が参照している事前コーパスは超巨大なので、「ほとんどの日常的な業務はコピペで十分なのでは?」と言うと、その可能性は高い、という意見になります。怖い。

13.02.2026 14:35 — 👍 5    🔁 2    💬 0    📌 0
Post image Post image

少し前の論文なのですけど。Rethinking the Role of Demonstrations: What Makes In-Context Learning Work? aclanthology.org/2022.emnlp-m... が、プロンプトの実例(図2の demonstrations の部分)のラベルの正誤をランダムに入れ替えても、ほとんど性能が低下しない(図4)と報告しています。ここから、LLM は、プロンプトに含まれる実例から論理を類推して問題を解いているのではなく、実例に基づいて事前学習コーパスに含まれている既知タスクを検索して解いているのでは、と示唆されています。

13.02.2026 14:35 — 👍 6    🔁 3    💬 1    📌 1

論文を書いている学生に「チェックリスト↓を適用して?」と何度もお願いしているのですけど、なかなかやってくれない。方針がはっきりしているチェックリストの場合、チェックリストを生成AIに渡して「このチェックリストにしたがって修正して」と言った方が速いのかも知れず(ちょっと試してみたら、出てくるわ、出てくるわ。網羅されているかどうかはまだ未検討ですけど)

13.02.2026 12:09 — 👍 1    🔁 0    💬 0    📌 0

生成AIを使うと、英文メールを書くのが簡単でめちゃくちゃ助かる。日本語で雑に、これとこれを伝えて、と書いたら、丁寧なビジネス英文にしてくれる。一応、英文はチェックしましたけど、どう見ても私が書くより上手。あと、伝えるべき内容と文体を別々に指定するというのも、従来の機械翻訳では難しかったことなんだけど、チャットという形で実現できるとは思わなかったよなあ。

13.02.2026 06:50 — 👍 3    🔁 0    💬 0    📌 0

学生とは、ミスをする生き物である。学生のミスにいちいち目くじらを立ててはいけない(と分かっちゃいるものの。ため息)

12.02.2026 21:29 — 👍 2    🔁 0    💬 0    📌 0

やる気が起きない作文。完成を100とすると、0を10にする部分が一番めんどくさいわけですが。そこを生成AIにお願いすると、なにも考えていない指示でも5くらいのブツは出てくるので、やる気の壁をクリアするのが楽。その後、会話して修正してもらうと、お題によりますけど30〜50くらいのブツが出てくるので、最後に推敲を頑張れば良い…やばいな、これは堕落が捗ってしまうぞ。やっぱり、作文の大部分は、柔軟なコピペに過ぎないのかも知れない。

12.02.2026 13:24 — 👍 2    🔁 1    💬 0    📌 0

情報系センター教員をしていた当時、業務分担の押し引きでめちゃくちゃ苦労させられたことを覚えているので、職員が「○○をお願いします」と連絡してきた時、ついつい「それ本当に私の仕事?」と聞いてしまいそうになる。
(一部だとは思うのだけど、職員の中には、自分の業務を最小化することしか考えていない人がいる。そういう職員は、ほとんどの教員は年度単位で委員を交代するために、実務的な引継ぎが不十分という情報の非対称性を悪用して、できるだけ業務を教員に押し付けようとする)

12.02.2026 06:31 — 👍 2    🔁 0    💬 0    📌 0

年取ったら、Perlで書かれてて、メンテナンス困難になったシステムをメンテナンスする仕事で食べていこうと思ってたのになー。目算が狂った。

12.02.2026 01:59 — 👍 4    🔁 0    💬 0    📌 0

セキュリティガバガバと言えば、大学方面は以下略。

11.02.2026 22:59 — 👍 1    🔁 0    💬 0    📌 0

ふと気になって、ブラウザで開きっぱなしになっているタブを確認したら、数年前に「この論文面白そう、後で読もう」と思って開いたまま忘れていて、最近の変化を考えると、今から読んでも意味がないかも、という事故発生。タブの開きっぱなしも大概にせよ > 自分

11.02.2026 11:35 — 👍 1    🔁 0    💬 0    📌 0

あらま、それは難儀やな案件。

11.02.2026 09:54 — 👍 0    🔁 0    💬 0    📌 0

受験を2週間後に控えた子供、どうしても読みたい本があるから図書館に連れて行け、と言う。
書架に受験生向けアドバイス本が転がっていて、最近はどんなこと言ってるのかなあと、ぱらぱらしてみたら「受験だからと言って、生活のペースを変えない」というアドバイス。少なくとも、うちの子供は満点だな!と爆笑。
父と同じで、周囲からなにを言われようと、自分で納得したこと、自分で変えようと思ったことしか変えやしない。何度も言うけど、そのルートは厳しいねんで…

11.02.2026 01:27 — 👍 1    🔁 0    💬 0    📌 0

@tsuchm is following 20 prominent accounts