誰がログ

歯切れが悪いのは仕様です。

大学での授業と成績評価に関する生成AI雑感(2025年度版)

はじめに

昨年度、下記のような記事を書きました。

dlit.hatenadiary.com

この記事に書いたように、生成AIの使用を考慮して授業と成績評価のやり方を変えましたので、かんたんに報告しておきます。思ったより長くなったので、学位論文の指導については今回書きません(あまり提供できるような情報がありません)。また、テストのような成績評価に関する私の考えについても、上記記事をご覧ください。

先に書いておくと、何か目新しい発見があったとか、画期的な方法を考えたとか、そういう情報はありません。

この1年で教育の観点から見た生成AIに関する情報はさらに増えましたし、研究や関連書籍も出てきていますので、有益な情報が必要な方はそちらを参考にするのが良いと思います。

授業と成績評価

いわゆる初年次教育で担当しているライティング系の授業でも専門の授業でも期末レポート課題を完全に廃止して、各授業回の課題100%で成績評価を行いました。

ただし、やり方を大きく変えたわけではありません。

まずライティングの授業の方では、期末レポート課題を課していたときもその評価における割合は50%で、残りの50%は各授業ごとに課していた課題でした。期末レポート課題は復習の意味合いが強いもので、それまでの授業は怠けていたけれど期末レポートで大きく挽回、というようなことができる学生はこれまでもほぼ皆無でした(例外はやむなく複数回休んだケースなど)。

やったことは各回の課題の内容と重みを調整することで、まったく新しい評価方法を導入したというわけではありません。ただし、期末レポート課題のところで改めて特に重要なポイントを強調したり復習したりということはできなくなったので、各授業と各課題にそれらを反映させたということはあります。

なお、学生からは期末レポートがなくてラッキーという声はあまり聞こえず(単に担当教員にはそう言いづらいのでしょうけれど)、むしろ最後に挽回するチャンスがないので意外ときついという感想をいくつかもらいました。それについては「授業は怠けたけど期末レポートで挽回できるというのは幻想で、自分ができるとは思わない方が良い」という話をしました。

専門の授業では今年度の担当が演習の授業だったので、むしろ良かったです。というのも、演習の授業ではこれまでも各授業回での活動や課題でほとんど成績を決めていて、期末レポート課題は課さない年もありましたので、すっぱりやめることにしました。

演習の授業では過去には口頭発表をやってもらっていたのですけれど今はやっていません。さいきんは受講生が多くて発表の機会が確保できず、一時期発表動画を録画して提出、それをもとにディスカッションというような形を試みたこともあったのですけれどそれも厳しく、さいきんは私が研究に関する活動や方法論をデモンストレーションして、受講生にそのトレーニングをしてもらうという形にしています。

今年はテキスト処理の基礎、コーパスの扱い、デジタルコミュニケーションのデータ処理、などを取り扱いました。私の所属先では人文系でもこの辺りに強い、というか私より専門の方も多く授業でも取り扱っているようなのでちょっと簡単すぎるかなと思っていたら、意外と難しかったようです。難しかったというより、その辺りに慣れている学生と慣れていない学生の差が激しいという感じでしょうか。難易度の調整が難しかったです。

生成AIを使う課題も少し出してみました(プロンプトとアウトプット、それに対する考察を両方提出)。あまり慣れていない学生はけっこう楽しかったようです。慣れている学生はかなり凝ったものを提出してきて、感心しました。

なお、いずれの授業でも、生成AIに関する初歩的な説明と付き合うときの注意点のような話をしたら、ほかの授業であまり説明がないので助かったという感想を思ったよりもらいました。

成績を見てみると、ほぼ例年と変わらない成績分布になっていたと思います。むしろ若干低めに出ていたような気もしますので、今後も調整が必要そうです。

考え方、今後

私も昨年度、学生のレポートを呼んで一目で「これは生成AIだろうな」と思う体験はしましたしその感覚はよく分かります。しかし、「生成AIに書かせたものってすぐ分かる」と考えたり同業者と雑談したりSNSに書いたりすることと、そう判断したことを理由に成績評価を変えることの間にはかなり大きな隔たりがある、というのが私の感覚です。

生成AIによる生成物かどうかを判定するツールの精度もかなり上がってきているのだとは思います。さいきん、学会で導入というような話題も出ましたよね。ただそこまでいろいろ試してはいないものの、自分で触った限りだと、その判定結果(だけ)をもとに成績評価を決定できるほどの自信は私にはありません。

もちろん、生成AI判定ツールを使うかどうかについては是か非かではだけでなく、中間的というか、いろいろな使い方が考えられます。たとえば、提出物はすべて判定ツールにかけ、定められた数値に引っかかったものについては一律口頭での確認を行う、とか。

昨年度の記事について b:id:remcat さんからいただいた「基本的には徒弟制/ピア学習をどこまでエミュレートできるかだと思うけど」というのはその通りだと思います。

b.hatena.ne.jp

ただ、論文指導の方はなんとかなるのですけれど、受講生が多い授業だとこれがなかなか厳しくて、なんとかうまい方法を構築する必要がありそうです。もちろん、いろんな方の実践例や報告があって参考になるものもたくさんあるのですけれど、自分の授業に(どのように)取り入れられるかはある程度やってみないと分からないところも多いので。

生成AIの性質を考えると、教員が学生個人と話したりテキストでやりとりをしながらトレーニングする機会を増やすのが重要なのに、大学(少なくとも国公立)ではどんどん人が減っていて、状況的には厳しくなっています。その人の少なさを生成AIでうまくサポートできればそりゃあ嬉しいのですけれど、どうなんでしょうね。

私には、大学における人の少なさ(研究者・教員だけでなく教職員全体)はすでに危機的な状況にあって、各々の生命や健康を削りながらなんとか緩やかな撤退戦を続けているように見えます。できるだけ次世代にこの延長戦を(このままの形では)任せないようにしたいのですけれど、厳しい。

おわりに

2026年度は、専門の方で概論ではない講義の授業を担当しますので、こちらもまた新しいやり方を模索しながらやってみます。

生成AI自体はどんどんまた新しい世界が広がりつつあり、フォローするのは大変ですけれど、研究で使っていて楽しい側面もあるのですけれどね。

さて、この記事に何らかの価値が少しでも存在するとすれば、それは具体的な事例の報告であるということでしょう。大学での授業には講義以外にも演習・実習や講読などいくつかのタイプがありますし、同じ講義の授業であっても、概論と専門性の高い講義の授業ではカリキュラム上の位置付けや評価方法が違ってきます。また、論文も分野によって書き方や慣習・作法が異なるところがあります。「ケースバイケース」「○○による」と口で言うのは簡単ですが、実際にそのような実情に合わせて対応するのはけっこう大変です。でもとても大事なことだと思います。

その辺りの違いを考慮せずに「大学教育とは」「研究とは」を十把一絡げに語る人は生成AIの問題が顕在化する前から少なくありませんでした(たとえば理系文系絡みの話題とか)。そういう人たちはコメントを寄せる記事・情報の内容を読んでいるかさえ怪しく、ハルシネーションや精度の問題があったとしても、生成AIに要約してもらえる方がまだましかなと思うことすらあります。

ブログのカテゴリーに「生成AI」を新しく作りました

このブログのカテゴリーとして「生成AI」を作って、関連する記事を入れておきました。

dlit.hatenadiary.com

理由は2つあります。

1つ目は、生成AIには少しだけ言及している記事もあるので、検索だとそういう記事がノイズになって生成AIに具体的に言及している記事が探しにくいと感じたこと。

2つ目は、研究や教育のことをはじめ、さまざまな話題において、今後生成AIに言及しながら書く機会はけっこうありそうだという感触があることです。

2025年度の授業と論文指導関連のことについても近いうちに書きます。

ZedとClaude Codeで研究発表の準備をした感触

はじめに

先日、Tsukuba Morphology Meeting 3という研究会で、 "Japanese Denominal Verbs in Digital Game Discourse" というタイトルの研究発表をしました。

ひさしぶりに英語での口頭発表だったということもあり、生成AIにもいろいろ手伝ってもらってみたのでそのときの体験談を書きます。主に英語とMarpスライドの話です。

研究者としての経験があまりない方(特に学生)も見ているかもしれないので一応書いておくと、生成AIのアウトプットはすべて確認した上で使用しています。また、研究自体プロジェクトの初期段階の状態なことに注意してください(学会発表でやるにはもっと洗練させる必要あり)。

環境やツールなど

今回使用したツールなどは下記の通りです。

  • エディタ:メインはZed、一部Cursorも補助的に使用(使い分けについては下記)
  • 生成AI:ほとんどClaude Code (Proプラン)、一部Claude (Opus 4.6)で補助

研究のメモや原稿の下書きはすべてObsidianで書いているのですが、今回は特別な使い方はしていないので言及しません。私はObsidianのテキストは基本自分ですべて書いていて生成AIで直接修正したりするのが好きではないので、ObsidianのVaultからマークダウンファイルをプロジェクトフォルダにコピーしてから使っています。

生成AIにやってもらったこと

今回の研究は今やっているデジタルゲームを対象にした言語学的研究で、これまでブログでも言及したことがあったゲーム内の表現ではなく、プレーヤー間のコミュニケーションを対象にしたものです。データは、YouTube Data APIを使ってYouTube動画に付いているコメントを収集しました。

もうちょっと詳しく書いておくと、武器の名称に言及しているコメントをできるだけ効率よく集めたかったので、ゲームに関する動画をすべて対象にしたわけではなく、動画の種類自体を絞り込みました。

という前提で生成AIに手伝ってもらったのはおおよそ下記の作業です。データの分析はさせていません。

  • 対象とするゲームの選定の相談:武器が重要なゲームで実況動画が多いものがの望ましく、今回はエルデンリングとモンスターハンターに決定
  • YouTube Data APIを用いて動画コメントを収集するためのプログラミング:このAPIでは直接コメントのテキストに条件をかけることができないようなので、まず対象動画をタイトルで絞り込んでからコメントを収集
  • スライドの内容を英語にする(一部):下記に詳述
  • マークダウンファイルからMarpでスライドを作成して、CSSでデザインの調整:言語学のグロス付き例文を表で作ってみました。下記に詳述
  • スライドの内容から英語の読み上げ原稿を作成

ZedとClaude Code

結論から書くと、ZedというエディタからClaude Codeがとても使いやすくなったと感じました。

Zedは操作感やデザインが好きで、メインのエディタとして以前から使用しています(Zed AIスタート前から)。この前に愛用していたAtomの後継のような位置付けであるということもありますが、あまり複雑なことはやらないからなのか全体的にすっきりしていて好きです。

ZedとAnthropicはZedが生成AIに取り組み始めた初期段階から連携があったようで、VS CodeやJetBrainsのIntelliJ IDEAと違い/ideコマンドなしでもスムーズに使えるという話がありました。

しかし、少なくとも当時(2025年前半)私が使用した感触としては、確かにZedのターミナルパネルからClaude Codeを使えるものの、あまりうまく連携できているという感じはありませんでした。そのため、Claude Codeを使うときはほかのエディタに切り替えていた時期もあったほどです。

今はその必要はなくなったのではないかと思います。すごく連携がスムーズになりました。「Agent」として明確に組み込まれてGUIでも分かりやすくなりましたね。ちなみに今はCodexやGemini CLIなども使えるようになっているようです(こちらは試していません)。

Zedの難点というかまだこれからというところは、拡張機能がVS Codeに比べるとだいぶ少ないことです。あとで触れるMarpスライドのLive Previewを見ながら編集する作業のときは、Cursorでやりました。

研究内容を英語にする

もともと英語が苦手なので、生成AIの登場以前からいろいろなツールを試してきました。

今回、生成AIで英語スライドを作成していてこれは良いなと思ったのは、部分的に英語にしてもらうのが簡単なところです。

どういうことかと言うと、下記のような手順でやりました。なお、最初からMarpでスライドにする予定だったので、マークダウンファイルで作成しています。

  1. 自分で英語で書けるところは自分で書く
  2. 良い英語の表現がすぐに思いつかないところは日本語で書いておく
  3. 日本語のところだけ英語にしてもらう(ついでに英語部分のチェックも)
  4. 日本語とその英訳の対照表、英語チェックの結果も出力させる

私はもともと研究メモや何かの下書きも、英語の表現の方が先に出るというかしっくりくる場合は英語で書くということがあります。

ほかの翻訳ツールでも今はこういうことができるかもしれませんが、英語で書いた部分については英語のチェック、日本語で書いた部分は英訳、というのをまとめてお願いできるのは楽だと思います。

なお、どこをどうしたのかのチェックは必ずやった方が良いので、4の手順を踏んでいます。また、英語チェックについては、修正しない方が良いこともアカデミックライティングではよくあるので(英文校閲を使ったことがある方なら分かるでしょう)、直接修正させるのではなく、修正案をリストさせる形にしています。

Marpでスライドにする

Marpはマークダウンファイルからスライドを作成する仕組みです。実はObsidian内でもMarpでスライドのファイルを出力することはできます。

Zed+生成AIでやっていて良いなと思ったのは、スライドデザインを調整するCSSを作成・修正するのも一緒に簡単にやってもらえるところです。

今回は、言語学で使用するグロス付き例文をMarpでうまく表示させるために、表を使ってみました。このアイディア自体は、Wordなどで語の位置を揃えるためにExcelに例文を入れて見た目を調整するという、以前からあるものを応用しています。

表を使って作成したグロス付き例文の例(スクリーンショット)

白地のスライドから切り取っているので少し分かりにくいですけれど、このようにグロス付き例文では例文における語とその下にある説明のスタート位置を揃えなければいけません。これをそれぞれ表のセルに入れることで実現しています。ちなみにこれはゲーム「ファイナルファンタジー」シリーズでトンベリに包丁で攻撃されることを「包丁された」と表現している武器名称の動詞化の例です(実例ですが非常にレア)。

ある程度CSSは書けるのでやろうと思えば自力で書くこともできるのですけれど、私の力量だと「枠線は表示しない、セルの背景色は変えない、…」というように希望を書いてやってもらう方が早いです。

これを「ling_ex」のようなスタイルとして追加してもらいました。ほかのスライドでは普通のスタイルの表も使いたいので、スライドによってスタイルを指定してデザインを使い分けるようにする必要があります。

Marpに慣れていない、あるいはまったく初めての人でも、おそらく生成AIに説明してもらいながら作業を進めれば、ここまでやるのはそこまで難しくはないでしょう。

Marpを使っているのは下書きを書くObsidianからの移行が楽ということもありますが、そのほか(後)への橋渡しも考えています。もっと複雑な内容を入れたくてMaprスライドでは力不足だとなった場合は、LaTeX形式に変換してBeamerでスライドにするというやり方が考えられます。人力でやるのは大変でしょうけれど、生成AIに作業してもらえば、かなり省力化できます。

英語の読み上げ原稿

一言一句読み上げる発表はあまり好きではないのですけれど、英語力があまりないので、かなり完成版に近い原稿を作成しておかないと、英語での口頭発表は不安です(メモやスライドを見ながらその場で英語表現を作って話すのは難しい)。

今回は、スライドのファイルから、当日発表のときに話すための原稿も生成AIに作成してもらいました。

そのクオリティには正直、感心しました。元々そのスライドに主張やポイントはすべて書いてあったということもあるでしょうけれど、たとえば例文の説明もかなり基本的なところはできていました。日本語の表現について言語学のグロス付き例文の形式で英語で書かれているものを適切に説明できているのは、やはりすごいと思います。

また、スライドから原稿にしたときに表現を変えたところや、追加したところもすべて別ファイルでリストアップしてもらって、チェックしています。

作業環境と確認作業

このすべての作業を、Zed上で行っています。1つのプロジェクトフォルダの中にすべてのファイルが入っているので、ほかのファイルを参照して新しいファイルを作成するとか、作業過程を整理するとか、重要なファイルとその背説明のリストを作成するといったことも簡単にできます。

また、ところどころで言及しているように、生成AIのアウトプットを確認することは重要です。英語の表現も、かなりクオリティが良くて助かりましたけれど、提案を採用しなかったのもあれば、しっくりこなくて自力で修正したところもありました。

おわりに

もうすでに英語非母語話者の英語論文が増えているというような調査も見かけましたけれど、英語が苦手な人間としては、生成AIはかなり助かるツールだなあというのをまた実感しました。英語についてかかる時間は確実に今までよりも短縮されて、その分研究内容に割く時間を比較的確保することができました。

ただ、やっぱり生成AIのアウトプットの確認は絶対必要で、今回時間短縮につながったのは、自分の専門分野の英語のチェックだったからです。これが仮に自分になじみのないトピックの内容だったら、英語のチェックにももっと時間がかかっていたでしょう。

あと、書けるところは自分で英語で書いてしまうというのも重要かなと思いました。そうすれば、生成AIのアウトプットを確認する量も減りますしね。

これで研究を量産できるようになるというような実感はあまりありませんけれど、工夫次第では、個々の研究内容をより良いものにしたりといったことには活用できるかもしれません。