誰がログ

歯切れが悪いのは仕様です。

大学での授業と成績評価に関する生成AI雑感(2025年度版)

はじめに

昨年度、下記のような記事を書きました。

dlit.hatenadiary.com

この記事に書いたように、生成AIの使用を考慮して授業と成績評価のやり方を変えましたので、かんたんに報告しておきます。思ったより長くなったので、学位論文の指導については今回書きません(あまり提供できるような情報がありません)。また、テストのような成績評価に関する私の考えについても、上記記事をご覧ください。

先に書いておくと、何か目新しい発見があったとか、画期的な方法を考えたとか、そういう情報はありません。

この1年で教育の観点から見た生成AIに関する情報はさらに増えましたし、研究や関連書籍も出てきていますので、有益な情報が必要な方はそちらを参考にするのが良いと思います。

授業と成績評価

いわゆる初年次教育で担当しているライティング系の授業でも専門の授業でも期末レポート課題を完全に廃止して、各授業回の課題100%で成績評価を行いました。

ただし、やり方を大きく変えたわけではありません。

まずライティングの授業の方では、期末レポート課題を課していたときもその評価における割合は50%で、残りの50%は各授業ごとに課していた課題でした。期末レポート課題は復習の意味合いが強いもので、それまでの授業は怠けていたけれど期末レポートで大きく挽回、というようなことができる学生はこれまでもほぼ皆無でした(例外はやむなく複数回休んだケースなど)。

やったことは各回の課題の内容と重みを調整することで、まったく新しい評価方法を導入したというわけではありません。ただし、期末レポート課題のところで改めて特に重要なポイントを強調したり復習したりということはできなくなったので、各授業と各課題にそれらを反映させたということはあります。

なお、学生からは期末レポートがなくてラッキーという声はあまり聞こえず(単に担当教員にはそう言いづらいのでしょうけれど)、むしろ最後に挽回するチャンスがないので意外ときついという感想をいくつかもらいました。それについては「授業は怠けたけど期末レポートで挽回できるというのは幻想で、自分ができるとは思わない方が良い」という話をしました。

専門の授業では今年度の担当が演習の授業だったので、むしろ良かったです。というのも、演習の授業ではこれまでも各授業回での活動や課題でほとんど成績を決めていて、期末レポート課題は課さない年もありましたので、すっぱりやめることにしました。

演習の授業では過去には口頭発表をやってもらっていたのですけれど今はやっていません。さいきんは受講生が多くて発表の機会が確保できず、一時期発表動画を録画して提出、それをもとにディスカッションというような形を試みたこともあったのですけれどそれも厳しく、さいきんは私が研究に関する活動や方法論をデモンストレーションして、受講生にそのトレーニングをしてもらうという形にしています。

今年はテキスト処理の基礎、コーパスの扱い、デジタルコミュニケーションのデータ処理、などを取り扱いました。私の所属先では人文系でもこの辺りに強い、というか私より専門の方も多く授業でも取り扱っているようなのでちょっと簡単すぎるかなと思っていたら、意外と難しかったようです。難しかったというより、その辺りに慣れている学生と慣れていない学生の差が激しいという感じでしょうか。難易度の調整が難しかったです。

生成AIを使う課題も少し出してみました(プロンプトとアウトプット、それに対する考察を両方提出)。あまり慣れていない学生はけっこう楽しかったようです。慣れている学生はかなり凝ったものを提出してきて、感心しました。

なお、いずれの授業でも、生成AIに関する初歩的な説明と付き合うときの注意点のような話をしたら、ほかの授業であまり説明がないので助かったという感想を思ったよりもらいました。

成績を見てみると、ほぼ例年と変わらない成績分布になっていたと思います。むしろ若干低めに出ていたような気もしますので、今後も調整が必要そうです。

考え方、今後

私も昨年度、学生のレポートを呼んで一目で「これは生成AIだろうな」と思う体験はしましたしその感覚はよく分かります。しかし、「生成AIに書かせたものってすぐ分かる」と考えたり同業者と雑談したりSNSに書いたりすることと、そう判断したことを理由に成績評価を変えることの間にはかなり大きな隔たりがある、というのが私の感覚です。

生成AIによる生成物かどうかを判定するツールの精度もかなり上がってきているのだとは思います。さいきん、学会で導入というような話題も出ましたよね。ただそこまでいろいろ試してはいないものの、自分で触った限りだと、その判定結果(だけ)をもとに成績評価を決定できるほどの自信は私にはありません。

もちろん、生成AI判定ツールを使うかどうかについては是か非かではだけでなく、中間的というか、いろいろな使い方が考えられます。たとえば、提出物はすべて判定ツールにかけ、定められた数値に引っかかったものについては一律口頭での確認を行う、とか。

昨年度の記事について b:id:remcat さんからいただいた「基本的には徒弟制/ピア学習をどこまでエミュレートできるかだと思うけど」というのはその通りだと思います。

b.hatena.ne.jp

ただ、論文指導の方はなんとかなるのですけれど、受講生が多い授業だとこれがなかなか厳しくて、なんとかうまい方法を構築する必要がありそうです。もちろん、いろんな方の実践例や報告があって参考になるものもたくさんあるのですけれど、自分の授業に(どのように)取り入れられるかはある程度やってみないと分からないところも多いので。

生成AIの性質を考えると、教員が学生個人と話したりテキストでやりとりをしながらトレーニングする機会を増やすのが重要なのに、大学(少なくとも国公立)ではどんどん人が減っていて、状況的には厳しくなっています。その人の少なさを生成AIでうまくサポートできればそりゃあ嬉しいのですけれど、どうなんでしょうね。

私には、大学における人の少なさ(研究者・教員だけでなく教職員全体)はすでに危機的な状況にあって、各々の生命や健康を削りながらなんとか緩やかな撤退戦を続けているように見えます。できるだけ次世代にこの延長戦を(このままの形では)任せないようにしたいのですけれど、厳しい。

おわりに

2026年度は、専門の方で概論ではない講義の授業を担当しますので、こちらもまた新しいやり方を模索しながらやってみます。

生成AI自体はどんどんまた新しい世界が広がりつつあり、フォローするのは大変ですけれど、研究で使っていて楽しい側面もあるのですけれどね。

さて、この記事に何らかの価値が少しでも存在するとすれば、それは具体的な事例の報告であるということでしょう。大学での授業には講義以外にも演習・実習や講読などいくつかのタイプがありますし、同じ講義の授業であっても、概論と専門性の高い講義の授業ではカリキュラム上の位置付けや評価方法が違ってきます。また、論文も分野によって書き方や慣習・作法が異なるところがあります。「ケースバイケース」「○○による」と口で言うのは簡単ですが、実際にそのような実情に合わせて対応するのはけっこう大変です。でもとても大事なことだと思います。

その辺りの違いを考慮せずに「大学教育とは」「研究とは」を十把一絡げに語る人は生成AIの問題が顕在化する前から少なくありませんでした(たとえば理系文系絡みの話題とか)。そういう人たちはコメントを寄せる記事・情報の内容を読んでいるかさえ怪しく、ハルシネーションや精度の問題があったとしても、生成AIに要約してもらえる方がまだましかなと思うことすらあります。