2023年5月30日

教育の場では、生成AIは生産性を上げない

先日、このブログで生成AIは意外と役に立つと書いた。それに間違いはない。ただし、自分がそれ、つまり自分ではなく生成AIが「これ」をやったと知っている限りだ。

教育の場で問題になるのは、そこのところの対称性が確保されていないこと。たとえば、学生がレポートを生成AIで作成して提出するのは造作もない。

それで終わりならいいが、本来的にはレポートは読まれ、評価される対象である。生成AIで書かれたレポートを生成AIに読ませ、その真偽(本人が書いたか、生成AIが書いたか)を判断し評価まですることは無理だ。

だとするとそれは人間が読み、判断するしかない。すでに僕の元には生成AIを使って課題を提出してきた学生のレポートがある。ほぼ間違いなく、それらは彼ではなく生成AIが作成したものだと見て取っている。

なぜなら、生成AIには知性はない。AIにあるのはずば抜けた計算能力だけ。確率的に相応しい言葉を選びながら文章を構成していくだけだ。だから、表面的にはもっともらしく、それらしい論理の筋道もあるが、人間ならではの、例えば勘違いからの突飛な発想や思い込みがない。ただネット上にある情報を「何も意味を考えず」つなぎ合わせたものに過ぎない。 

これまでその学生が書いてきたもの、話してきた調子と「路線」が違うのだ。たとえば、それまでずっとJ-POPだったのが、いきなりバッハになったら誰でも変だと判る。

だから読めば、これは生成AIが書いたレポートだと判断できる。ただし、それを「生成AI作」と断定する客観的なデータはいまのところない。あくまで主観的な推量と判断の域を出ない。

そのため必要となるのが、提出されたレポートをもとに口頭で質問をして即答させること。そうすれば間違いなく判る。だが、価値を生まないそうしたことに時間を割いてられるだろうか。

そこに生成AIを教育現場に持ち込む現時点での最大の問題点がある。ただ無駄な仕事を増し、関係者全員にストレスを与えて混乱させるだけだ。

現場を知らない人間が、したり顔して「まずは拒絶せず取り入れて、学生が生成AIを使いこなせられるようにすることが好ましい」などとノー天気なことをいうのはやめるべきだろう。