先日、このブログで生成AIは意外と役に立つと書いた。それに間違いはない。ただし、自分がそれ、つまり自分ではなく生成AIが「これ」をやったと知っている限りだ。
教育の場で問題になるのは、そこのところの対称性が確保されていないこと。たとえば、学生がレポートを生成AIで作成して提出するのは造作もない。
それで終わりならいいが、本来的にはレポートは読まれ、評価される対象である。生成AIで書かれたレポートを生成AIに読ませ、その真偽(本人が書いたか、生成AIが書いたか)を判断し評価まですることは無理だ。
だとするとそれは人間が読み、判断するしかない。すでに僕の元には生成AIを使って課題を提出してきた学生のレポートがある。ほぼ間違いなく、それらは彼ではなく生成AIが作成したものだと見て取っている。
なぜなら、生成AIには知性はない。AIにあるのはずば抜けた計算能力だけ。確率的に相応しい言葉を選びながら文章を構成していくだけだ。だから、表面的にはもっともらしく、それらしい論理の筋道もあるが、人間ならではの、例えば勘違いからの突飛な発想や思い込みがない。ただネット上にある情報を「何も意味を考えず」つなぎ合わせたものに過ぎない。
これまでその学生が書いてきたもの、話してきた調子と「路線」が違うのだ。たとえば、それまでずっとJ-POPだったのが、いきなりバッハになったら誰でも変だと判る。
だから読めば、これは生成AIが書いたレポートだと判断できる。ただし、それを「生成AI作」と断定する客観的なデータはいまのところない。あくまで主観的な推量と判断の域を出ない。
そのため必要となるのが、提出されたレポートをもとに口頭で質問をして即答させること。そうすれば間違いなく判る。だが、価値を生まないそうしたことに時間を割いてられるだろうか。
そこに生成AIを教育現場に持ち込む現時点での最大の問題点がある。ただ無駄な仕事を増し、関係者全員にストレスを与えて混乱させるだけだ。
現場を知らない人間が、したり顔して「まずは拒絶せず取り入れて、学生が生成AIを使いこなせられるようにすることが好ましい」などとノー天気なことをいうのはやめるべきだろう。