ニュース番組でAIの軍事利用が急速に進んでいる話題が取り上げられていた。
思い出すのは、イスラエルによるパレスチナ・ガザ地域への攻撃で嫌というほど見せられた、モニター上で建造物や施設、車両などが自動で照準を合わされ、あっという間にミサイルで爆破される例の映像だ。
AIが何を攻撃するかを決定し、実際に攻撃し、その評価まで行うのに要する時間はほんの数分。人が介在し、その攻撃の適正さなどを判断する時間はすでになくなっている。
つまり、AIが勝手になんでも攻撃を進めているのが既に現実なのである。具体的な手順は、以下の画面に写っている6つのプロセスだ。
![]() |
| NHK『国際報道』 |
よく見てみると、これらの6ステップはAIによる自律的な攻撃だけのことではなく、AIを用いた他のジョブにもしっかり当てはまる。
最近では、ほとんどの学生が課題の作成に関して、程度の差はあれこそAIを利用しているという。そして、AIに卒業論文や修士論文の手伝い(作成)をさせる際の流れもほとんど同様に思える。
修士論文を作成するように学生に命じられたAIは、まず①指定の分野においてリサーチ・クエスチョンを探し(Find)、②その学生の修論として使えそうなトピックを特定し(Fix)、③周辺領域の先行研究を集め(Track)、④参考文献として利用できそうな記事を選定し(Target)、⑤それらをベースに論文本体を執筆(Engage)、最後に⑥研究の限界をまとめる(Assess)といった具合だ。
また番組では、進歩するAIの軍事利用のなかで、もっともその利用が懸念され、また課題となっているものとしてLAWS(Lethal Autonomous Weapons Systems 自律型致死兵器システム)が紹介されていた。
これは差し詰め、学生たちに当てはめれば、LAWS(Longing Autonomous Writing Systems 自立型渇望的文章作成システム)といったところか。これさえあれば、レポートはもちろん、卒論でも修論でもあっという間にできちゃう。
だからこそ、軍事面においても大学での学習面においても倫理について考えておくことが重要になる。ただ単に、「便利なツールなんだから使わない手はない、上手に使おう!」で済ませていてはダメなのである。
その番組の最後でまとめ的に取り上げられていたのが「自動化バイアス」だった。これもまた、というか、戦場においての軍事利用よりも大学などの教育機関においてこそ注意しなければならないポイントである。
自分自身、生成AIを日々使っていて感じるのは、AIは実にうまく「もっともらしい」答えを出してくるなという驚き。決して分からないとか、知らないと匙を投げたりしない。必ずそれなり(に見える)回答を、それも自信満々にひねり出してくる。
そうしたとき、出てきた答えを見て違和感を感じたら自分でそれを深掘りして調べてみる。と、そうした時はAIのアウトプットはたいてい間違っている。実際は、まだその程度なのだ。
だが、もし急いでいたり、そうした手間を惜しんだり、端から盲目的にAIが吐き出す回答を疑わない習慣になっていたら当然ながら間違いにも気づかないままに終わる。
そこが、まさに自動化バイアスの罠である。



