「「スポンジ人間」化を回避せよ」と題した面白い論考を新聞で読んだ。
マーゴット・カミンスキーの「責任スポンジ」の概念をもとに、進化するAIの下す意思決定の責任、あるいはツケをいかに人間が代わりに負わされているかについて説かれていた。
例えば、そのひとつの例が自動運転システムである。自動運転システムを開発している自動車会社の基本的なポリシーでは、緊急時にはAIが自動運転を停止し、人間の運転者に操縦を委ねるとしている。だが、実際に自動運転で発生した多くの事件を振り返ってみると、実際の事故の 1秒前に自動操縦が停止されている。だが、人間がその1秒の間にハンドルを持って事故を回避するのは現実的ではない。にもかかわらず、最終的な事故の責任の所在は人間に委ねられている(スポンジのように責任を吸わされいる)。
われわれのベースにある考え方は、AIが行うことは正確でめったなことでは間違いが起こらないというもの。だが、間違いはたまさかであろうが発生する。そうした場合、中身がブラックボックスのAIに対して責任を求めることができず、その代わりと言ってはなんだが、人間に責任を負わせることで決着をつけようとする考えがある。
スポンジ化を回避せよ、と言う著者は、そうした理由として4点を挙げている。まず、人間はAIによる評価(意思決定)を過剰に信頼してしまうということ。人は、そうした認知バイアスを持っている。2点目は、人間がAIの評価の妥当性を批判的に吟味する能力そのものを失ってしまう(スキルフェード)という点。3点目は、外部的プレッシャーで、AIが下した評価から逸脱する人による判断が周囲から不審な行為とみなされるだけではなく、その逸脱についてなぜなのか重い説明責任が求められる点。そして4点目は、AIが下した判断について人間が介入していくことが時間的コストを投じているとして否定的に捉えられていることである。
いずれもなるほどと納得してしまうポイントではあるが、その根本にあるのは認知的な負荷を避けて楽をしようとする人間の本性にあるように思う。
AIの支援を受けた大腸内視鏡医による腺腫検出率は、そうでない時に比べて明らかに低下した調査結果がある。認知オフロードと呼ばれている、認知的役務を放棄してしまう傾向がもたらしたと考えられる。つまり人間はAIに頼ることができることで、AIを容易に信用して寄りかかってしまい、そのためにAIに飲み込まれてしまうと言えるかもしれない。
ここまでAIを例に述べてきたが、これはAIに限らず、すべての機械的システムに対して言えることではないか。多くの現代人のなかには機械信仰とでも言うか、機械やシステムがつくり出す事(アウトプット)は、人間がやったことよりもはるかに完全であり、間違いがないに違いないといった思い込みがあるように思う。
そして高度化されたシステムはその中身がブラックボックスであるがために、人がなぜそういう結果に至ったのかを理解するためのアルゴリズムを完全に把握することが不可能な現実がある。
これまでビジネススクールで修士論文の審査を数多く行ってきたが、振り返って思うに、論文作成の目的で定量的な調査を行い、それを統計ソフトで処理した論文を書いた学生たちの多くは、ソフトウェアによってアウトプットされた分析結果をそのまま、それが神の声とでもあるかのように信用して論文の結論を導いていた。
そもそもデータ収集のための被験者特性の是非やサンプリングのやり方自体が決して科学的ではないにもかかわらず、アンケート調査などで最終的にある一定数の回答数が得られたと言うだけで安心し、後はそれをソフトウェアに分析させ、そこに何か真実が浮かび上がったと勘違いをしているわけだ。それらのプロセスを詳細に吟味し検討する認知的負荷を端から諦めてる、いや放棄している。
そうした学生がビジネスの世界に戻り、例えばリサーチ会社があげてきた消費者調査の結果をもとにマーケティング戦略などを立案する際、こうした学生はいとも簡単にリサーチ会社のレポートにミスリードされ、結果として間違った戦略を実行するんだろうなと、つねづね不安に思っていた。
システムといったものは、およそ人間が使って、自分たちに役立たせるためのものであり、それが独立して存在し、勝手に何か真実を解き残してくれるものではない。
つねに人がその根本のところをチェックし、批判的に検討しなければ、まさに人間は最終的な結果責任だけを取らされる悲しい「スポンジ人間」になってしまう。これはAIが急速に普及してきた今、あらたに登場してきた問題ではなく、システムと言うものを人間が使い始めた当初からずっとそこに存在している問題なのである。
システムを安易に信用しないこと、そしてやはり生身の人間としての労を惜しまないことも大切と改めて考えさせられた。