大規模言語モデル(LLM)が人間の本質をどう捉えているかを評価しようという研究がなされ、そこでは「AIが人間に対して一定の不信感を抱いている可能性」が示唆されたとの報道がありました。査読前の段階ではあるものの、論文自体はResearchGateにて閲覧可能です。
Measurement of LLM’s Philosophies of Human Nature
※外部リンク:別ウインドウでPDFにアクセスできるページが開きます。
ざっくりと言えば、「AIが人間をどういう存在だと捉えているか」を心理テストの尺度を応用して測定した研究とのことですが、結果は「多くのAIが人間を信頼できない存在と捉えている傾向が観測され、高度なAIほどその傾向が強い」ことを示していたそうです。
これを読んで、以下のような疑問が思い浮かびました。
- 感情を持たないはずのAIが「人間に対して不信感を抱く」とは、 一体どういうことか。(そんなことがあり得るのか?)
- AIより高度化する中で、人間を信じなくなる傾向が強まる(懐疑的になる)としたら、社会はどんな問題を抱えることになるのか。
もし、研究が示す傾向が確かなものだとしたら、「どうしてそんなことが起きる(傾向が生じる)のか」を考え、防ぐ手立てを講じていく必要があるかもしれません。査読前の論文ですから「仮定の話」としつつ、あれこれと考えておかなければならないのではないでしょうか。
次期学習指導要領に向けてAIの利活用に関する本格的な議論が始まりますが、その中でも意識を向けておくべきことの一つだと思います。
❏ AIが人間に対して抱く不信感・懐疑とは?
まず前提として、AIには「感情」や「自我」はありません。したがって、AIが「不信感を抱いている」と言うのは擬人的な表現で、実際には「与えられた質問に対して、人間をあまり信頼していないかのような応答を返す傾向が見られる」ということを意味します。
生成AIは、近年のインターネット上のコンテンツ(SNS、ニュース、フォーラムなど)を学習した結果に基づき、尋ねられたことに対して、最も「尤もらしい(=確率が高い)」答えを返すように作られたもの。
つまりは、AIの応答が示す傾向は、人間がネット上に発信していた情報の傾向にほかならないということ。様々なコンテンツに分断・対立・疑念・誹謗中傷といった内容が目立つことを反映したものでしょう。
AIは、社会や人間の姿を反映しているにすぎないということですが、これを忘れて「AIは客観的な答えを返すもの」と思い込み、その回答を鵜呑みにしては、とんでもない間違いを犯しかねません。これこそが2番目の問いに繋がっていく最も本質的な「危険」と言えそうです。
❏ 人間社会の鏡がAI~常に中立・客観的とは限らない
AIが過去のデータから学習している以上、その回答には人間社会が抱えてきた偏見や差別的傾向がそのまま再現されがちです。
Amazonの採用AIが過去の応募者データから「女性応募者を不利に扱う傾向」を示した問題を覚えておられる方もいるのでは?
ある属性を共有する集団に対して、AIがそうしたバイアスのかかった評価を出力したときなどに「そうじゃないだろ?」とブレーキを踏めるのは、AIを利用している人間にほかならないはずです。
また、AIが「人間は信用できない」「利己的だ」「一貫性がない」などと推論するようになると、対話(チャット)の中に無意識的な距離感や皮肉、猜疑心のようなものが現れることもありそうです。
AIが教師やカウンセラー、相談相手として使われる場面では、共感性や安心感が不可欠。不信感まるだしのAIに本音で相談をしたり、建設的な対話を続けようとする気にはなれないはず。AIとの協働・支援関係が成立しにくくなれば、効果的な活用は難しくなってしまいます。
❏ この論文の示唆を受けて、教室で考えるべきことは?
これからの教室ではAIの利活用がますます増えていきます。そのときに「AIの答えに潜む危うさ」をきちんと理解しておかないと、大変なことになってしまいます。
それらを学ばせることができるのは、先生方の観察と指導が届く、教室をおいてほかにはないはずです。
AIが返す答えに人間不信が感じ取れるときに、「人間こそが、自分たちの言動や構造(SNSでの攻撃、フェイクニュース、自己矛盾など)を自省すべき段階にあると考えられてこそ、好適な利活用が可能です。
AIの答えに対して、「そこはこう違う」「この考え方の方が合理的では」と問い返す力も必要です。チャット内でメモリが続く限り、前段を踏まえた対話が重ねられ、「偏見」に振り回されにくくなります。
先の論文では、AIモデルがユーザーの好みに合う応答を生成できるようにする「強化学習」のフェイズを経て、人間に対する「不信感」が増幅すると書かれています。
AIを活用する(=チャットを繰り返す)中で如上の問い返しが歪んだものであったら、AIはますます好ましくない答えを返すようになっていくという顛末が予想されます。(追記もご参照ください)
事物を精緻に観察して正しく問いを立てられる力を養うこと、手にした情報を鵜呑みにしない姿勢を育むことなどが正しい利活用の前提です。
追記:「強化学習を経て、AIは人間不信を募らせる」
本文中でも少し触れたように、AIが人間に対する不信感を強める傾向にあるのは「強化学習」と呼ばれる最終調整の段階においてです。
この強化学習とは、「人間が好む応答を優先的に学ぶ」仕組みのこと。ユーザーからの評価やフィードバックをもとに、出力傾向が調整されます。プロンプトに「社会に広がる悲観的・懐疑的な見方」を読み取るとAIはそれを「好ましいもの」とみなし、それに沿った回答をするように「仕向けられてしまう」ということです。
この仕組みの中で「人間の問いの質や姿勢がAIの応答を左右する」という理解はとても大切。教室でも日常でも、AIを「信じすぎない」だけでなく、「どう問いかけ、どう関わるか」を考えさせましょう。
生徒に学ばせたいことがもう一つ。用意周到なものであれ、その場の思いつきであれ、ネット上での発言はAIが学ぶ材料になります。
本稿で取り上げた問題をこれ以上厄介なものにしないためにも「調べ、考え尽くしてから、責任ある発信をする」ことを習慣にさせましょう。未来のAIと人間が良い関係を結べるかは、ここにかかっています。
教育実践研究オフィスF 代表 鍋島史一