生成AIの言い間違いとどう付き合うか――「確かめる力」を育てる情報学教育へ

代表blog 情報学教育研究会 代表 横山成彦 コラム

みなさん,こんにちは。

2025年の一年をふりかえると,「生成AI」という言葉を聞かない週はほとんど無かったのではないでしょうか。授業で使ってみたという先生もいれば,校内ではまだ「様子見」という学校もあります。

ChatGPTを提供するOpenAI社のサム・アルトマン最高経営責任者(CEO)は,「GPT3は高校生,GPT4は大学生,GPT5は博士号レベルの専門家」と自評しています。また,金沢大学らの研究によると,GPT4ですでに我が国の医師国家試験の試験問題を解かせたところ,合格最低点を上回る結果を達成したとしています。

これだけ優秀な生成AIですが,困ったことに,時折,とてももっともらしい顔をして,きっぱり間違うということがあります。

情報学教育研究会の代表として,いろいろな現場のお話をうかがう中で,私が強く感じているのは,「AIの言い間違い」そのものよりも,それをきっかけに何を学ぶかが問われているのだということです。本稿では,生成AIの答えとどう付き合うのか,そしてその中でどのような「確かめる力」を育てていくのかを,情報学教育の視点から考えてみたいと思います。

生成AIの答えは「正解」ではなく「仮説」

まず,前提を共有したいと思います。生成AIは,膨大なデータから「それらしい答え」を統計的に組み立てる仕組みです。つまり,生成AIが返してくれる文章は,厳密な意味での「事実」ではなく,「もっともらしい仮説」に近いものです。

ところが人間の側には,「流ちょうに書いてあるものは正しそうに見える」という弱点があります。整った文章,専門用語,それらしく並んだ数字――こうした「雰囲気」が揃っていると,私たちはつい「きっと合っているだろう」と受け取りがちになります。

大人でもそうなのですから,児童生徒にとってはなおさらです。レポート作成の補助として生成AIを利用したとき,生成AIの答えをそのまま写してしまうだけでなく,内容の誤りに気付けないという心配も生まれます。

だからこそ,生成AIの出力を「最初の仮説」と位置づけ,そこから一緒に検証していくという姿勢を,授業の中で意図的に作っていく必要があります。

「変な回答」をあえて教材にしてみる

先生方とお話をしていると,「試しに聞いてみたら,とんでもない回答が返ってきた」というエピソードをよく耳にします。存在しない文献をそれらしくでっち上げる,事実と異なる歴史的出来事を自信満々に述べる,数式の途中計算だけは完璧なのに答えが違っている,などなど。

このあたりの検証については,過去の代表blogでも取り上げたとおりです。

このような「変な回答」は,怖がるだけではもったいない素材です。例えば次のような授業も考えられます。

・あえて生成AIに質問を投げかけ,返ってきた回答の中から「怪しいところ」を探す活動にする。
・生成AIが提示した「もっともらしい嘘」を,人間同士の話し合いで検証していく。
・正しい情報源(教科書,信頼できるウェブサイト,統計資料など)と突き合わせて,どこが違うのかを具体的に比べる。

ここで大切なのは,生成AIを「間違えるからダメだ」と切り捨てるのではなく,「間違ってくれるからこそ,確かめ方を学べる相手」として扱うことです。失敗例を教材化する発想は,これまでも理科の実験や防災教育などで行われてきましたが,生成AIとの付き合い方でも同じことが言えます。

子どもたちに身につけてほしい「確かめる力」

では,具体的にどのような「確かめ方」を育てていけばよいのでしょうか。私は,少なくとも次の3つの視点が重要だと考えています。

一つ目は,「ほかの情報源と比べる」力です。生成AIの回答だけを見て完結させるのではなく,教科書や資料集,公的機関のWebサイト,図書館の資料など,別の情報源にあたることを習慣化できるよう支援する必要があります。これは,これまでの情報活用能力でも繰り返し語られてきた原則ですが,生成AI時代には優先度が一段と上がります。

二つ目は,「出典をたどる」力です。生成AIの答えそのものには,出典が明示されないことが多いからこそ,子どもたちには「根拠が分からない情報は,すぐに信じない」という姿勢を育てたいところです。生成AIを使う場面でも,教師が別途,信頼できる出典を示す,あるいは出典を一緒に探す活動とセットにしておくことで,「根拠を確認する」という学びにつなげることができます。

三つ目は,「本当にそうだろうか」と問い直す力です。これは,具体的なスキルというより,学びの姿勢に近いものです。生成AIの回答だけでなく,友人から聞いた噂,SNSに流れてきた情報,大人の説明ですら,一度立ち止まって考えてみる。情報を疑うことと,人を疑うことを混同しないように配慮しながら,「一拍おいて確かめる」という習慣を,情報学教育の中で位置づけていく必要があります。

生成AI時代の情報モラルは「疑う礼儀」でもある

これまで情報モラルというと,「してはいけないこと」を中心に語られてきた歴史があります。無断転載はしてはいけない,他人を傷つける書き込みはしてはいけない,個人情報はむやみに公開してはいけない。こうしたルールは,もちろん今後も極めて重要です。

しかし,生成AIやSNSが当たり前になった社会では,「情報を鵜呑みにしないこと」自体が,ある種の礼儀にもなりつつあります。

例えば,生成AIが生成した文章をそのまま人に送りつけるとき,そこに誤りが含まれていれば,相手の時間を奪ってしまうことになります。動画の内容を確かめもせずに共有すれば,誤情報の拡散に加担してしまうかもしれません。

情報を疑うことは,情報の向こう側にいる誰かを大切にすることでもあります。「あなたの言うことが信用できない」ではなく,「あなたが信じている情報が本当に正しいか,一緒に確かめたい」という姿勢を育てる――この視点を,生成AI時代の情報モラル教育の中に,もっと丁寧に位置づけていきたいと考えています。

先生自身が「確かめるプロセス」を見せる

授業で生成AIを使うとき,先生が「これは便利な道具です」と紹介するだけでは,子どもたちは生成AIを単なるブラックボックスとしてしか見られません。大切なのは,先生自身が「確かめるプロセス」を意識的に見せることだと思います。

例えば,生成AIが出した答えを教室のスクリーンに映し出しながら,次のように語りかけることができます。

「いまの説明は分かりやすいけれど,ここは本当に合っているか確認してみましょう。」
「この数字には出典が書いていませんね。どこから取ってきたのか,別の資料で調べてみましょう。」

こうしたやり取りを積み重ねることで,生成AI活用の場が,そのまま「情報の確かめ方」を学ぶ場へと変わっていきます。先生が完璧な答えをすべて知っている必要はありません。「一緒に確かめてみよう」と子どもたちに提案すること自体が,生成AI時代の教師像の一つなのだろうと思います。

情報学教育研究会としての取り組みと,これからの課題

情報学教育研究会では,これまでもフォーラムや研究会,Webでの発信を通じて,「生成AIとの付き合い方」をさまざまな角度から議論してきました。授業での活用事例,校務での利用ルールづくり,保護者への説明の工夫など,現場から寄せられた実践は少しずつ蓄積し始めています。

一方で,「生成AIの言い間違い」をどう扱うかについては,まだ十分とは言えません。実際に,どのような誤答が授業の中で問題になっているのか,どのような工夫でそれを学びに変えているのか――こうした情報を,もっと広く集め,可視化していく必要があります。

その意味で,これからの情報学教育研究会には,次のような役割があると考えています。

・現場で遭遇した「生成AIの変な回答」と,それを授業でどう扱ったかという事例の収集。
・「確かめる力」を育てる短時間のワークや教材案の共有。
・生成AIをめぐる制度やガイドラインと,現場の実感との間をつなぐ議論の場づくり。

これらは,研究会だけで完結できる話ではありません。会員のみなさま,教育委員会,大学,企業など,多くの方々と一緒に考え,試行錯誤していくテーマだと捉えています。

情報学教育記念日を「確かめる力」を見直す日として

11月11日の「情報学教育記念日」は,私たちにとって一年をふりかえる大切な節目です。今年の記念日にあたり,ぜひ各学校,各地域で,次のような問いを投げかけていただければと願っています。

「この一年で,子どもたちの「確かめる力」を育てるために,どんな取り組みができただろうか。」
「生成AIやSNSと付き合う中で,大人である自分たちの「確かめ方」はどう変わってきただろうか。」

完璧な答えを出す必要はありません。むしろ,「まだ十分ではない」,「ここはこれからの宿題だ」と率直に言葉にできることが,次の一歩につながるはずです。

生成AIがますます身近になるこれからの時代に,「言い間違いをしない生成AI」を待つのではなく,「言い間違いを見抜き,確かめ,学びに変えていける人」を育てていくこと。それこそが,情報学教育研究会として,そして教育に携わる私たち一人ひとりとして,担っていきたい役割だと考えています。

引き続き,みなさまとともに,現場からの実践と問いを積み重ねていければ幸いです。