生成AI – 教師はどこで活用すべきか?
生成AIは、教室内外での面白い活動を設計するために活用できます。生成AIは将来おそらく教育の中で何らかの役割を果たすようになるでしょうし、特定のケースではすでに役割を担っています。では、具体的にはどのような役割でしょうか?そして、教師は学習者をどのような形で参加させるべきでしょうか?どのような文脈で?私たちは、現時点で教師は生成AIを課外活動の使用に限定することが可能であり、そうすべきだと考えています。
「現時点において」
物事は信じられないほど急速に変化しています。2022年10月、この教科書の初版が刊行された時点では、ChatGPTは存在すらしませんでした。その1年後には、教育のための生成AIツールを提供するプラットフォームがウェブ上に登場しました。この進歩の速さは、現時点(2023年11月)で有効なものが数ヶ月後に通用しなくなる可能性があるほどです。今日見つかっている不具合のいくつかは、いつか修正があるかもしれません。教師は不具合を回避するための十分なトレーニングの案内を受けるかもしれません。学校や国家機関が、出来ることやすべきとこの指針を示すかもしれません。常にこのような情報を更新し続けていくことが不可欠です。
「政策上の課題」
AIは各省庁に厳しい課題を突きつけています。若い学習者に行うのは明日の世界に備えるような教育が望ましいです。実際、雇用市場への影響を示す数値を見れば、早い段階から学習者にAI教育を施すことは、必須ではないにしても、理にかなっていると言えます。しかしその一方で、まだ十分な信頼性が確認されていない技術を使うことに安全面への懸念もあります。特にこの安全性の欠如はプライバシー問題に関して顕著です。学習にどのような影響を及ぼすかということについては、いまだ明確には分かっていないのです3。
企業は我々消費者が自社製品を選択するよう推し進めている一方で、保護者たちは次のような相反するメッセージに焦点を当てています。それは、 基礎教育(読み書き、計算)を優先することと、職業関連のスキルの習得を不可欠とすることです。このような二分化が、政策立案者の仕事を複雑にしています。
決定には時間がかかるかもしれませんが、決定が下されたとき、教師はそれを理解したいと思うでしょう。
「安全な環境」について
生成AIを用いた授業を通して多くのデータがやり取りされることになるでしょう。教師と学習者は、意図せずに個人情報になり得るデータを簡単に提供してしまう可能性があります。そして、適切なプログラムが実装されていなければ、これらのデータは個人と直接結びつけられてしまう恐れがあります。GDPRは法的に個人を保護しますが、このような法律が十分かどうかを判断するにはまだ時期尚早と言えるでしょう。一部の国では、匿名化を原則とするセーフ・スクール環境を導入しています。そのような環境では、オンライン活動が個々のユーザーと関連付けられた形で学校外のサーバーに記録されることはありません。
データの安全に関する疑問は数多くあり、教師が自分自身や学習者の権利が保障されていると確信を持つのは簡単ではありません。データはどのくらいの期間保存されているか?何の目的で、誰がそれを使用するか?教師は学習者に代わって決定を下すことができるのか?これらの疑問が複雑であることから、当局による必要な審査が行われていないような外部プラットフォームに、学習者を登録するのは決して良い考えとは言えません。
授業外での活動
教師が生成AIを活用することができる例はすでに数多くあり、自宅と職場どちらでも、学習者がいなくても行うことができます。例えば、授業の準備、テストの作成、情報収集、次回の講義のテーマの検討などが挙げられます。一般的に、こうした場面でAIを活用すると、より深く探求したり、新しいアイデアを見つけたり、資料の見せ方をより効果的にできるという印象があります。また、出典の欠如、誤情報、バイアスといった問題が多くあることを考慮しても、全体的には肯定的な評価だと言えます。
最も重要なことは、教師たちから時間が節約できたという報告があることです。今回は珍しく、テクノロジーが「単に良くする」だけではなく、「より少ない努力で良くする」ということを保証しているのです。
授業内の活動を支持する議論
生成AIが将来重要な役割を果たすことになり、AIを適切に活用する能力が就職市場で求められるスキルとなるならば、学習者は教師と一緒にその正しい使い方を学ぶべきです。これはAIの技術的側面と倫理的側面の両方に対して言えることです。
今日、教師が学習者たちとこうした技術について話すことはやりがいがあることですが、不安もあります。学習者らはすでにユーザーであるにもかかわらず、特に信頼性に関して大きな誤解をしています。
授業内の活動に反対する議論
一方で、このようなツールを試してみると、誰もが出力の予測がつかないツールで教育を行うことは難しいと感じるでしょう。同じプロンプトで生成AIを3回実行すれば、おそらく3つの異なる結果が得られます。これはこの技術の強みではあるが、経験の浅い教師(熟練の教師でも!)は、かなりのやりづらさを感じるでしょう。化学の教師が生徒に全員同じ実験を行うように指示したところ、こっちでは爆発音がし、あっちでは赤い煙が出て、部屋の後ろで奇妙な匂いがする、そんな状況を想像してみてください。
このような教育において、一般的な説明(個別の説明でさえ)に説得力を持たせるのは、興味深い内容ですがかなり挑戦的な課題となってしまいます。
だから…
この時点で、教師は安全に教室外で生成AIをテストすることができるはずです。これにより、その仕組みをより深く理解するだけでなく、学習者たちが目にする可能性が高いものも事前に見つけることが出来るはずです。生成AIについて無知なままではいけません。さらに、多くの教師が体験談として指摘しているように、これは教師が時間の節約ができる技術を活用できるチャンスなのです。
一方で、これらの技術を直接学習者と一緒に使用しない方が良いという状況も依然として多いです。
では、どのように学習者に理解させるのか?
繰り返しになりますが、これは国や教育組織が定めた推奨事項や規則に沿って行う必要があります。
最初の提案として、何が不正行為で何がそうでないかについて学習者に聞いてみることや、このような話題について話し合うことなど、可能な限り学習者と関りを持つことが、学習者がこの問題の複雑さを理解するのに役立つと考えられます。
2つ目の提案は、教師が授業で生成AIを試してみることですが、複雑で馴染みのないトピックには使用しないことです。また、これとは相反する内容のように思えるかもしれませんが、教師が常に答えを知っているわけではないことを学習者に示すことも有益です。学習者自身が専門知識を持っているトピックで生成AIを使用することも効果的です。彼ら自身が間違いを見つけることで、AIが常に正しいわけではないことを理解するでしょう。
間違いを見つけることは学習者にとって面白い活動かもしれません。一方、教師が生成AIによって書かれた事実に対して、その場ですぐに誤りを指摘するのははるかに困難です。これは正しいか誤りかという問題ではなく、教師が間違うことは許されているのです。しかし、その間違いを教育的に説明しなければならないとなると、それほど簡単なことではありません。
1 Generative AI likely to augment rather than destroy jobs. ILO report, August 2022 https://www.ilo.org/global/about-the-ilo/newsroom/news/WCMS_890740/lang–en/index.htm
2 After Italy blocked access to OpenAI’s ChatGPT chatbot, will the rest of Europe follow? Euronews, 7/4/2023. https://www.euronews.com/next/2023/04/07/after-italy-blocked-access-to-openais-chatgpt-chatbot-will-the-rest-of-europe-follow
3 Holmes, W., Miao, F., Guidance for generative AI in education and research, Unesco, Paris, 2023.