46 生成AIの「負の側面」(2)
生成AI特有の危険性には、次のようなものがあります。
不正確さと「ハルシネーション(幻覚)」:生成モデルは、一貫性のある流暢な、まるで人間のような言葉を次々と紡ぎ出す驚くべき能力を持っています。しかし、その「いかにももっともらしい語り口」の裏には、事実誤認や限定的な真実、捏造された文献、さらには純粋な作り話が隠されています。これらは「ハルシネーション(幻覚)」と呼ばれています¹’²。ChatGPTの画面の一番下には、すべての対話を下支えするように、「ChatGPTは人、場所、事実について不正確な情報を生成することがあります」という注意書きが表示されています¹。ChatGPTの回答の正確さは、トピックにもよりますが、およそ60%か、それ以下になることさえあるのです2,3。
さらに厄介なことに、ChatGPTには「根拠や裏付けを示さずに、あたかもそれが真実であるかのように提示する」という傾向があります。具体的に文献を出すよう求めても、実在しない情報源をでっち上げたり、本文の内容を全く支持していない文献を提示したりすることがあります⁴’²。それにもかかわらず、多くのユーザーがAIを「インターネットの検索エンジン」や「図書館の司書」、あるいは「Wikipedia」と同じような感覚で使ってしまいがちです⁵。先生や生徒が、自分たちが全く知識のない分野について情報を得ようとしてAIを使うと、間違ったことを学んでしまったり、嘘の知識を他人に広めてしまったりするリスクを抱えることになります¹’⁵。
今日の「大規模言語モデル(LLM)」の成功は、とてつもない数のパラメーターと膨大な学習データによって、「人間のコミュニケーションにおいて、言葉がどのように縫い合わされているか」をモデル化したことにあります。先生も生徒も、対話型モデルが生成するテキストは、モデル自身がその内容を「理解」しているわけでも、ましてや「現実の概念」と結びついているわけでもない、ということを常に忘れてはいけません¹。AIは言語の「形式」をかなりの精度で操ることはできますが、その形式の背後にある「意味」にまでアクセスしているわけではないのです⁶。「人間らしい思考とは、可能な限りの説明と、エラー(間違い)の修正に基づいています。それは、合理的に考えられる可能性を少しずつ絞り込んでいくプロセスなのです……。人間が合理的に推測できる説明の種類には(理性の)限界がありますが、機械学習システムは『地球は平らである』という説も『地球は丸い』という説も、同時に学習できてしまうのです」⁷。
AIをめぐる問題は、技術的なことだけでなく、力関係や権利といった、もっと社会的な側面にも及んでいます。
権力と支配のシフト、あるいは悪化:生成AIは、膨大なデータ、強大な計算能力、そして高度な計算手法に依存しています。これらすべてを手にしているのは、ごく一握りの企業や国、そして一部の言語だけです。それにもかかわらず、多くの人々がこの技術を取り入れるにつれ、人類の多くが彼らのやり方に従わざるを得なくなっています。その結果、人々は本来のあり方から遠ざけられ、自分たち独自の表現力を失うことを強いられているのです1。
開発者たちがこうした権力を握り続ける一方で、その「責任」は外部に押し付けられています。例えば、ChatGPTの回答から有害な内容を取り除く(サニタイジング)という過酷な仕事は、ケニアの労働者たちに委ねられました。彼らは性的虐待やヘイトスピーチ、暴力といった、非常に暴力的で衝撃的なコンテンツをひたすら精査し、選別しなければならなかったのです4。
著作権と知的財産の侵害:生成AIシステムの技術的なノウハウの多くは、企業の壁の向こう側に厳重に守られています。しかし、その学習データは私たち一般市民から取り込まれたものです¹。あるプラットフォームで公開された写真を、本人の知らぬ間に、あるいは同意なく勝手に使ってもいいのでしょうか? もし、誰かの顔が差別的なプロパガンダに悪用されたとしたら、どうなるでしょう⁸? 生成AIに学習されるのを防ぐ唯一の方法は、自分のコンテンツをすべて「非公開」にすることだけなのでしょうか。
公開されているデータだけでなく、言語モデルは有料制(ペイウォール)の向こう側にあるコンテンツを取り込み、それをユーザーのために要約してしまうこともあります。画像生成モデルにいたっては、透かし(ウォーターマーク)がはっきりと残ったままの画像を継ぎはぎして作り出した例も知られています。また、著者が「使用の際には必ずクレジットを明記すること」という条件で公開しているクリエイティブ・コモンズ・ライセンスの作品についても、AIモデルが正しく引用を行うかどうかは定かではありません。
こうした状況は、先生方にとって道徳的、倫理的、そして法的な問いを投げかけます。もしAIが生成したコンテンツを利用する場合、それを自由に使い、好きなように公開してもいいのでしょうか? もしその内容が著作権やクリエイティブ・コモンズで守られていた場合、誰が責任を負うことになるのでしょう⁹。そもそもユーザーは、自分が他人の財産を使っているということに、どうやって気づけばいいのでしょうか¹。残念ながら、このトピックに関してはまだ明確なガイドラインが存在しません。私たちは、公的な指針が出るまで、慎重に見極めながら進んでいくしかないのです。
では、教育に生成AIを取り入れることで、将来的にどんな影響が出るのか。最後に、長期的な視点から考えておかなければならない課題についてお話しします。
教育における生成AI利用の長期的な影響:生成AIを教育に活用する方法はたくさんありますが、そうした利用が長期的にはどのような影響を及ぼすのか、実はまだはっきりとは分かっていません。
- 「書く」という行為は自分の思考を組み立てるプロセスでもありますが、AIが作った構成案(アウトライン)に従って文章を書くことが、生徒たちの思考にどう影響するのでしょうか¹。
- 思考の幅や批判的思考、創造性、そして問題解決能力に影響は出ないでしょうか1。
- 情報や解決策があまりにも簡単に手に入るため、生徒たちがAIに依存しすぎてしまわないでしょうか1,10,9。
- 学生は自ら世界を探索し、自分なりの結論を導き出そうとする意欲(モチベーション)を持ち続けられるでしょうか10。
- 私たちの周りにある現実とはかけ離れた「AI特有の世界観」の中に、私たちは引きずり込まれてしまわないでしょうか。
- プロンプト(指示出し)の技術を磨くたびに、私たちはどれほどのスキルを失っていくことになるのでしょうか。
「高度なスキル(高次スキル)」に集中して、面倒な単純作業(下働き)はAIに任せてしまおう、という考え方は一見素晴らしいアイデアに聞こえます。しかし、基礎となる「低次スキル」を繰り返し練習することは、実は欠かすことができません。なぜなら、基礎を身につける過程で経験する「粘り強さ」や、時には「挫折(フラストレーション)」といった感情こそが、高度なスキルを習得するために必要とされることが多いからです1,8。また、基本的な計算などをテクノロジーに頼りすぎるのを防ぐことも必要です。基礎をおろそかにすることは、人間が主体的に生きる力(エージェンシー)や、「自分一人の力でも世界に向き合える」という自信を損なうことにつながりかねないからです。
長期的なリスクから身を守るための対策には、次のようなものがあります。
- 言語モデルを「これさえあれば完結する解決策」として使うのではなく、あくまで「出発点」として活用すること。可能性を広げたり、自分とは違う視点を探ったりするために使いましょう¹⁰。
- AIが出した回答は、直接実験して確かめたり、他の信頼できる情報源と照らし合わせたりして、必ず検証すること。
- 常に「先生」がプロセスに関わり続ける(Teacher in the loop)こと¹⁰。
- 仲間と一緒に学ぶ「社会的な学習」を大切にし、人間が生み出した創造的な作品に触れる機会を増やすこと¹。
- 意識的に他の教育リソースを探し、画面から離れたオフラインの活動を取り入れること¹⁰。
- AIが示すものとは別の説明の仕方や、思考のモード、アプローチを見つけようと試みること。
また、人間と機械を誤って「同等」だと考えたり、さらには生成AIの方が優れていると譲歩してしまったりする傾向には、常に注意を払う必要があります。例えば、「人間はAIほど大量のデータを処理できない」とよく言われます。でも、パターンを見つけ出し、推論し、創造性を発揮できる私たち人間にとって、何ギガバイトものデータを詰め込むことが本当に必要なのでしょうか? AIが一瞬で100冊の本の内容を分析できるからといって、生徒がその中の1冊をじっくり読んで楽しみ、そこから恩恵を受ける必要がなくなるわけではありません。何かを速く行うことが必ずしも良いことであり、私たちが採用したいと思う基準であるとは限りません8。
忘れてはならないのは、子供たちは「今日この瞬間に存在する世界や技術」のためだけに学んでいるのではないということです。彼らは、10年、あるいは15年後にやってくる未来の世界に備え、あるいは自ら備えられるスキルを身につけるために学んでいます⁸。ChatGPTが登場してたった1年でこれほどの変革が起きたという事実は、「ChatGPTのための教育」ではなく、むしろ「ChatGPTを超えた先にある教育」こそが必要であることを物語っています。生徒たちに必要なのは、自分の頭で考え、変化に適応するしなやかさ(レジリエンス)を持ち、人生が投げかけてくる新たな課題とともに成長していく力なのです。
教育の究極のゴールは、賢い機械を効率よく操作する人や、生産ラインで働く「働きアリ」を育てることではありません。自由な思考を持ち、創造的で、しなやかで、全人格的にバランスの取れた市民を育む手助けをすることです。この目標を達成するために、テクノロジーをどう取り入れるのが最善なのか。そこには熟考すべき重要な問いがあり、見極めるべき長期的な影響があります。この大切な役割だけは、それが生成AIであれ何であれ、決してAIに任せきりにすることはできないのです。
1 Holmes, W., Miao, F., Guidance for generative AI in education and research, UNESCO, Paris, 2023.
2 Tlili, A., Shehata, B., Adarkwah, M.A. et al, What if the devil is my guardian angel: ChatGPT as a case study of using chatbots in education, Smart Learning Environments, 10, 15 2023.
3 Lewkowycz, A., Andreassen, A., Dohan, D. et al, Solving Quantitative Reasoning Problems with Language Models, Google Research, 2022.
4 Cooper, G., Examining Science Education in ChatGPT: An Exploratory Study of Generative Artificial Intelligence, Journal of Science Education and Technology, 32, 444–452, 2023.
5 Trust, T., Whalen, J., & Mouza, C., Editorial: ChatGPT: Challenges, opportunities, and implications for teacher education, Contemporary Issues in Technology and Teacher Education, 23(1), 2023.
6 Bender, E.M., et al, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21). Association for Computing Machinery, New York, 610–623, 2021.
7 Chomsky, N., Roberts, I., Watumull, J., Noam Chomsky: The False Promise of ChatGPT, The New York Times, 2023.
8 Vartiainen, H., Tedre, M., Using artificial intelligence in craft education: crafting with text-to-image generative models, Digital Creativity, 34:1, 1-21, 2023.
9 Becker, B., et al, Programming Is Hard – Or at Least It Used to Be: Educational Opportunities and Challenges of AI Code Generation, Proceedings of the 54th ACM Technical Symposium on Computer Science Education V. 1 (SIGCSE 2023), Association for Computing Machinery, New York, 500–506, 2023.
10 Enkelejda, K., et al, ChatGPT for Good? on Opportunities and Challenges of Large Language Models for Education, EdArXiv, 2023.