45 生成AIの「負の側面」(1)
生成AIは「深層学習(ディープラーニング)」を活用したツールであるがゆえに、これまでの機械学習モデルが抱えてきた倫理的・社会的な負の遺産も、すべてそのまま引き継いでしまっています。
プライバシーへの脅威:多くのAI技術プロバイダーと同様に、生成AIの提供元も、あらゆる種類のユーザーデータを収集し、それを第三者と共有しています。例えばOpenAI社のプライバシーポリシーでは、リクエストがあればユーザーデータは削除すると認めていますが、ユーザーが入力した「プロンプト」についてはその限りではありません。プロンプトそのものに、ユーザー個人を特定できてしまうような機密情報が含まれている可能性もあるのですが、そこまでは守られないのです¹。
また、AIとの対話があまりに自然で人間らしく感じられるため、普段の生活では決して話さないような、より個人的でデリケートな情報をうっかり漏らしてしまうというリスクもあります²。これは、生徒たちが直接生成AIシステムを利用する際に、特に深刻な問題となります。
この技術は、人間のような言葉を模倣することにあまりに長けているため、学習者に未知の心理的影響を及ぼす可能性があります。特に子供たちの理解力からすれば、まるで人間そのものです。子供たちの「認知発達」や「情緒的な健やかさ(ウェルビーイング)」への懸念、さらにはAIによって考えが「操作」されてしまう可能性についても、私たちは真剣に考えなければなりません³。
透明性と説明可能性:「オープン」であることを掲げている生成AIの提供元でさえ、モデルの学習や調整にどのようなデータや手法が使われたのか、そのすべてを明らかにするのを渋ることがあります。さらに、数百万、数千万ものパラメーターを持つ深層学習モデルにおいては、それぞれのパラメーターにどのような重み付けがされ、それらがどう組み合わさって特定の結果が出力されたのかを説明することは、今の技術では不可能です³。
AIが出す回答は、たとえプロンプトやユーザーの利用履歴にほとんど差がなくても、その形式や内容が大きく変わってしまうことがあります²。例えば、2人の生徒が同じ演習問題に取り組んだとしても、AIからは全く異なる回答が返ってくる可能性があるだけでなく、なぜその違いが生まれたのかを説明する手立てもありません。また、使用しているモデルの種類や、有料版か無料版かといった違いも、出力される内容に影響を与えます。
これは、生徒たちが何を学ぶかという点だけでなく、提出された課題を採点する際の「プロセスの公平性」にも関わる問題です。しかし、だからといってAIの使用を一律に禁止することも、また別の問題を引き起こします。家でAIを使える環境にある生徒とそうでない生徒との間で、学びの格差(デジタル・デバイド)がさらに広がってしまうからです¹。
均質化(同質化): AIの回答がバラバラだったり、説明がつかなかったりすることも心配ですが、同じくらい厄介なのが「標準化」や「均質化」の問題です。生成AIはインターネット上のデータから学習しているため、特定の考え方や文化的な価値観ばかりを優先して広めてしまう傾向があります。そうなると、学習者たちが多様な視点に触れる機会が失われ、批判的に考える力が育たなくなってしまう恐れがあるのです³。「たとえインターネットから集めた何十億もの画像や文章のペアが含まれるデータセットであっても、そこには必ず何らかの世界観が入り込んでいます。そして、時には非常に問題のあるやり方で、世界を特定のカテゴリーに切り分けてしまうのです」⁴。例えば、学習データの宝庫としてよく使われるWikipediaでさえ、そのコンテンツ制作者は圧倒的に男性に偏っているという現実があります⁵。
生成AIは、あらゆる用途の土台となる「基盤モデル」⁶として設計されているため、この均質化への傾向は、他の機械学習モデルよりも強く現れます。ただ、そのモデルを私たちがどのように調整(適応)させていくかによって、この均質化がさらに強まるのか、弱まるのか、あるいは変わらないのかが決まる大きな分かれ道になるようです⁷。
ある研究者は、ChatGPTのことを「多言語ではあるけれど、単一文化的(モノカルチャー)」だと評しています。なぜなら、ChatGPTはまず「英語のテキストと、そこに埋め込まれた文化的なバイアスや価値観」をベースに学習され、その上で「アメリカを拠点とするごく少数の作業員たちの価値観」に沿うように調整されているからです。もし先生が生成AIを使って生徒の作文を採点するとしたら、そこで評価されているのは、結局のところ「生徒がいかにこの(AIの持つ)世界観や、思考・知識・言語の使い方に同調できているか」ということになってしまわないでしょうか¹?
バイアス、偏見(ステレオタイプ)、包括性(インクルーシビティ): 生成AIシステムの中には、多くのバイアス(偏り)やステレオタイプ(固定観念)が潜んでいる可能性があります。例えば、ChatGPTにこんな指示を出した実験があります。「あるパラリーガル(弁護士の助手)が弁護士と結婚しました。なぜなら、彼女が妊娠していたからです」という文章を見せ、この「彼女」は誰を指しているのかと尋ねました。すると、ChatGPTは「『彼女』はパラリーガルを指します」と答え、なぜ弁護士の方ではないのかについて、苦しい言い訳のような理屈を並べ立てたのです。

ChatGPTが、あからさまに差別的な内容を書くことを拒否するように設定されていても、Pythonのプログラミングコードを書かせると、そうした有害な内容を含んだコードをいとも簡単に書いてしまうことが示されています¹。また、プログラミング支援AIであるCodexも、さまざまな種類のステレオタイプを反映したコードを生成してしまうことが分かっています⁸。さらに、言語モデルのBERTにいたっては、障がいを持つ人々を指すフレーズをネガティブな言葉と結びつけたり、精神疾患に関する言葉を「銃による暴力」「ホームレス」「薬物依存」といった言葉と関連づけたりする傾向があることも明らかになっています⁵。
こうした偏りは、画像生成AI(テキストから画像を生成するモデル)でも同じように見られます。例えば、「不適切な表現(例:少数派の人々を有害なステレオタイプで描く)」「過小表現(例:特定の職業から特定の性別を排除して描く)」「過剰表現(例:デフォルトで英語圏中心の視点に偏る)」といった、学習データに起因するバイアスが含まれたコンテンツが生成されてしまうのです⁶,⁴。
さらに、特定のグループを「非人間的」に扱ったり、歪んだ枠組みで捉えたりするといった、より捉えにくい形でのネガティブな影響もあります。こうした問題を抱えたままの大規模言語モデル(LLM)は、目の前のユーザーに悪影響を及ぼすだけではありません。AIが作った素材が掲示板やコメント欄などに自動的に拡散されると、それが次世代のLLMが学習するための「新しい現実(データ)」となり、偏見を再生産し続けてしまうのです⁵。
残念ながら、AIが生成したアウトプットに問題がないかをチェックし、もし子供たちが不適切な内容に触れてしまったら(たとえそれが子供自身を中傷するものであっても、あるいは子供がその偏見を学んで広めてしまいそうな状況であっても)、すぐに介入して守ってあげるという重い役割は、現場の先生方の肩にかかってしまっています。
コンテンツのモデレーション(情報の選別):検索エンジンやおすすめシステム(レコメンデーション)と同じように、生成AIもまた、ユーザーが目にするコンテンツを「キュレーション(選別)」しています。生成AIが作り出す内容は、あくまでAIがアクセスできる情報、つまり「開発者にとって入手しやすく、かつ利用に適していると判断されたもの」に基づきます。そうして選ばれた視点が、生成AIを使う人にとっての「現実」を定義してしまい、自分自身の意志で考え、行動する力(エージェンシー)に影響を与えてしまうのです。ですから、先生も生徒も、AIが生成した文章や画像の「基盤」となっている価値観や慣習、そして文化に対して、常に批判的な視点を持つことが大切です³。
ここで一つ、心に留めておいてほしいことがあります。それは、生成AIは「どんなトピックを扱おうとも、決して『信頼できる知識の絶対的な情報源』にはなり得ない」ということです³。
AIによる「情報のフィルター(偏り)」に対抗するためには、生徒たちが仲間と深く関わったり、自分とは違う職業や人生を歩んできた人たちと語り合ったりする機会をたくさん作ってあげることが必要です。さまざまな思想を吟味し、問いを立て、真実を確かめ、実験を通して成功や失敗、あるいはその過程にあるすべてから学ぶ。そんな経験こそが大切なのです。
例えば、ある活動で「AIが提案したプロジェクト案やコード、実験手順」に従ってみたのなら、次の活動では「自分自身のアイデアや問題」に挑戦させ、多様な学習リソースを参照させるようにしましょう。
環境と持続可能性:あらゆる機械学習モデルは、膨大な処理能力とデータセンターを必要とします。これには、サーバーを冷やすために必要な大量の水など、環境面での大きなコストが伴います⁹。実際、大規模な深層学習モデルに必要な計算能力は、この6年間でなんと30万倍にも膨れ上がっているのです⁵。大規模言語モデルを学習させるには莫大なエネルギーを消費しますし、学習後もどこかのサーバーに保管し、遠隔でアクセスし続けなければなりません⁸。さらに、モデルをより使いやすく調整する「ファイン・チューニング(微調整)」のプロセスにも多くのエネルギーが必要ですが、このプロセスがどれほど環境に負荷をかけているかについては、まだ十分なデータがないのが現状です。
こうしたモデルの「性能」についてはよく報告されますが、その裏にある「環境コスト」が語られることは滅多にありません。たとえ費用便益分析(コストと利益のバランスを考えること)が行われたとしても、「あるコミュニティが利益を享受する一方で、その代償を支払わされているのは全く別のコミュニティである」という事実は、ほとんど考慮されていないのです⁵。この不平等を脇に置いたとしても、こうした状況は生成AIプロジェクトが長期的に存続していけるかどうか(生存可能性)にとって、決して良いニュースではありません。
教育現場でこれらのモデルを広く採用し、生成AIによる学習スタイルを優先して既存のインフラや学び方を後回しにしてしまう前に、この大きな飛躍が本当に持続可能なのか、長期的に見て現実的なのかを、私たちはしっかりと話し合っておく必要があるでしょう。
1 Trust, T., Whalen, J., & Mouza, C., Editorial: ChatGPT: Challenges, opportunities, and implications for teacher education, Contemporary Issues in Technology and Teacher Education, 23(1), 2023.
2 Tlili, A., Shehata, B., Adarkwah, M.A. et al, What if the devil is my guardian angel: ChatGPT as a case study of using chatbots in education, Smart Learning Environments, 10, 15 2023.
3 Holmes, W., Miao, F., Guidance for generative AI in education and research, UNESCO, Paris, 2023.
4 Vartiainen, H., Tedre, M., Using artificial intelligence in craft education: crafting with text-to-image generative models, Digital Creativity, 34:1, 1-21, 2023.
5 Bender, E.M., et al, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21). Association for Computing Machinery, New York, 610–623, 2021.
6 Bommasani , R., et al., On the Opportunities and Risks of Foundation Models, Center for Research on Foundation Models (CRFM) — Stanford University, 2021.
7 Bommasani, R., et al, Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome Homogenization?, Advances in Neural Information Processing Systems, 2022.
8 Becker, B., et al, Programming Is Hard – Or at Least It Used to Be: Educational Opportunities and Challenges of AI Code Generation, Proceedings of the 54th ACM Technical Symposium on Computer Science Education V. 1 (SIGCSE 2023), Association for Computing Machinery, New York, 500–506, 2023.
9 Cooper, G., Examining Science Education in ChatGPT: An Exploratory Study of Generative Artificial Intelligence, Journal of Science Education and Technology, 32, 444–452, 2023.