31 AI、AIED、そしてヒューマン・エージェンシー
人工知能(AI)は、しばしばヒューマン・エージェンシー(人間の主体性)を脅かすものと非難されてきました(例えば、人工知能と人類の未来1で報告された979人の「専門家」の意見の要約を参照してください)。これは特に、私自身の研究を含む、教育におけるAIの応用(AIED)に当てはまります。例えば、ヨーロッパ評議会の報告書では、ほぼすべてのAIEDツールが採用しているアプローチは「思考よりも記憶を、批判的な関与よりも事実を知ることを優先し、学習者の主体性と確固たる学習を損なう」と記しています2。しかし、このような主張は簡単にできますし、私もこの主張を支持していますが、適切に詳述されることはめったにありません。したがって、この簡潔な解説の目的は、「ヒューマン・エージェンシー」とは具体的に何を意味するのかを探求し、AIとAIEDの両方が及ぼす影響を考えることです。
大まかに言えば、ヒューマン・エージェンシーとは、個人が自らの信念、価値観、目標に基づいて複数の選択肢から選択し、独立して行動する能力です。言い換えれば、人間が意思決定を行い、自らの生活や周囲の世界に影響を与える行動を開始し遂行する能力です。これには複数の側面が含まれます。これには意図性(特定の目的や目標を念頭に置いて意識的に行動すること)、自律性(独立性、自己決定、そして自身の選好・価値観・目標を反映した選択と決定を行う自由)、適応性(変化する状況に応じて学び、自身の行動を修正し、成功する能力)、責任性(主体性の倫理的・道徳的側面——自身の決定と行動の結果に対して説明責任を負うこと)が含まれます。
ヒューマン・エージェンシーは、個人の成長と充実した人生にとって極めて重要です。主体性によって、個人は自らの人生を形成し、周囲の世界に影響を与える力を得るのです。主体性は、コントロール感と自己効力感を育み、より高いレベルの心理的幸福度と相関関係があります。個人が自らの人生をコントロールしていると感じ、意味ある選択が可能だと感じる時、つまり真の主体性を感じている時、満足感や充実感を経験する可能性が高くなります。ヒューマン・エージェンシー研究の第一人者が説明するように:「人々が自らの行動で望ましい結果を生み出せると信じない限り、困難に直面しても行動したり粘り強く取り組んだりする動機はほとんど生まれません」3。
教育の現場において、ヒューマン・エージェンシーとは、生徒や教師が選択を行い、自律的に行動し、教室環境における教育と学習を主導する能力を指します。重要なのは、個人が教育の過程を形作り、何を、どのように、なぜ学ぶかについて決定を下す役割にあります。教育現場におけるヒューマン・エージェンシーには複数の要素が関わっています。例えば、生徒が知識の受動的受容者としてではなく、学習プロセスへの能動的参加者として扱われ、興味のあるテーマを探究し、質問を投げかけ、自らの学業目標を特定・設定し、学習の主体性を確立する自律性を与えられることで、生徒の主体性は高められます。生徒の主体性を高めるには、現実世界の問題に焦点を当てた問題解決能力・批判的思考力の育成に加え、自己調整能力(時間管理、優先順位設定、進捗の自己モニタリングなど)の促進も不可欠です。これら全ては、自立した自己主導型の人間形成と、学業および生涯にわたる成功にとって極めて重要です。最後に、教師が生徒の主体性を支援・強化する中心的な役割を担う一方で、教育現場におけるヒューマン・エージェンシーには教師自身の主体性も含まれます。これは教師の教科専門性・教育専門性・プロフェッショナリズムを認識し、最善の指導方法の選択や生徒支援の方法を自ら決定できるようにすることを意味します。
次に問われるのは、AIがヒューマン・エージェンシーに与える影響です。必然的に、あらゆる潜在的影響にはプラスとマイナスの両面が存在します。例えば、AIを活用した技術は反復的な作業を担うことで、人々が仕事の創造的な側面に集中する自由をもたらし、自らの時間と労力を最適に配分する判断を可能にし、結果として主体性を高める可能性があります。一方で、AI技術を用いた日常業務の遂行は、人間の技能や専門知識の喪失につながる可能性があります。時間の経過とともにAIへの依存度が高まることで、個人の選択肢が狭まり、結果として自律性が弱まる恐れもあります。同様に、AI技術は様々なサービス(オンライン動画やショッピングプラットフォームなど)におけるユーザー体験をパーソナライズし、嗜好に合わせた提案を提供することで主体性感覚を強化するとしばしば主張されます。しかし批判的に見れば、こうしたサービスによるパーソナライゼーションは、ユーザーよりも提供者や広告主のニーズに合致している場合がほとんどです。つまり個人の主体性は現実を覆い隠しており、実際にはユーザーが特定の方向へ誘導されることで個人の主体性が減退しているのです。さらに、AIを活用したデータ分析は、他の方法では容易に入手できない貴重な知見へのアクセスを可能にし、人間の意思決定と主体性を高めます。しかし、AIシステムが学習データに存在するバイアスを継承・永続化させることは周知の事実です。これは不公平で差別的な結果を招き、機会を制限することで必然的にヒューマン・エージェンシーを損ないます。AI技術、少なくともその実践的な活用方法は、ヒューマン・エージェンシーに他の悪影響を及ぼしえます。例えば、モニタリング(または監視)やAI制御の意思決定へのAIの広範な利用は、重要なプライバシー上の懸念を引き起こし、行動の選択肢を制限し、無力感や技術への依存感をもたらす可能性があり、これらはすべて個人の主体性を損なう恐れがあります。
続いて問われるのは、AIEDが生徒と教師の主体性に与える影響とは何か、ということです。可能性は多岐にわたります。第一に、学生がAI搭載技術と頻繁に接する場合、コンテンツの推奨、即時フィードバック、あるいは提供される「解答」にあまりにも簡単に過度に依存してしまう恐れがあります。その結果、批判的思考力、自立的な問題解決力、自己省察力、自己調整力、メタ認知能力を育む機会を逃す可能性があり、これらはすべて学生が自らの学習の恩恵を最大限に享受する主体性を損なう恐れがあります。第二に、大半のAIEDシステムは非常に規範的な学習経路を提供し、学生が自分自身の興味を探求するための余地をほとんど残しません。これは学生に何を、いつ、どのように学ぶかを強制することで学生の主体性を制限し、多様な視点や新たな探究領域への接触機会も減少させる可能性があります。第三に、AIEDシステムは通常、学生の行動を追跡するため、監視下にある感覚や自律性の制約を生むだけでなく、学生のプライバシーを侵害する可能性も生じ、学生が自由に表現することについて慎重になる要因になります。第四に、AIによる提言は意図せず学生の志向を狭め、自己決定的な目標達成への主体性を制限する恐れがあります。第五に、評価に用いられるAI技術は標準化されたテストへの過度な依存(ひいてはテスト対策教育)を招きます。加えて、いかなるAI対応システムも学生の課題における微妙なニュアンスを理解したり捉えたりすることができず、評価プロセスにおける学生の主体性を損ない、創造的あるいは型破りな思考を阻害する可能性があります。
最後に、教師に関して言えば、教室でのAI対応の技術の利用は、必然的にカリキュラムの選択、学習内容、教育手法に影響を及ぼします。これは教師の役割を縮小させ、自身の専門的判断が技術によって過小評価されたり覆されたりしていると感じる可能性があります。いずれにせよ、AIEDツールは教師のスキルを低下させ、彼らを技術支援者や行動監視者に変えてしまう恐れがあります。これは優れた教師の役割を根本的に誤解しています。また、効果的な教育に不可欠な学生との意味のある関係を築く上で、教師の主体性を損なう恐れもあります。最後に、AI生成の指標への依存(時にトップダウンの指示による)は、教師にデータ駆動型の意思決定プロセスへの順応を強いる圧力となり、その結果、学生の総合的な成長への配慮が軽視される恐れがあります。
ここでの最後の問いは、教室で強力なAI技術がますます利用可能になる中で、学生と教師の主体性を確保するために何が必要かです。要するに、教師にはその主体性を尊重する機会が与えられ、専門的知見と学生の個別ニーズに沿った判断を下せるようにする必要があります。一方、学生には批判的思考力、自己調整能力、メタ認知能力を育む機会が必要です。また、適切で効果的かつ安全なAI技術の利用の有無にかかわらず、意図性、自律性、適応力、責任感を養う機会も与えられるべきです。
1 Anderson et al., Artificial intelligence and the future of humans, Pew Research Center, 2018
2 Holmes et al., Artificial intelligence and Education, A critical view through the lens of human rights, democracy and the rule of law, Council of Europe, p. 34, 2022
3 Bandura, A., Toward a Psychology of Human Agency: Pathways and Reflections, Perspectives on Psychological Science, 13(2), 130-136, 2018