5 AIをただ使えばいいだけではないのか(1)
AIに関するもう一つの極端な立場は、この技術を無差別に使用したり誤用したりすることです。人工知能は人間の知能とは異なる動作をします。状況の性質、設計、あるいはデータに起因するにせよ、AIシステムは期待されたものとは異なる動きをすることがあります。
例えば、ある目的のために特定のデータセットを用いて開発されたアプリケーションは、別の目的のための異なるデータでは同様に機能しない。人工知能の限界を理解し、それに対応することが重要です。単にAIを導入するだけでなく、その利点と限界について学ぶことが肝要です。
固定観念の永続化
Google翻訳はインターネットから翻訳方法を学習します。その「データマイナー」は学習用データを収集するため公開ウェブを巡回します。言語と共に、AIは男性整備士の数が女性整備士より多く、女性看護師の数が男性看護師を上回ると学習します。何が「真実」で、何が固定観念やその他の偏見の結果なのかを区別できません。こうしてGoogle翻訳は学習した内容を拡散し、固定観念をさらに固定化してしまいます1:

AIでは、個々の事例が大多数の事例と異なる場合(それが現実世界の大多数を忠実に反映しているか、単にインターネット上で見られる大多数であるかにかかわらず)に問題が生じます。教室では、教師はシステムの不備を補い、必要に応じて学習者の注意を代替テキストに向ける必要があります。
探求
Google翻訳でステレオタイプを探してみませんか? 様々な言語間の翻訳を試してみてください。ボックス間の二つの矢印をクリックすると、翻訳対象を反転できます(上記の例ではこの操作を行いました)。。
トルコ語などでは「彼」と「彼女」が同じ単語で表されます。トルコ語への翻訳と逆翻訳を繰り返すと、多くのステレオタイプが浮き彫りになります。多くの言語には男性バイアス(見知らぬ人物は男性と仮定する傾向)がある点に注意してください。これはアプリケーションのバイアスではありません。上記の例で衝撃的なのは、男性看護師が女性に変換される点です。
複数の精度指標
AIシステムは、学生が次に何を学ぶべきか、特定のトピックを理解しているかどうか、クラスに適したグループ分けは何か、あるいは学生が中退するリスクがある時期を予測します。多くの場合、これらの予測にはパーセンテージが付随します。この数値は、システムが自身の予測をどの程度正確と見積もっているかを示しています。
予測は本質的に誤りを伴う可能性があります。多くの応用分野では、この誤差は許容範囲内ですが、場合によっては許容できないこともあります。さらに、この誤差の計算方法は固定されていません。様々な測定基準が存在し、プログラマーは最も適切と判断する基準を選択します。精度そのものは入力内容によって変化することが多くあります。
教室では、こうしたシステムが児童に対して予測を行うため、何が許容範囲か判断し、AIの決定が適切でない場合に介入するのは教師の役割です。そのためには、AI技術とそれに伴う一般的な誤りに関する基礎知識が非常に役立つでしょう。
1 Barocas, S., Hardt, M., Narayanan, A., Fairness and machine learning Limitations and Opportunities, MIT Press, 2023.