11 なぜAIをただやらないのか (1)
AIに関してのもう一つの極端な立場は、技術の無差別な使用または誤用です。人工知能は人間の知能とは異なる方法で機能します。状況の性質、その設計、またはデータによって、AIシステムは期待されるものとは異なる方法で動作することがあります。
例えば、ある目的のために一連のデータを使用して開発されたアプリケーションは、別の目的のための他のデータでは同じようには機能しません。人工知能の限界を知り、それを修正することは有益です。AIを行うだけでなく、その利点と限界について学ぶことが良いです。
ステレオタイプの永続
Google翻訳はインターネットから翻訳の方法を学びます。その「データマイナー」は公開ウェブを探し、学習するためのデータを探します。言語とともに、AIは男性のメカニックが女性のメカニックよりも多く、女性の看護師が男性の看護師よりも多いことを学びます。それは何が「真実」で何がステレオタイプや他の偏見の結果であるかを区別することができません。したがって、Google翻訳は学んだことを広め、ステレオタイプをさらに固めてしまいます1:

個々のケースが多数派のケースと異なる場合(これが現実の世界での多数派を忠実に表しているか、インターネットによって表される多数派であるかにかかわらず)、AIに問題が生じます。教室では、教師がシステムの失敗を補い、必要に応じて生徒の注意を代替テキストに向ける必要があります。
探求
Google翻訳でステレオタイプを探すことができますか?異なる言語への翻訳を試してみてください。ボックス間の二つの矢印をクリックすると、翻訳されているものを反転させることができます(これは上に示した例で行ったことです)。
トルコ語などの言語は「彼」と「彼女」に同じ単語を持っています。トルコ語に戻して翻訳するときに多くのステレオタイプが明らかになります。多くの言語には男性バイアスがあります – 未知の人物は男性であると仮定されます。これはアプリケーションのバイアスではありません。上記の例で衝撃的なのは、男性の看護師が女性に変更されることです。
複数の正確さの尺度
AIシステムは、学生が次に勉強すべきこと、トピックを理解したかどうか、クラスのグループ分けがどのように良いか、学生が中退の危険にある時期を予測します。これらの予測にはしばしばパーセンテージが付けられます。この数字は、システムがその予測をどれだけよく見積もるかを教えてくれます。
その性質上、予測は誤りを含むことがあります。多くのアプリケーションでは、この誤りが許容されます。しかし、場合によってはそうではありません。さらに、この誤りの計算方法は固定されていません。異なる尺度があり、プログラマーは最も関連性が高いと思われるものを選択します。しばしば、正確さは入力自体によって変わります。
教室では、これらのシステムが子供たちに対して予測を行うため、教師が何が許容されるかを判断し、AIによる決定が適切でない場合に行動することが求められます。これを行うためには、AI技術とそれに関連する一般的なエラーについての少しの背景知識が大いに役立ちます。
1 Barocas, S., Hardt, M., Narayanan, A., Fairness and machine learning Limitations and Opportunities, MIT Press, 2023.