ビッグデータについてさらに詳しく
あらゆる種類のデータをまとめて保存したものを一般的にビッグデータ1と呼びます。データストレージが安価になり、強力なプロセッサーやアルゴリズム(特に自然言語処理と機械学習)によってビッグデータの分析が容易になっため、この手法は理にかなっていると言えます2。
動画で議論されているように、ビッグデータは複数のソースから生成された、巨大な(volume)、迅速に生成される(velocity)、異なる種類の(variety)データであることが特徴です。このようにして得られたデータは不完全で不正確(veracity)であり、その関連性は時間とともに変化する傾向があります(volatility)。この種のデータを組み合わせ、処理し、視覚化するためには、洗練されたアルゴリズムが必要です。しかし、そこから引き出される推論は、特に従来のデータと組み合わせた場合には強力であり、取り組む価値があります2。
一部の専門家は、上述の3つもしくは5つのVを超えて2、ビッグデータを構成するための3つの軸を重視しています。
- 大規模なデータセットを収集、分析、リンク、比較することを可能にする技術。経済的、社会的、技術的、法的な主張を行うために大規模なデータセットのパターンを特定する分析。
- 「大規模なデータセットは、以前は不可能だった洞察を生み出すことができるより高度な知性と知識の形態をもたらし、そこには真実・客観性・正確性のオーラが伴う」という信念。
- ビッグデータ分析は「学習者が苦労している分野や得意とする分野を特定し、個々の学習者のニーズを理解し、パーソナライズされた学習方法を開発することができるかもしれません」。

1 Schneier, B., Data and Goliath: The Hidden Battles to Capture Your Data and Control Your World, W. W. Norton & Company, 2015.
2 Kelleher, J.D, Tierney, B, Data Science, London, 2018.
3 D’Ignazio, C., Bhargava, R., Approaches to Building Big Data Literacy, Bloomberg Data for Good Exchange, New York, 2015.
4 General Data Protection Regulation (GDPR), European Union, April 2016.
5 Ethical guidelines on the use of artificial intelligence and data in teaching and learning for educators, European Commission, October 2022.