Big Data Normalization
カートのアイテムが多すぎます
カートに追加できませんでした。
ウィッシュリストに追加できませんでした。
ほしい物リストの削除に失敗しました。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
概要
Discussing a case study which describes a novel technique for efficiently storing and utilizing large amounts of data in massively parallel processing (MPP) databases. The technique, known as Anchor Modeling, is implemented in the HP Vertica database and is employed by Avito, a Russian e-commerce platform, to process terabytes of data for real-time analytics. The paper argues that traditional normalization techniques are inadequate for Big Data scenarios, highlighting the benefits of Anchor Modeling in terms of scalability, performance, and ease of data maintenance. The authors provide theoretical estimates and practical verification through experiments comparing the performance of Anchor Modeling with a traditional 3NF model, demonstrating its effectiveness in handling complex ad-hoc queries.