Chiriri's blog Chiriri's blog
首页
  • Java

    • JavaSE
    • JavaEE
    • 设计模式
  • Python

    • Python
    • Python模块
    • 机器学习
  • Golang

    • Golang
    • gRPC
  • 服务器

    • Linux
    • MySQL
    • NoSQL
    • Kubernetes
  • 项目

    • 传智健康
    • 畅购商城
  • Hadoop生态

    • Hadoop
    • Zookeeper
    • Hive
    • Flume
    • Kafka
    • Azkaban
    • Hbase
    • Scala
    • Spark
    • Flink
  • 大数据项目

    • 离线数仓
  • 青训营

    • 第四届青训营
  • HTML

    • HTML
    • JavaScript
  • Vue

    • Vue2
    • TypeScript
    • Vue3
    • Uni-APP
  • 数据结构与算法
  • C语言
  • 考研数据结构
  • 计算机组成原理
  • 计算机操作系统
  • Java基础

    • Java基础
    • Java集合
    • JUC
    • JVM
  • 框架

    • Spring
    • Dubbo
    • Spring Cloud
  • 数据库

    • MySQL
    • Redis
    • Elasticesearch
  • 消息队列

    • RabbitMQ
    • RocketMQ
  • 408

    • 计算机网络
    • 操作系统
    • 算法
  • 分类
  • 标签
  • 归档
  • 导航站
GitHub (opens new window)

Iekr

苦逼后端开发
首页
  • Java

    • JavaSE
    • JavaEE
    • 设计模式
  • Python

    • Python
    • Python模块
    • 机器学习
  • Golang

    • Golang
    • gRPC
  • 服务器

    • Linux
    • MySQL
    • NoSQL
    • Kubernetes
  • 项目

    • 传智健康
    • 畅购商城
  • Hadoop生态

    • Hadoop
    • Zookeeper
    • Hive
    • Flume
    • Kafka
    • Azkaban
    • Hbase
    • Scala
    • Spark
    • Flink
  • 大数据项目

    • 离线数仓
  • 青训营

    • 第四届青训营
  • HTML

    • HTML
    • JavaScript
  • Vue

    • Vue2
    • TypeScript
    • Vue3
    • Uni-APP
  • 数据结构与算法
  • C语言
  • 考研数据结构
  • 计算机组成原理
  • 计算机操作系统
  • Java基础

    • Java基础
    • Java集合
    • JUC
    • JVM
  • 框架

    • Spring
    • Dubbo
    • Spring Cloud
  • 数据库

    • MySQL
    • Redis
    • Elasticesearch
  • 消息队列

    • RabbitMQ
    • RocketMQ
  • 408

    • 计算机网络
    • 操作系统
    • 算法
  • 分类
  • 标签
  • 归档
  • 导航站
GitHub (opens new window)
  • Hadoop

  • Zookeeper

  • Hive

  • Flume

  • Kafka

  • Azkaban

  • Hbase

  • Scala

  • Spark

  • Flink

  • 离线数仓

  • 青训营

    • 第四届青训营

      • SQL Optimizer 解析| 青训营笔记
      • 流/批/OLAP 一体的 Flink 引擎介绍| 青训营笔记
      • Exactly Once 语义在 Flink 中的实现| 青训营笔记
      • 流式计算中的 Window 计算| 青训营笔记
      • Spark 原理与实践| 青训营笔记
      • 大数据 Shuffle 原理与实践| 青训营笔记
      • Presto 架构原理与优化介绍| 青训营笔记
      • HDFS 原理与应用| 青训营笔记
      • HDFS 高可用与高扩展性机制分析| 青训营笔记
      • 深入浅出 HBase 实战| 青训营笔记
      • 数据湖三剑客:Delta Lake、Hudi 与 Iceberg| 青训营笔记
        • 数据湖发展历史
          • 数据湖发展阶段1 - Hadoop
          • 数据湖发展阶段2 - Hive
          • 数据湖发展阶段3 - 湖仓一体
          • 业界三大数据湖
        • 核心技术
          • 文件结构
          • Time travel
          • Transaction
          • 原子性
          • 事务隔离
          • Schema Evolution
        • 各有所长
          • lceberg 工作重点
          • Well-designed Metadata Layer
          • Data File Filter
          • Hidden Partition
          • Hudi 工作重点
          • Timeline Serivce & Upsert & Incremental
          • Copy on Write
          • Merge On Read
          • Delta Lake 工作重点
          • 流批一体
        • 总结场景
          • 三个数据湖的热度
          • 技术选型
      • 从 Kafka 到 Pulsar 的数据流演进之路| 青训营笔记
      • Parquet 和 ORC:高性能列式存储| 青训营笔记
      • LSMT 存储引擎浅析| 青训营笔记
      • 浅谈分布式一致性协议| 青训营笔记
      • 走进 YARN 资源管理和调度| 青训营笔记
      • 深入理解 K8S 资源管理和调度| 青训营笔记
      • 实时数据中心建设思路与企业实践| 青训营笔记
      • 用户数据分析理论与最佳实践| 青训营笔记
      • 大数据可视化理论与案例分析| 青训营笔记
  • DolphinScheduler

  • Doris

  • 大数据
  • 青训营
  • 第四届青训营
Iekr
2022-08-11
目录

数据湖三剑客:Delta Lake、Hudi 与 Iceberg| 青训营笔记

# 数据湖三剑客:Delta Lake、Hudi 与 Iceberg| 青训营笔记

这是我参与「第四届青训营 」笔记创作活动的的第 11 天

# 数据湖发展历史

# 数据湖发展阶段 1 - Hadoop

image-20220811022824549

  • 数据湖最开始的概念 -- 分布式存储 HDFS
  • 使用目录来区分不同的数据集
    • /douyin
      • /20220810
      • /20220811
    • /toutiao

优点:

  • 同一组织可以使用共享存储
  • 数据访问方便,灵活性高

缺点:

  1. 没有记录文件的 schema (包括列名、列类型),经常使用 Schema on Query 的方式
  2. 难以得知数据集包含了那些文件,是通过什么样的分区组织的
  3. 如果多个程序都在修改这个数据集(修改数据、修改表结构),其他程序难以配合做修改

# 数据湖发展阶段 2 - Hive

image-20220811022936439

  • 数据湖的演进 -- Hive Metastore
  • 对数据湖中的数据集进行集中 “定义”
    • 数据湖中存在了哪些数据集
    • 它们都存储在什么目录
    • 数据集的 schema 是什么样子的
    • 数据集有哪些分区,每个分区的目录是什么

如果这张 hive 表是静态的,没有新增写入,则所有读取方都能很便捷的使用

问题来了:

  • ①假设 Reader A 和 B 都正在读取分区 / 20220623 下的文件
  • 此时 Writer B 开始重写 / 20220623 分区,一些文件被删了,一些文件增加了,一些文件还在修改中
  • Reader A 和 B 读到的文件可能是不同的!

我们需要 Transaction ACID!

问题又来了:

  • 分区 / 20220623 下存储了 schema 为 date l userld l phoneNumber 的数据
  • 需要注意:Hive allows us to add column after last column only
  • 根据合规,我需要删掉 phoneNumber,但是在 Hive 表上做不到。只好重写一张表(耗费资源)

我们需要支持更多样的 schema 变更!以及更多的功能

# 数据湖发展阶段 3 - 湖仓一体

什么是数据仓库?

image-20220811023442701

  • 数据仓库将数据从数据源提取和转换,加载到目的地
  • 数据仓库存储 + 计算不分离
  • 数据仓库严格控制写入数据的 schema

数据仓库 数据湖(阶段 2)
成本 高 低
存储计算分离 否 是
ACID 是 否

湖仓一体(数据湖的现状):

image-20220811023801599

  • 结合了数据湖和数据仓库的优势

  • 将数据仓库中对于数据的严格管理直接实现到了低成本的分布式存储之上

  • Key Features:

    • Transaction ACID
    • Schema 管理
    • 存储计算分离
    • 支持多种计算引擎和文件格式

# 业界三大数据湖

  • Uber 开源的 Hudi
  • NETFLIX 开源的 Iceberg
  • databricks 开源的 DELTA LAKE### 关于 “数据湖”
  • 数据相关概念比较新,一直处在演进当中
  • 一开始是 HDFS,裸 pb、txt 日志等等,叫数据湖(管不动了就叫数据沼泽)
  • 后来出现了了 lceberg、Hudi、Delta Lake 了,数据湖概念就基本等于这些产品了
  • 也更贴近于 Lakehouse 的概念

# 核心技术

# 文件结构

  1. 我想存一些数据,按照 date 分区 schema 是 userld、date、event、phone
  2. 每天都会写入新数据
  3. 需要使用列存格式

image-20220811024828288

写入数据湖时

  1. 按照每条数据的 date 进行分区
  2. 额外使用 metadata 文件记录表信息 image-20220811024839886

# Time travel

要点:

  1. 每次写入都生成一个新的元数据文件,记录变更
  2. 分区数据在 Update 时,不要删除旧数据,保证新旧共存
  3. 元数据中存储具体的文件路径,而不仅仅是分区文件夹

image-20220811025201606

  1. 每一次写入操作,创建一个新的 json 文件,以递增版本号命名,记录本次新增 / 删除的文件。
  2. 每当产生 N 个 json,做一次聚合,记录完整的分区文件信息
  3. 用 checkpoint 记录上次做聚合的版本号

image-20220811025248687

# Transaction

ACID,是指数据库在写入或更新资料的过程中,为保证事务是正确可靠的,所必须具备的四个特性。

以 A 给 B 转账 10 元为例:

  1. Atomicity: 原子性 —— 要么 A-10 B+10,要么都不变
  2. Consistency: 一致性 —— 不可以 A-10 B+5
  3. Isolation: 事务隔离 ——A 和 C 同时给 B 转 10,B 最终结果应是 + 20
  4. Durability: 持久性 —— 转账服务器重启,结果不变

数据湖中的 ACID:

  1. Atomicity: 原子性 - 本次写入要么对用户可见,要么不可见(需要设计)
  2. Consistency: 一致性 - 输入是什么,落盘的就是什么(由计算引擎保证)
  3. Isolation: 事务隔离一正确解决读写冲突和写写冲突(需要设计)
  4. Durability: 持久性 - 落完数据后,即便服务器重启结果不变(由存储引擎保证)

# 原子性

写入流程:

  1. 写入 parquet 数据文件
  2. 写入 json 元数据文件

如何确保原子性?(从用户可见性入手!)

  1. 用户只会读取以版本号数字命名的 json 文件,每次都读取到最大的版本号作为数据集的现状
  2. 新的写入写完 parquet 后开始写 json 文件,使用 hash 值对 json 文件命名,如 a2fs4hfg8ee.json
  3. 直到 json 文件内容写入完毕,利用 hdfs 的 renamelfAbsent 能将 a2fs4hfg8ee.json 替换为 000006.json,到此为止 commit 完成,新的读取将会以 000006.json 作为最新版本

读写冲突已经被解决,how?

  1. 新的与入除非已经 commit,否则用户读不到
  2. 用户正在读的分区,被另一个写入进行了更新,数据不会进行替换,而是共存

# 事务隔离

写写冲突 Insert Update/delete
insert Can not conflict
Update/delete Can conflict Can conflict

Update 写入流程:

  1. 从最新的版本中,获取需要 update 的分区
  2. 乐观锁先把该写入的文件全落盘,然后进入写 json 阶段
  3. 分几种情况:
    1. 发现版本号和一开始没区别,直接写新的版本。
    2. 发现版本号增加了,看看新增的这些版本有没有更新我要更新的分区?
      1. 没有,直接写新的版本。
      2. 有,两者都更新了同一分区,得重新 update 了。

# Schema Evolution

ID 将 data 和 metadata 的列名做一一对应!

  1. 唯一确定的 ID。新增列赋予新 ID。删列 IID 不复用。
  2. 写入数据时,ID 也写入数据文件
  3. 读取数据时,用 ID 做映射,如果
    1. Data 中没有,metadata 中有: ADD
    2. Data 中有,metadata 中没有: DROP
    3. Data 和 metadata 中都有同一 ID,但是 name 不同: RENAME
    4. 如果都有同一列名,而 ID 不同?
      • 某一列删除了,然后重新加入该列名

# 各有所长

# lceberg 工作重点

  • 用户体验
    • Schema evolution
    • Partition evolution
    • Hidden partition
    • Time Travel
    • Version Rollback
  • 性能
    • 快速 file plan
    • 更多的 filter 方式
  • 可靠性
    • ACID Transaction
  • 完全开源,由 Apache 孵化开发

# Well-designed Metadata Layer

image-20220811032513298

  • Metadatafiles 定义了表结构,存储了 snapshot 信息,分区列信息等
  • Mantes Hsts 存储了一个 5napshpt 中所有 manirest 的信息
  • Mani fests 存储了一些 data files 的信息
  • Data files 就是具体的数据文件

# Data File Filter

一些有助于 filter 的数据被层层记录,比如:

  1. Manifestfile 记录了每个 data file 的分区范围
  2. Manifestlist 记录了每个 manifestfile 的分区范围分区可以被快速定位!可以做 manifest list 级别裁剪。
  3. Manifest file 记录了每个 data file 每一列的最大值,最小值可以通过其他的列 (Userld)做 data file 级别裁剪。

# Hidden Partition

传统的分区方式:

  • 数据中包含了 date 列,则按照 date 分区;如果希望按照 hour 分区,则需要新增 hour 列

Iceberg 的分区方式:

  • 数据中包含 timestamp 列,设置好 parttion transform 方式
    • 设置为 date 时,iceberg 帮你转化为 date 分区
    • 设置为 hour 时,iceberg 帮你转化为 hour 分区
    • Iceberg 记录了这层转化关系,并且按你的需要进行 partition evolution

# Hudi 工作重点

Hudi(Hadoop Upsert Delete and Incremental)

工作重点:

  1. Timeline service:Hudi 管理 transaction 的方式
  2. Hudi Table Type: Copy on Write / Merge on Read
  3. 高效的 Upserts: update or insert
  4. 索引表:快速定位一条数据的位置
  5. Streaming Ingestion Service
  6. 完全开源,由 Apache 孵化

# Timeline Serivce & Upsert & Incremental

image-20220811233616084

  • Timeline Service:记录的信息类似于 metadata
  • Upsert:每一条样本都有一个主键 PK, 当 Upsert 一条数据时,如果现有的数据中有这个 PK,则 update 这条数据。否则直接 insert 这条数据
  • Incremental:某个时间点后新增的数据

# Copy on Write

b3b203a1-2680-4d0a-80ce-8e295c477c10

# Merge On Read

005c2dc0-7a83-4cf3-b4b7-1f70ebd5946f

# Delta Lake 工作重点

  • ACID Transaction
  • Schema 校验 (不是 evolution)
  • 流批一体
  • Time Travel
  • Upsert/Delete
  • Z-Order 优化
  • 只开源了一部分,由 Databricks 自己主导开发,Z-Order 等优化的实现未开源

# 流批一体

image-20220812184413861

# 总结场景

image-20220812184456890

# 三个数据湖的热度

image-20220812184625295

# 技术选型

短期来看:每个项目部有一些展于自己的功能:

  • 如果强需求 Upserts,也许 Hudi 是最好的选择
  • 如果希望可扩展性强,那么设计优良的 Iceberg 是最好的选择
  • 如果希望用上 Z-Order 等优化,那么掏钱买 Databricks 的企业版 Delta 是不二之选

长期来看:数据湖取代 Hive,成为 HDFS 上的表格式标准是必然的,在选择之前问自己四个问题:

  1. 我需要的 feature 在哪个数据湖上是最稳定的
  2. 哪一个数据湖能够用最简单的接入方式(SQL)用上最完善的功能
  3. 哪一个数据湖有计算引擎侧的支持和社区的支持
  4. 哪一个数据湖的版本管理做的最好,最鲁棒
编辑 (opens new window)
上次更新: 2023/12/06, 01:31:48
深入浅出 HBase 实战| 青训营笔记
从 Kafka 到 Pulsar 的数据流演进之路| 青训营笔记

← 深入浅出 HBase 实战| 青训营笔记 从 Kafka 到 Pulsar 的数据流演进之路| 青训营笔记→

最近更新
01
k8s
06-06
02
进程与线程
03-04
03
计算机操作系统概述
02-26
更多文章>
Theme by Vdoing | Copyright © 2022-2025 Iekr | Blog
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式