数据更新概述
数据更新是指对具有相同 key 的数据记录中的 value 列进行修改。对于不同的数据模型,数据更新的处理方式有所不同:
-
主键(Unique)模型:主键模型是专门为数据更新设计的一种数据模型。Doris 支持两种存储方式:Merge-on-Read(MoR)和 Merge-on-Write(MoW)。MoR 优化了写入性能,而 MoW 则提供了更好的分析性能。从 Doris 2.1 版本开始,默认存储方式为 MoW。主键模型支持使用
UPDATE
语句进行少量数据更新,也支持通过导入方式进行批量更新。导入方式包括 Stream Load、Broker Load、Routine Load 和 Insert Into 等,所有导入操作都遵循“UPSERT”语义,即如果记录不存在则插入,存在则更新。更新操作支持整行更新和部分列更新,默认为整行更新。 -
聚合(Aggregate)模型:在聚合模型中,数据更新是一种特殊用法。当聚合函数设置为 REPLACE 或 REPLACE_IF_NOT_NULL 时,可以实现数据更新。聚合模型仅支持基于导入方式的更新,不支持使用
UPDATE
语句。通过设置聚合函数为 REPLACE_IF_NOT_NULL,可以实现部分列更新的能力。
通过对不同模型的数据更新方式的理解,可以更好地选择适合的更新策略,以满足具体的业务需求。
不同模型/实现的更新能力对比
性能对比
Unique Key MoW | Unique Key MoR | Aggregate Key | |
---|---|---|---|
导入速度 | 导入过程中进行数据去重,小批量实时写入相比 MoR 约有 10%-20% 的性能损失,大批量导入(例如千万级/亿级数据)相比 MoR 约有 30%-50% 的性能损失 | 与 Duplicate Key 接近 | 与 Duplicate Key 接近 |
查询速度 | 与 Duplicate Key 接近 | 需要在查询期间进行去重,查询耗时约为 MoW 的 3-10 倍 | 如果聚合函数为 REPLACE/REPLACE_IF_NOT_NULL,查询速度与 MoR 接近 |
谓词下推 | 支持 | 不支持 | 不支持 |
资源消耗 | - 导入资源消耗:相比 Duplicate Key/Unique Key MoR,约额外消耗 10%-30% 的 CPU。 - 查询资源消耗:与 Duplicate Key 接近,无额外资源消耗。 - Compaction 资源消耗:相比 Duplicate Key,消耗更多内存和 CPU,具体取决于数据特征和数据量。 | - 导入资源消耗:与 Duplicate Key 相近,无额外资源消耗。 - 查询资源消耗:相比 Duplicate Key/Unique Key MoW,查询时额外消耗更多的 CPU 和内存。 - Compaction 资源消耗:相比 Duplicate Key,需更多内存和 CPU,具体数值取决于数据特征和数据量。 | 与 Unique Key MoR 相同 |
功能支持对比
Unique Key MoW | Unique Key MoR | Aggregate Key | |
---|---|---|---|
UPDATE | 支持 | 支持 | 不支持 |
DELETE | 支持 | 支持 | 不支持 |
sequence 列 | 支持 | 支持 | 不支持 |
delete_sign | 支持 | 支持 | 不支持 |
部分列更新 | 支持 | 不支持 | 支持(但无法更新 null 值) |
倒排索引 | 支持 | 不支持 | 不支持 |
主键(Unique)模型的更新
Doris 主键 (unique) 模型,从 Doris 2.0 开始,除了原来的 Merge-on-Read(MoR),也引入了 Merge-on-Write(MoW)的存储方式,MoR 是为了写入做优化,而 MoW 是为了更快的分析性能做优化。在实际测试中,MoW 存储方式的典型表,分析性能可以是 MoR 方式的 5-10 倍。
在 Doris 2.0,默认创建的 unique 模型依旧是 MoR 的,如果要创建 MoW 的,需要通过参数 "enable_unique_key_merge_on_write" = "true" 手动指定,如下示例:
CREATE TABLE IF NOT EXISTS example_tbl_unique_merge_on_write
(
`user_id` LARGEINT NOT NULL,
`username` VARCHAR(50) NOT NULL ,
`city` VARCHAR(20),
`age` SMALLINT,
`sex` TINYINT,
`phone` LARGEINT,
`address` VARCHAR(500),
`register_time` DATETIME
)
UNIQUE KEY(`user_id`, `username`)
DISTRIBUTED BY HASH(`user_id`) BUCKETS 1
PROPERTIES (
"replication_allocation" = "tag.location.default: 1",
"enable_unique_key_merge_on_write" = "true"
);
从 Doris 2.1 版本开始,写时合并是主键模型的默认方式。所以如果使用 Doris 2.1 及以上版本,务必要阅读相关建表文档。
主键模型的两种更新方式
使用 UPDATE
语句更新
无论是 MoR 还是 MoW,语义都是完成对指定列的更新。单次 UPDATE 的耗时会随着被更新的数据量的增加而增长。
基于导入的批量更新
Doris 支持多种数据导入方式,包括 Stream Load、Broker Load、Routine Load 以及 Insert Into 等。对于主键表,所有导入操作默认采用“UPSERT”语义:当相同主键的记录不存在时执行插入操作,若记录已存在则进行更新操作。更新方式包括整行更新和部分列更新:
-
整行更新:Unique Key 表的更新默认为整行更新。在导入数据时,用户可以选择提供所有字段,或仅提供部分字段。当用户只提供部分字段时,Doris 会用默认值填充缺失的字段,生成完整记录并进行更新。
-
部分列更新:Unique Key MoW 支持部分列更新。用户可以通过设置会话变量
enable_unique_key_partial_update = true
或在 HTTP Header 中指定partial_columns:true
来启用此功能。开启后,若导入数据的主键已存在,则仅更新指定的部分字段;若主键不存在,则使用默认值填充缺失字段。
我们会分别在文档 主键模型的 Update 更新 和 主键模型的导入更新 详细介绍两种更新方式。
主键模型的更新并发控制
使用 UPDATE
语句更新数据
默认情况下,Doris 不允许在同一时间对同一张表进行多个 UPDATE
操作。UPDATE
语句通过表级锁来确保隔离性。
用户可以通过修改 FE 配置 enable_concurrent_update=true
来调整并发限制。当放宽并发限制时,多个 UPDATE
语句如果更新同一行数据,结果将是未定义的。
基于导入的批量更新
Doris 对所有导入更新操作提供原子性保障,即每次导入数据要么全部成功应用,要么全部失败回滚。
对于并发导入更新,Doris 基于系统内部版本控制(按照导入完成提交的顺序进行分配),使用 MVCC 机制确定并发更新的顺序。
由于多个并发导入更新的提交顺序可能无法预期,若这些并发导入涉及相同主键的更新,则其生效顺序也无法预知,最终的可见结果会因此存在不确定性。为解决此问题,Doris 提供了 sequence 列机制,允许用户在并发导入更新时为每一行数据指定版本,以便明确控制并发更新的结果顺序,实现确定性。
我们将在文档 主键模型的更新并发控制 中对更新的并发控制机制进行详细介绍。
聚合(Aggregate)模型的更新
聚合模型的更新,主要是指用新的列值和旧的聚合值按照聚合函数的要求产出新的聚合值。
New Agg Value = Agg Func ( Old Agg Value, New Column Value)
聚合模型只支持基于导入方式的更新,不支持使用 Update 语句更新。在定义聚合模型表的时候,如果把 value 列的聚合函数定义为 REPLACE_IF_NOT_NULL,也可以间接实现类似主键表的部分列更新能力。更多内容,请查看 聚合模型的导入更新。
主键模型和聚合模型的选择建议
- 大部分有数据更新需求的场景,都建议首选主键模型。例如从 TP 数据库 CDC 同步到 Doris,用户画像,人群圈选等。
- 下面两类场景,建议使用聚合模型:
- 部分字段需要做指标聚合,部分字段需要进行更新。
- 对部分列更新有需求,同时对写入性能非常敏感,对查询延迟要求不高的场景,建议使用聚合表 + REPLACE_IF_NOT_NULL 聚合函数。