メインコンテンツまでスキップ

概要

生成AI アプリケーションにおいて、大規模モデルの内部パラメータの「メモリ」のみに依存することには明らかな制限があります:(1)モデルの知識が古くなり、最新の情報をカバーできない;(2)モデルに直接「生成」させることで幻覚のリスクが高まる。これがRAG(Retrieval-Augmented Generation)の誕生につながります。RAGの主要なタスクは、モデルに無から答えを作り出させることではなく、外部の知識ベースからTop-K個の最も関連性の高い情報チャンクを取得し、それらを根拠となるコンテキストとしてモデルに提供することです。

これを実現するために、ユーザーのクエリと知識ベース内のドキュメント間の意味的関連性を測定する仕組みが必要です。ベクトル表現は標準的なツールです:クエリとドキュメントの両方を意味ベクトルにエンコードすることで、ベクトル類似度を使用して関連性を測定できます。事前学習された言語モデルの進歩により、高品質な埋め込みの生成が主流になりました。したがって、RAGの検索段階は典型的なベクトル類似度検索問題になります:大規模なベクトルコレクションから、クエリに最も類似するK個のベクトル(すなわち候補知識片)を見つけること。

RAGにおけるベクトル検索はテキストに限定されず、マルチモーダルシナリオに自然に拡張されます。マルチモーダルRAGシステムでは、画像、音声、動画、その他のデータタイプもベクトルにエンコードして検索し、生成モデルにコンテキストとして供給できます。例えば、ユーザーが画像をアップロードした場合、システムはまず関連する説明や知識スニペットを検索し、その後説明的なコンテンツを生成できます。医療QAでは、RAGは患者記録や文献を検索して、より正確な診断提案をサポートできます。

近似最近傍探索

バージョン4.0から、Apache DorisはANN検索を正式にサポートしています。追加のデータタイプは導入されません:ベクトルは固定長配列として格納されます。距離ベースのインデックスには、Faissをベースとした新しいインデックスタイプANNが実装されています。

一般的なSIFTデータセットを例として、以下のようにテーブルを作成できます:

CREATE TABLE sift_1M (
id int NOT NULL,
embedding array<float> NOT NULL COMMENT "",
INDEX ann_index (embedding) USING ANN PROPERTIES(
"index_type"="hnsw",
"metric_type"="l2_distance",
"dim"="128",
"quantizer"="flat"
)
) ENGINE=OLAP
DUPLICATE KEY(id) COMMENT "OLAP"
DISTRIBUTED BY HASH(id) BUCKETS 1
PROPERTIES (
"replication_num" = "1"
);
  • index_type: hnswHierarchical Navigable Small World algorithmを使用することを意味します
  • metric_type: l2_distanceは距離関数としてL2距離を使用することを意味します
  • dim: 128はベクトル次元が128であることを意味します
  • quantizer: flatは各ベクトル次元が元のfloat32として保存されることを意味します
パラメータ必須サポート/オプションデフォルト説明
index_typeはいhnsw のみ(なし)ANNインデックスアルゴリズム。現在はHNSWのみサポート。
metric_typeはいl2_distance, inner_product(なし)ベクトル類似度/距離メトリック。L2 = ユークリッド距離; inner_productはベクトルが正規化されている場合、コサイン距離を近似可能。
dimはい正の整数 (> 0)(なし)ベクトル次元。インポートされるすべてのベクトルが一致する必要があり、そうでなければエラーが発生します。
max_degreeいいえ正の整数32HNSW M(ノードあたりの最大近傍数)。インデックスメモリと検索性能に影響します。
ef_constructionいいえ正の整数40HNSW efConstruction(構築時の候補キューサイズ)。大きくすると品質が向上しますが、構築が遅くなります。
quantizerいいえflat, sq8, sq4, pqflatベクトルエンコーディング/量子化: flat = 生データ; sq8/sq4 = スカラー量子化(8/4ビット)、pq = メモリ削減のためのプロダクト量子化。
pq_m'quantizer=pq'の場合必須正の整数(なし)使用するサブベクトル数を指定します(ベクトル次元dimはpq_mで割り切れる必要があります)。
pq_nbits'quantizer=pq'の場合必須正の整数(なし)各サブベクトルの表現に使用するビット数。faissではpq_nbitsは一般的に24以下である必要があります。

S3 TVFを介したインポート:

INSERT INTO sift_1M
SELECT *
FROM S3(
"uri" = "https://selectdb-customers-tools-bj.oss-cn-beijing.aliyuncs.com/sift_database.tsv",
"format" = "csv");

SELECT count(*) FROM sift_1M

+----------+
| count(*) |
+----------+
| 1000000 |
+----------+

l2_distance_approximate / inner_product_approximateを使用すると、ANNインデックスパスがトリガーされます。関数はインデックスのmetric_typeと正確に一致する必要があります(例:metric_type=l2_distancel2_distance_approximateを使用、metric_type=inner_productinner_product_approximateを使用)。順序について:L2は距離の昇順を使用(小さいほど近い)、inner productはスコアの降順を使用(大きいほど近い)します。

SELECT id,
l2_distance_approximate(
embedding,
[0,11,77,24,3,0,0,0,28,70,125,8,0,0,0,0,44,35,50,45,9,0,0,0,4,0,4,56,18,0,3,9,16,17,59,10,10,8,57,57,100,105,125,41,1,0,6,92,8,14,73,125,29,7,0,5,0,0,8,124,66,6,3,1,63,5,0,1,49,32,17,35,125,21,0,3,2,12,6,109,21,0,0,35,74,125,14,23,0,0,6,50,25,70,64,7,59,18,7,16,22,5,0,1,125,23,1,0,7,30,14,32,4,0,2,2,59,125,19,4,0,0,2,1,6,53,33,2]
) AS distance
FROM sift_1M
ORDER BY distance
LIMIT 10;
--------------

+--------+----------+
| id | distance |
+--------+----------+
| 178811 | 210.1595 |
| 177646 | 217.0161 |
| 181997 | 218.5406 |
| 181605 | 219.2989 |
| 821938 | 221.7228 |
| 807785 | 226.7135 |
| 716433 | 227.3148 |
| 358802 | 230.7314 |
| 803100 | 230.9112 |
| 866737 | 231.6441 |
+--------+----------+
10 rows in set (0.02 sec)

正確なground truthと比較するには、l2_distanceまたはinner_product_approximate接尾辞なし)を使用します。この例では、完全検索には約290ミリ秒かかります:

10 rows in set (0.29 sec)

ANNインデックスを使用すると、この例ではクエリレイテンシが約290msから約20msに短縮されます。

ANNインデックスはセグメント粒度で構築されます。分散テーブルでは、各セグメントがローカルTopNを返し、その後TopNオペレータがタブレットとセグメント間で結果をマージしてグローバルTopNを生成します。

順序に関する注意事項:

  • metric_type = l2_distanceの場合、距離が小さいほど近いベクトル → ORDER BY dist ASCを使用します。
  • metric_type = inner_productの場合、値が大きいほど近いベクトル → インデックス経由でTopNを取得するにはORDER BY dist DESCを使用します。

近似範囲検索

一般的なTopN近傍探索(最も近いN件のレコードを返す)に加えて、もう一つの典型的なパターンは閾値ベースの範囲検索です。固定数の結果を返す代わりに、ターゲットベクトルまでの距離が述語(>、>=、<、<=)を満たすすべての点を返します。例えば、距離が閾値より大きいまたは小さいベクトルが必要な場合があります。これは「十分に類似した」または「十分に異なった」候補が必要な場合に有用です。推薦システムでは、多様性を向上させるために近いが同一ではないアイテムを取得することがあり、異常検知では正常分布から離れた点を探します。

SQLの例:

SELECT count(*)
FROM sift_1M
WHERE l2_distance_approximate(
embedding,
[0,11,77,24,3,0,0,0,28,70,125,8,0,0,0,0,44,35,50,45,9,0,0,0,4,0,4,56,18,0,3,9,16,17,59,10,10,8,57,57,100,105,125,41,1,0,6,92,8,14,73,125,29,7,0,5,0,0,8,124,66,6,3,1,63,5,0,1,49,32,17,35,125,21,0,3,2,12,6,109,21,0,0,35,74,125,14,23,0,0,6,50,25,70,64,7,59,18,7,16,22,5,0,1,125,23,1,0,7,30,14,32,4,0,2,2,59,125,19,4,0,0,2,1,6,53,33,2])
> 300
--------------

+----------+
| count(*) |
+----------+
| 999271 |
+----------+
1 row in set (0.19 sec)

これらの範囲ベースのベクトル検索もANNインデックスによって高速化されます:インデックスがまず候補を絞り込み、その後近似距離が計算されることで、コストを削減し、レイテンシを改善します。サポートされる述語:>>=<<=

Compound Searchは、同じSQL文内でANN TopN検索と範囲述語を組み合わせ、距離制約も満たすTopN結果を返します。

SELECT id,
l2_distance_approximate(
embedding, [0,11,77,24,3,0,0,0,28,70,125,8,0,0,0,0,44,35,50,45,9,0,0,0,4,0,4,56,18,0,3,9,16,17,59,10,10,8,57,57,100,105,125,41,1,0,6,92,8,14,73,125,29,7,0,5,0,0,8,124,66,6,3,1,63,5,0,1,49,32,17,35,125,21,0,3,2,12,6,109,21,0,0,35,74,125,14,23,0,0,6,50,25,70,64,7,59,18,7,16,22,5,0,1,125,23,1,0,7,30,14,32,4,0,2,2,59,125,19,4,0,0,2,1,6,53,33,2]) as dist
FROM sift_1M
WHERE l2_distance_approximate(
embedding, [0,11,77,24,3,0,0,0,28,70,125,8,0,0,0,0,44,35,50,45,9,0,0,0,4,0,4,56,18,0,3,9,16,17,59,10,10,8,57,57,100,105,125,41,1,0,6,92,8,14,73,125,29,7,0,5,0,0,8,124,66,6,3,1,63,5,0,1,49,32,17,35,125,21,0,3,2,12,6,109,21,0,0,35,74,125,14,23,0,0,6,50,25,70,64,7,59,18,7,16,22,5,0,1,125,23,1,0,7,30,14,32,4,0,2,2,59,125,19,4,0,0,2,1,6,53,33,2])
> 300
ORDER BY dist limit 10
--------------

+--------+----------+
| id | dist |
+--------+----------+
| 243590 | 300.005 |
| 549298 | 300.0317 |
| 429685 | 300.0533 |
| 690172 | 300.0916 |
| 123410 | 300.1333 |
| 232540 | 300.1649 |
| 547696 | 300.2066 |
| 855437 | 300.2782 |
| 589017 | 300.3048 |
| 930696 | 300.3381 |
+--------+----------+
10 rows in set (0.12 sec)

重要な問題は、述語フィルタリングがTopNの前に実行されるか後に実行されるかです。述語が最初にフィルタリングしてからTopNが削減されたセットに適用される場合は事前フィルタリングです。それ以外の場合は事後フィルタリングです。事後フィルタリングはより高速になる可能性がありますが、リコールを大幅に減少させる可能性があります。Dorisはリコールを保持するために事前フィルタリングを使用します。

Dorisはインデックスを使用して両方のフェーズを高速化できます。ただし、最初のフェーズ(範囲フィルタ)の選択性が高すぎる場合、両方のフェーズのインデックス化はリコールを損なう可能性があります。Dorisは述語の選択性とインデックスタイプに基づいて、インデックスを2回使用するかどうかを適応的に決定します。

追加フィルタを使用したANN検索

これは、ANN TopNの前に他の述語を適用し、それらの制約の下でTopNを返すことを指します。

8次元の小さなベクトルとテキストフィルタを使用した例:

CREATE TABLE ann_with_fulltext (
id int NOT NULL,
embedding array<float> NOT NULL,
comment String NOT NULL,
value int NULL,
INDEX idx_comment(`comment`) USING INVERTED PROPERTIES("parser" = "english") COMMENT 'inverted index for comment',
INDEX ann_embedding(`embedding`) USING ANN PROPERTIES("index_type"="hnsw","metric_type"="l2_distance","dim"="8")
) DUPLICATE KEY (`id`)
DISTRIBUTED BY HASH(`id`) BUCKETS 1
PROPERTIES("replication_num"="1");

サンプルデータを挿入し、commentに"music"が含まれる行のみを検索する:

INSERT INTO ann_with_fulltext VALUES
(1, [0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8], 'this is about music', 10),
(2, [0.2,0.1,0.5,0.3,0.9,0.4,0.7,0.1], 'sports news today', 20),
(3, [0.9,0.8,0.7,0.6,0.5,0.4,0.3,0.2], 'latest music trend', 30),
(4, [0.05,0.06,0.07,0.08,0.09,0.1,0.2,0.3], 'politics update',40);

SELECT id, comment,
l2_distance_approximate(embedding, [0.1,0.1,0.2,0.2,0.3,0.3,0.4,0.4]) AS dist
FROM ann_with_fulltext
WHERE comment MATCH_ANY 'music' -- Filter using inverted index
ORDER BY dist ASC -- Ann topn calculation after predicates evaluate.
LIMIT 2;

+------+---------------------+----------+
| id | comment | dist |
+------+---------------------+----------+
| 1 | this is about music | 0.663325 |
| 3 | latest music trend | 1.280625 |
+------+---------------------+----------+
2 rows in set (0.04 sec)

TopNがベクトルインデックス経由で高速化されることを保証するため、すべての述語列には適切なセカンダリインデックス(例:転置インデックス)が必要です。

ANN検索に関連するセッション変数

HNSWのビルド時パラメータに加えて、セッション変数を通じて検索時パラメータを渡すことができます:

  • hnsw_ef_search: EF検索パラメータ。候補キューの最大長を制御します;大きいほど精度が高くなりますが、レイテンシも高くなります。デフォルトは32です。
  • hnsw_check_relative_distance: 精度を向上させるために相対距離チェックを有効にするかどうか。デフォルトはtrueです。
  • hnsw_bounded_queue: パフォーマンスを最適化するために有界優先キューを使用するかどうか。デフォルトはtrueです。

ベクトル量子化

FLATエンコーディングでは、HNSWインデックス(生ベクトル+グラフ構造)が大量のメモリを消費する場合があります。HNSWが機能するためには完全にメモリに常駐する必要があるため、大規模スケールではメモリがボトルネックになる可能性があります。

スカラー量子化(SQ)はfloat32ストレージを圧縮してメモリを削減します。積量子化(PQ)は高次元ベクトルをより小さなサブベクトルに圧縮し、各サブベクトルを独立して量子化することでメモリオーバーヘッドを削減します。スカラー量子化について、Dorisは現在2つのスカラー量子化スキームをサポートしています:INT8とINT4(SQ8 / SQ4)。SQ8を使用した例:

CREATE TABLE sift_1M (
id int NOT NULL,
embedding array<float> NOT NULL COMMENT "",
INDEX ann_index (embedding) USING ANN PROPERTIES(
"index_type"="hnsw",
"metric_type"="l2_distance",
"dim"="128",
"quantizer"="sq8"
)
) ENGINE=OLAP
DUPLICATE KEY(id) COMMENT "OLAP"
DISTRIBUTED BY HASH(id) BUCKETS 1
PROPERTIES (
"replication_num" = "1"
);

768次元のCohere-MEDIUM-1MおよびCohere-LARGE-10Mデータセットにおいて、SQ8はFLATと比較してインデックスサイズを約3分の1に削減します。

DatasetDimStorage/Index SchemeTotal DiskData PartIndex PartNotes
Cohere-MEDIUM-1M768DDoris (FLAT)5.647 GB (2.533 + 3.114)2.533 GB3.114 GB1M vectors
Cohere-MEDIUM-1M768DDoris SQ INT83.501 GB (2.533 + 0.992)2.533 GB0.992 GBINT8 symmetric quantization
Cohere-MEDIUM-1M768DDoris PQ(pq_m=384,pq_nbits=8)3.149 GB (2.535 + 0.614)2.535 GB0.614 GBproduct quantization
Cohere-LARGE-10M768DDoris (FLAT)56.472 GB (25.328 + 31.145)25.328 GB31.145 GB10M vectors
Cohere-LARGE-10M768DDoris SQ INT835.016 GB (25.329 + 9.687)25.329 GB9.687 GBINT8 quantization

量子化は、各距離計算で量子化された値をデコードする必要があるため、追加のビルド時間のオーバーヘッドをもたらします。128次元ベクトルの場合、ビルド時間は行数とともに増加し、SQはFLATと比較してビルドが最大約10倍遅くなる可能性があります。

同様に、Dorisはproduct quantizationもサポートしていますが、PQを使用する場合は追加のパラメータを提供する必要があることに注意してください:

  • pq_m:元の高次元ベクトルを分割するサブベクトルの数を示します(ベクトル次元dimはpq_mで割り切れる必要があります)。
  • pq_nbits:各サブベクトル量子化のビット数を示し、各サブスペースコードブックのサイズを決定します。faissではpq_nbitsは一般的に24以下である必要があります。

PQ量子化は訓練中に十分なデータを必要とし、訓練ポイントの数はクラスタ数以上である必要があることに注意してください(n >= 2 ^ pq_nbits)。

CREATE TABLE sift_1M (
id int NOT NULL,
embedding array<float> NOT NULL COMMENT "",
INDEX ann_index (embedding) USING ANN PROPERTIES(
"index_type"="hnsw",
"metric_type"="l2_distance",
"dim"="128",
"quantizer"="pq", -- Specify using PQ for quantization
"pq_m"="2", -- Required when using PQ, indicates splitting high-dimensional vector into pq_m low-dimensional sub-vectors
"pq_nbits"="2" -- Required when using PQ, indicates the number of bits for each subspace codebook
)
) ENGINE=OLAP
DUPLICATE KEY(id) COMMENT "OLAP"
DISTRIBUTED BY HASH(id) BUCKETS 1
PROPERTIES (
"replication_num" = "1"
);

ANN-SQ-BUILD_COSTS

パフォーマンスチューニング

ベクトル検索は典型的なセカンダリインデックスのポイントルックアップシナリオです。高QPSと低レイテンシーのためには、以下を検討してください:

チューニングにより、ハードウェア FE 32C 64GB + BE 32C 64GB において、Dorisは3000+ QPS(データセット:Cohere-MEDIUM-1M)を実現できます。

クエリパフォーマンス

同時実行数スキームQPS平均レイテンシー (s)P99 (s)CPU使用率Recall
240Doris3340.43990.0713681680.16339982540%91.00%
240Doris SQ INT83188.63590.0747288520.16037019540%88.26%
240Doris SQ INT42818.22910.0846638680.17482681543%80.38%
240Doris brute force3.678725.55487882629.363227973100%100.00%
480Doris4155.72200.1133872710.26108607560%91.00%
480Doris SQ INT83833.11300.1230402140.27691286750%88.26%
480Doris SQ INT43431.05380.1376369950.28163124957%80.38%
480Doris brute force3.678725.55487882629.363227973100%100.00%

Prepared Statementの使用

現代の埋め込みモデルは、768次元以上のベクトルを出力することが多くあります。768次元のリテラルをSQLにインライン化すると、解析時間が実行時間を上回る可能性があります。Prepared Statementを使用してください。現在DorisはMySQL clientのprepareコマンドを直接サポートしていないため、JDBCを使用してください:

  1. JDBC URLでサーバーサイドPrepared Statementを有効化:
    jdbc:mysql://127.0.0.1:9030/demo?useServerPrepStmts=true
  2. プレースホルダー(?)でPreparedStatementを使用し、再利用する。

セグメント数の削減

ANNインデックスはセグメントごとに構築されます。セグメント数が多すぎるとオーバーヘッドが発生します。理想的には、各tabletでANNインデックス付きテーブルに対して最大約5セグメントにするべきです。be.confwrite_buffer_sizevertical_compaction_max_segment_sizeを調整してください(例:両方を10737418240に)。

Rowset数の削減

セグメントを削減するのと同じ動機:スケジューリングのオーバーヘッドを最小化します。各ロードがrowsetを作成するため、バッチ取り込みにはstream loadまたはINSERT INTO SELECTを推奨します。

ANNインデックスをメモリに保持

現在のANNアルゴリズムはメモリベースです。セグメントのインデックスがメモリにない場合、ディスクI/Oが発生します。be.confenable_segment_cache_prune=falseを設定してANNインデックスを常駐させてください。

parallel_pipeline_task_num = 1

ANN TopNクエリは各スキャナーから非常に少ない行を返すため、高いパイプラインタスクの並列性は不要です。parallel_pipeline_task_num = 1を設定してください。

enable_profile = false

超低レイテンシーが要求されるクエリに対してクエリプロファイリングを無効化してください。

Python SDK

AIの時代において、Pythonはデータ処理とインテリジェントアプリケーション開発の主流言語となっています。開発者がPython環境でDorisのベクトル検索機能をより簡単に使用できるように、一部のコミュニティ貢献者がDoris用のPython SDKを開発しました。

使用制限

  1. ANNインデックス列はNOT NULLArray<Float>である必要があり、インポートされるすべてのベクトルは宣言されたdimと一致する必要があります。そうでなければエラーが投げられます。

  2. ANNインデックスはDuplicateKeyテーブルモデルでのみサポートされています。

  3. Dorisはpre-filterセマンティクス(ANN TopNの前に述語が適用される)を使用します。述語に行を正確に特定できるセカンダリインデックスがない列(例:転置インデックスなし)が含まれる場合、Dorisは正確性を保つためにbrute forceにフォールバックします。 例:

    SELECT id, l2_distance_approximate(embedding, [xxx]) AS distance
    FROM sift_1M
    WHERE round(id) > 100
    ORDER BY distance LIMIT 10;

idはキーですが、セカンダリインデックス(転置インデックスなど)がない場合、その述語はインデックス解析後に適用されるため、Dorisはプリフィルターセマンティクスを満たすためにブルートフォースにフォールバックします。

  1. SQLの距離関数がインデックスDDLで定義されたmetric typeと一致しない場合、l2_distance_approximate / inner_product_approximateを呼び出してもDorisはTopNにANNインデックスを使用できません。
  2. metric type inner_productの場合、ORDER BY inner_product_approximate(...) DESC LIMIT N(DESCが必須)のみがANNインデックスによって高速化できます。
  3. xxx_approximate()の第一パラメータはColumnArrayである必要があり、第二パラメータはCASTまたはArrayLiteralである必要があります。これらを逆にするとブルートフォース検索がトリガーされます。