ログストレージと分析 | Doris Docs
ログはシステム内の主要イベントを記録し、イベントの主体、時間、場所、内容などの重要な情報を含んでいます。運用における可観測性、ネットワークセキュリティ監視、ビジネス分析の多様なニーズに応えるため、企業は散在するログを集中的に収集し、保存、照会、分析を行い、ログデータからさらに価値のあるコンテンツを抽出する必要があります。
このシナリオにおいて、Apache Dorisは対応するソリューションを提供します。ログシナリオの特性を考慮し、Apache Dorisは転置インデックスと超高速全文検索機能を追加し、書き込みパフォーマンスとストレージ容量を極限まで最適化しました。これにより、ユーザーはApache Dorisをベースとしたオープンで高性能、費用対効果が高く、統合されたログ保存・分析プラットフォームを構築できます。
このソリューションに焦点を当てて、本章は以下の3つのセクションで構成されています:
-
全体アーキテクチャ:このセクションでは、Apache Dorisをベースに構築されたログ保存・分析プラットフォームのコアコンポーネントとアーキテクチャについて説明します。
-
機能と利点:このセクションでは、Apache Dorisをベースに構築されたログ保存・分析プラットフォームの機能と利点について説明します。
-
運用ガイド:このセクションでは、Apache Dorisをベースとしたログ保存・分析プラットフォームの構築方法について説明します。
全体アーキテクチャ
以下の図は、Apache Dorisをベースに構築されたログ保存・分析プラットフォームのアーキテクチャを示しています:

このアーキテクチャには以下の3つの部分が含まれています:
-
ログ収集と前処理:様々なログ収集ツールが、HTTP APIを通じてApache Dorisにログデータを書き込むことができます。
-
ログ保存・分析エンジン:Apache Dorisは高性能で低コストの統合ログ保存を提供し、SQLインターフェースを通じて豊富な検索・分析機能を提供します。
-
ログ分析・アラートインターフェース:様々なログ検索・分析ツールが標準SQLインターフェースを通じてApache Dorisを照会し、ユーザーにシンプルで使いやすいインターフェースを提供します。
機能と利点
以下の図は、Apache Dorisをベースに構築されたログ保存・分析プラットフォームのアーキテクチャを示しています:
-
高スループット、低レイテンシーログ書き込み:1日あたり数百TBおよびGB/s単位でのログデータの安定した書き込みをサポートし、レイテンシーを1秒以内に維持します。
-
大規模ログデータの費用対効果の高い保存:ペタバイトスケールの保存をサポートし、Elasticsearchと比較して保存コストを60%から80%節約し、S3/HDFSにコールドデータを保存することでさらに保存コストを50%削減します。
-
高性能ログ全文検索・分析:転置インデックスと全文検索をサポートし、一般的なログクエリ(キーワード検索、トレンド分析など)に対して秒レベルの応答時間を提供します。
-
オープンで使いやすいアップストリーム・ダウンストリームエコシステム:Stream Loadの汎用HTTP APIを通じて、Logstash、Filebeat、Fluentbit、Kafkaなどの一般的なログ収集システムやデータソースとのアップストリーム統合、標準MySQLプロトコルと構文を使用した様々なビジュアル分析UIとのダウンストリーム統合(可観測性プラットフォームGrafana、BI分析Superset、Kibanaに類似したログ検索Doris WebUIなど)をサポートします。
費用対効果の高いパフォーマンス
Benchmarkテストと本番環境での検証の結果、Apache Dorisをベースに構築されたログ保存・分析プラットフォームは、Elasticsearchに対して5から10倍の費用対効果の優位性を持っています。Apache Dorisのパフォーマンス上の利点は、主に世界をリードする高性能保存・クエリエンジン、およびログシナリオ向けの専門的最適化によるものです:
-
書き込みスループットの向上:Elasticsearchの書き込みパフォーマンスのボトルネックは、データ解析と転置インデックス構築のためのCPU消費にあります。対照的に、Apache Dorisは書き込みにおいて2つの側面で最適化を行っています:SIMDやその他のCPUベクトル命令を使用してJSONデータ解析速度とインデックス構築パフォーマンスを向上させ、フォワードインデックスなどの不要なデータ構造を除去することでログシナリオ向けの転置インデックス構造を簡素化し、インデックス構築の複雑さを効果的に削減しています。同じリソースで、Apache Dorisの書き込みパフォーマンスはElasticsearchより3から5倍高くなります。
-
保存コストの削減:Elasticsearchの保存ボトルネックは、フォワードインデックス、転置インデックス、Docvalue列の複数の保存形式、および一般的圧縮アルゴリズムの比較的低い圧縮比にあります。対照的に、Apache Dorisは保存において以下の最適化を行っています:フォワードインデックスを除去してインデックスデータサイズを30%削減;カラム型保存とZstandard圧縮アルゴリズムを使用して、Elasticsearchの1.5倍と比較して大幅に高い5から10倍の圧縮比を実現;ログデータでは、コールドデータへのアクセス頻度は非常に低く、Apache Dorisのホット・コールドデータ階層化機能により、定義された期間を超えたログを自動的により低コストのオブジェクトストレージに保存し、コールドデータの保存コストを70%以上削減できます。同じ生データに対して、Dorisの保存コストはElasticsearchのわずか約20%です。
強力な分析能力
Apache Dorisは標準SQLをサポートし、MySQLプロトコルと構文と互換性があります。そのため、Apache Dorisをベースに構築されたログシステムでは、ログ分析にSQLを使用でき、ログシステムに以下の利点をもたらします:
-
使いやすさ:エンジニアとデータアナリストはSQLに非常に精通しており、彼らの専門知識を再利用でき、新しい技術スタックを学ぶ必要なく迅速に開始できます。
-
豊富なエコシステム:MySQLエコシステムはデータベース分野で最も広く使用されている言語であり、MySQLエコシステムとのシームレスな統合と適用が可能です。DorisはMySQLコマンドラインや様々なGUIツール、BIツール、その他のビッグデータエコシステムツールを活用して、より複雑で多様なデータ処理・分析ニーズに対応できます。
-
強力な分析能力:SQLはデータベースとビッグデータ分析の事実上の標準となっており、検索、集約、マルチテーブルJOIN、サブクエリ、UDF、論理ビュー、マテリアライズドビュー、様々なデータ分析能力をサポートする強力な表現能力と機能を持っています。
柔軟なSchema
以下は、JSON形式の半構造化ログの典型的な例です。トップレベルフィールドは、timestamp、source、node、component、level、clientRequestID、message、propertiesなどの固定フィールドで、すべてのログエントリに存在します。propertiesのネストされたフィールド(properties.sizeやproperties.formatなど)はより動的で、各ログのフィールドは異なる場合があります。
{
"timestamp": "2014-03-08T00:50:03.8432810Z",
"source": "ADOPTIONCUSTOMERS81",
"node": "Engine000000000405",
"level": "Information",
"component": "DOWNLOADER",
"clientRequestId": "671db15d-abad-94f6-dd93-b3a2e6000672",
"message": "Downloading file path: benchmark/2014/ADOPTIONCUSTOMERS81_94_0.parquet.gz",
"properties": {
"size": 1495636750,
"format": "parquet",
"rowCount": 855138,
"downloadDuration": "00:01:58.3520561"
}
}
Apache Dorisは、Flexible Schemaログデータに対していくつかの側面からサポートを提供しています:
-
トップレベルフィールドの変更に対しては、Light Schema Changeを使用してカラムやインデックスの追加・削除が可能で、スキーマ変更を数秒で完了できます。ログプラットフォームを計画する際、ユーザーはどのフィールドにインデックスが必要かを考慮するだけで済みます。
-
プロパティに類似した拡張フィールドに対しては、ネイティブの半構造化データ型
VARIANTを提供しており、任意のJSONデータの書き込み、JSON内のフィールド名と型の自動認識、頻繁に出現するフィールドの自動分割による列指向ストレージでの後続分析が可能です。さらに、VARIANTは転置インデックスを作成して内部フィールドのクエリと検索を高速化できます。
ElasticsearchのDynamic Mappingと比較して、Apache DorisのFlexible Schemaには以下の利点があります:
-
フィールドが複数の型を持つことを許可し、
VARIANTはフィールドの競合と型昇格を自動的に処理して、ログデータの反復的な変更により適応します。 -
VARIANTは出現頻度の低いフィールドを自動的にカラムストアにマージして、過剰なフィールド、メタデータ、またはカラムによるパフォーマンス問題を回避します。 -
カラムの動的追加だけでなく、動的削除も可能で、インデックスの動的追加や削除もでき、Elasticsearchのように最初からすべてのフィールドにインデックスを作成する必要がなく、不要なコストを削減します。
運用ガイド
ステップ1:リソースの見積もり
クラスターをデプロイする前に、サーバーに必要なハードウェアリソースを見積もる必要があります。以下のステップに従ってください:
- 以下の計算式でデータ書き込み用のリソースを見積もります:
-
平均書き込みスループット = 日次データ増分 / 86400 s -
ピーク書き込みスループット = 平均書き込みスループット \* ピーク書き込みスループットと平均書き込みスループットの比率 -
ピーク書き込みスループット用CPUコア数 = ピーク書き込みスループット / シングルコアCPUの書き込みスループット
-
計算式でデータストレージ用のリソースを見積もります:
ストレージ容量 = 日次データ増分 / データ圧縮比 * データコピー数 * データ保存期間。 -
データクエリ用のリソースを見積もります。データクエリ用のリソースは、クエリ量と複雑さに依存します。最初はデータクエリ用にCPUリソースの50%を予約し、実際のテスト結果に応じて調整することを推奨します。
-
計算結果を以下のように統合します:
-
ステップ1とステップ3で計算したCPUコア数をBEサーバーのCPUコア数で割ると、BEサーバー数が得られます。
-
BEサーバー数とステップ2の計算結果に基づいて、各BEサーバーに必要なストレージ容量を見積もります。
-
各BEサーバーに必要なストレージ容量を4〜12のデータディスクに割り当てると、単一データディスクに必要なストレージ容量が得られます。
-
例えば、日次データ増分が100 TB、データ圧縮比が5、データコピー数が1、ホットデータの保存期間が3日、コールドデータの保存期間が30日、ピーク書き込みスループットと平均書き込みスループットの比率が200%、シングルコアCPUの書き込みスループットが10 MB/s、データクエリ用にCPUリソースの50%を予約する場合、以下のように見積もることができます:
-
FEサーバーが3台必要で、それぞれ16コアCPU、64 GBメモリ、1 100 GB SSDディスクで構成されます。
-
BEサーバーが15台必要で、それぞれ32コアCPU、256 GBメモリ、10 600 GB SSDディスクで構成されます。
-
S3オブジェクトストレージ容量600 TB
上記の例の指標値とその計算方法については、以下の表を参照してください。
| 指標(単位) | 値 | 説明 |
|---|---|---|
| 日次データ増分(TB) | 100 | 実際のニーズに応じて値を指定します。 |
| データ圧縮比 | 5 | 実際のニーズに応じて値を指定します。通常3から10の間です。データにはインデックスデータも含まれることに注意してください。 |
| データコピー数 | 1 | 実際のニーズに応じて値を指定します。1、2、または3にできます。デフォルト値は1です。 |
| ホットデータの保存期間(日) | 3 | 実際のニーズに応じて値を指定します。 |
| コールドデータの保存期間(日) | 30 | 実際のニーズに応じて値を指定します。 |
| データ保存期間 | 33 | 計算式:ホットデータの保存期間 + コールドデータの保存期間 |
| ホットデータの推定ストレージ容量(TB) | 60 | 計算式:日次データ増分 / データ圧縮比 * データコピー数 * ホットデータの保存期間 |
| コールドデータの推定ストレージ容量(TB) | 600 | 計算式:日次データ増分 / データ圧縮比 * データコピー数 * コールドデータの保存期間 |
| ピーク書き込みスループットと平均書き込みスループットの比率 | 200% | 実際のニーズに応じて値を指定します。デフォルト値は200%です。 |
| BEサーバーのCPUコア数 | 32 | 実際のニーズに応じて値を指定します。デフォルト値は32です。 |
| 平均書き込みスループット(MB/s) | 1214 | 計算式:日次データ増分 / 86400 s |
| ピーク書き込みスループット(MB/s) | 2427 | 計算式:平均書き込みスループット * ピーク書き込みスループットと平均書き込みスループットの比率 |
| ピーク書き込みスループット用CPUコア数 | 242.7 | 計算式:ピーク書き込みスループット / シングルコアCPUの書き込みスループット |
| データクエリ用に予約するCPUリソースの割合 | 50% | 実際のニーズに応じて値を指定します。デフォルト値は50%です。 |
| BEサーバーの推定数 | 15.2 | 計算式:ピーク書き込みスループット用CPUコア数 / BEサーバーのCPUコア数 /(1 - データクエリ用に予約するCPUリソースの割合) |
| 四捨五入したBEサーバー数 | 15 | 計算式:MAX (データコピー数, BEサーバーの推定数) |
| 各BEサーバーの推定データストレージ容量(TB) | 5.7 | 計算式:ホットデータの推定ストレージ容量 / BEサーバーの推定数 /(1 - 30%)、ここで30%は予約ストレージ容量の割合を表します。I/O能力を向上させるため、各BEサーバーに4〜12のデータディスクをマウントすることを推奨します。 |
ステップ2:クラスターのデプロイ
リソースの見積もり後、クラスターをデプロイする必要があります。物理環境と仮想環境の両方で手動デプロイを推奨します。手動デプロイについては、Manual Deploymentを参照してください。
ステップ3:FEとBE設定の最適化
クラスターデプロイ完了後、ログストレージと分析のシナリオによりよく適応するために、フロントエンドとバックエンドの設定パラメータを個別に最適化する必要があります。
FE設定の最適化
FE設定フィールドはfe/conf/fe.confで見つけることができます。FE設定を最適化するには、以下の表を参照してください。
| 最適化する設定フィールド | 説明 |
|---|---|
max_running_txn_num_per_db = 10000 | 高並行インポートトランザクションに適応するためにパラメータ値を増加させます。 |
streaming_label_keep_max_second = 3600 label_keep_max_second = 7200 | 高メモリ使用量を伴う高頻度インポートトランザクションを処理するため、保持時間を増加させます。 |
enable_round_robin_create_tablet = true | Tabletを作成する際、均等に分散するためのRound Robin戦略を使用します。 |
tablet_rebalancer_type = partition | Tabletをバランシングする際、各パーティション内で均等に分散する戦略を使用します。 |
autobucket_min_buckets = 10 | ログ量が増加した際の不十分なバケットを避けるため、自動バケットバケットの最小数を1から10に増加させます。 |
max_backend_heartbeat_failure_tolerance_count = 10 | ログシナリオでは、BEサーバーが高い負荷を経験し、短時間のタイムアウトが発生する可能性があるため、許容カウントを1から10に増加させます。 |
詳細については、FE Configurationを参照してください。
BE設定の最適化
BE設定フィールドはbe/conf/be.confで見つけることができます。BE設定を最適化するには、以下の表を参照してください。
| モジュール | 最適化する設定フィールド | 説明 |
|---|---|---|
| Storage | storage_root_path = /path/to/dir1;/path/to/dir2;...;/path/to/dir12 | ディスクディレクトリ上のホットデータのストレージパスを設定します。 |
| - | enable_file_cache = true | ファイルキャッシュを有効にします。 |
| - | file_cache_path = [{"path": "/mnt/datadisk0/file_cache", "total_size":53687091200, "query_limit": "10737418240"},{"path": "/mnt/datadisk1/file_cache", "total_size":53687091200,"query_limit": "10737418240"}] | 以下の具体的な設定でコールドデータのキャッシュパスと関連設定を構成します:path:キャッシュパスtotal_size:キャッシュパスの総サイズ(バイト)、53687091200バイトは50 GBに相当query_limit:1回のクエリでキャッシュパスから照会できるデータの最大量(バイト)、10737418240バイトは10 GBに相当 |
| Write | write_buffer_size = 1073741824 | 小さなファイルとランダムI/O操作を減らし、パフォーマンスを向上させるため、書き込みバッファのファイルサイズを増加させます。 |
| - | max_tablet_version_num = 20000 | テーブル作成のtime_series compaction戦略と連携して、より多くのバージョンを一時的に未マージのままにしておくことを許可します。バージョン2.1.11以降、time_series_max_tablet_version_num設定があるため、もはや必要ありません |
| Compaction | max_cumu_compaction_threads = 8 | CPUコア数 / 4に設定し、CPUリソースの1/4を書き込み用、1/4をバックグラウンドコンパクション用、2/1をクエリやその他の操作用に使用することを示します。 |
| - | inverted_index_compaction_enable = true | コンパクション中のCPU消費量を削減するため、転置インデックスコンパクションを有効にします。 |
| - | enable_segcompaction = false enable_ordered_data_compaction = false | ログシナリオには不要な2つのコンパクション機能を無効にします。 |
| - | enable_compaction_priority_scheduling = false | 低優先度コンパクションは単一ディスクで2つのタスクに制限され、コンパクションの速度に影響を与える可能性があります。 |
| - | total_permits_for_compaction_score = 200000 | このパラメータはメモリ制御に使用され、メモリ時系列戦略下では、パラメータ自体がメモリを制御できます。 |
| Cache | disable_storage_page_cache = true inverted_index_searcher_cache_limit = 30% | ログデータの大容量と限定的なキャッシュ効果により、データキャッシュからインデックスキャッシュに切り替えます。 |
| - | inverted_index_cache_stale_sweep_time_sec = 3600 index_cache_entry_stay_time_after_lookup_s = 3600 | インデックスキャッシュを最大1時間メモリに保持します。 |
| - | enable_inverted_index_cache_on_cooldown = trueenable_write_index_searcher_cache = false | インデックスアップロード中のコールドデータストレージの自動キャッシュを有効にします。 |
| - | tablet_schema_cache_recycle_interval = 3600 segment_cache_capacity = 20000 | 他のキャッシュによるメモリ使用量を削減します。 |
| - | inverted_index_ram_dir_enable = true | 一時的にインデックスファイルに書き込むことで発生するIOオーバーヘッドを削減します。 |
| Thread | pipeline_executor_size = 24 doris_scanner_thread_pool_thread_num = 48 | コア数に比例して32コアCPU用の計算スレッドとI/Oスレッドを構成します。 |
| - | scan_thread_nice_value = 5 | 書き込みパフォーマンスとタイムリー性を確保するため、クエリI/Oスレッドの優先度を下げます。 |
| Other | string_type_length_soft_limit_bytes = 10485760 | 文字列型データの長さ制限を10 MBに増加させます。 |
| - | trash_file_expire_time_sec = 300 path_gc_check_interval_second = 900 path_scan_interval_second = 900 | ごみファイルのリサイクルを加速します。 |
詳細については、BE Configurationを参照してください。
ステップ4:テーブルの作成
ログデータの書き込みとクエリの両方の特徴により、パフォーマンスを向上させるためにターゲット設定でテーブルを構成することを推奨します。
データパーティショニングとバケッティングの設定
-
データパーティショニングについて:
-
日単位で自動管理されるdynamic partitions (
"dynamic_partition.enable" = "true")を伴うrange partitioning (PARTITION BY RANGE(ts))を有効にします。 -
最新のNログエントリの検索を高速化するためのキー (
DUPLICATE KEY(ts))として、DATETIME型のフィールドを使用します。
-
-
データバケッティングについて:
-
バケット数をクラスター内の総ディスク数のおよそ3倍に設定し、各バケットは圧縮後約5GBのデータを含むようにします。
-
単一タブレットインポートと組み合わせてバッチ書き込み効率を最適化するため、Random戦略 (
DISTRIBUTED BY RANDOM BUCKETS 60)を使用します。
-
詳細については、Data Partitioningを参照してください。
圧縮パラメータの設定
データ圧縮効率を向上させるため、zstd圧縮アルゴリズム("compression" = "zstd")を使用します。
コンパクションパラメータの設定
コンパクションフィールドを以下のように設定します:
- 高スループットログ書き込みに重要な書き込み増幅を削減するため、time_series戦略 (
"compaction_policy" = "time_series")を使用します。
インデックスパラメータの設定
インデックスフィールドを以下のように設定します:
-
頻繁にクエリされるフィールドのインデックスを作成します (
USING INVERTED)。 -
全文検索が必要なフィールドについては、ほとんどの要件を満たすparserフィールドをunicodeとして指定します。フレーズクエリのサポートが必要な場合はsupport_phraseフィールドをtrueに設定し、不要な場合はfalseに設定してストレージ容量を削減します。
ストレージパラメータの設定
ストレージポリシーを以下のように設定します:
-
ホットデータのストレージについては、クラウドストレージを使用する場合はデータコピー数を1に設定し、物理ディスクを使用する場合はデータコピー数を少なくとも2に設定します (
"replication_num" = "2")。 -
log_s3のストレージ場所を設定し (
CREATE RESOURCE "log_s3")、log_policy_3dayポリシー (CREATE STORAGE POLICY log_policy_3day)を設定して、3日後にデータを冷却してlog_s3の指定ストレージ場所に移動します。以下のコードを参照してください。
CREATE DATABASE log_db;
USE log_db;
CREATE RESOURCE "log_s3"
PROPERTIES
(
"type" = "s3",
"s3.endpoint" = "your_endpoint_url",
"s3.region" = "your_region",
"s3.bucket" = "your_bucket",
"s3.root.path" = "your_path",
"s3.access_key" = "your_ak",
"s3.secret_key" = "your_sk"
);
CREATE STORAGE POLICY log_policy_3day
PROPERTIES(
"storage_resource" = "log_s3",
"cooldown_ttl" = "259200"
);
CREATE TABLE log_table
(
`ts` DATETIME,
`host` TEXT,
`path` TEXT,
`message` TEXT,
INDEX idx_host (`host`) USING INVERTED,
INDEX idx_path (`path`) USING INVERTED,
INDEX idx_message (`message`) USING INVERTED PROPERTIES("parser" = "unicode", "support_phrase" = "true")
)
ENGINE = OLAP
DUPLICATE KEY(`ts`)
PARTITION BY RANGE(`ts`) ()
DISTRIBUTED BY RANDOM BUCKETS 60
PROPERTIES (
"compression" = "zstd",
"compaction_policy" = "time_series",
"dynamic_partition.enable" = "true",
"dynamic_partition.create_history_partition" = "true",
"dynamic_partition.time_unit" = "DAY",
"dynamic_partition.start" = "-30",
"dynamic_partition.end" = "1",
"dynamic_partition.prefix" = "p",
"dynamic_partition.buckets" = "60",
"dynamic_partition.replication_num" = "2", -- unneccessary for the compute-storage coupled mode
"replication_num" = "2", -- unneccessary for the compute-storage coupled mode
"storage_policy" = "log_policy_3day" -- unneccessary for the compute-storage coupled mode
);
ステップ5: ログ収集
テーブル作成完了後、ログ収集を開始できます。
Apache Dorisは、オープンで多用途なStream HTTP APIを提供しており、これを通じてLogstash、Filebeat、Kafkaなどの人気のログコレクターと連携してログ収集作業を実行できます。このセクションでは、Stream HTTP APIを使用してこれらのログコレクターを統合する方法について説明します。
Logstashの統合
以下の手順に従ってください:
-
Logstash Doris Outputプラグインをダウンロードしてインストールします。以下の2つの方法のいずれかを選択できます:
-
クリックしてダウンロードし、インストールしてください。
-
ソースコードからコンパイルし、以下のコマンドを実行してインストールしてください:
-
./bin/logstash-plugin install logstash-output-doris-1.2.0.gem
- Logstashを設定します。以下のフィールドを指定してください:
logstash.yml:データ書き込みパフォーマンスを向上させるため、Logstashバッチ処理ログサイズとタイミングを設定するために使用されます。
pipeline.batch.size: 1000000
pipeline.batch.delay: 10000
logstash_demo.conf: 収集するログの具体的な入力パスとApache Dorisへの出力設定を構成するために使用されます。
input {
file {
path => "/path/to/your/log"
}
}
output {
doris {
http_hosts => [ "<http://fehost1:http_port>", "<http://fehost2:http_port>", "<http://fehost3:http_port">]
user => "your_username"
password => "your_password"
db => "your_db"
table => "your_table"
# doris stream load http headers
headers => {
"format" => "json"
"read_json_by_line" => "true"
"load_to_single_tablet" => "true"
}
# field mapping: doris fileld name => logstash field name
# %{} to get a logstash field, [] for nested field such as [host][name] for host.name
mapping => {
"ts" => "%{@timestamp}"
"host" => "%{[host][name]}"
"path" => "%{[log][file][path]}"
"message" => "%{message}"
}
log_request => true
log_speed_interval => 10
}
}
```
3. 以下のコマンドに従ってLogstashを実行し、ログを収集してApache Dorisに出力します。
```shell
./bin/logstash -f logstash_demo.conf
Logstash Doris Output pluginの詳細については、Logstash Doris Output Pluginを参照してください。
Filebeatの統合
以下の手順に従ってください:
-
Apache Dorisへの出力をサポートするFilebeatバイナリファイルを取得します。ここをクリックしてダウンロードするか、Apache Dorisのソースコードからコンパイルできます。
-
Filebeatを設定します。収集するログの具体的な入力パスとApache Dorisへの出力設定を構成するために使用されるfilebeat_demo.ymlフィールドを指定します。
# input
filebeat.inputs:
- type: log
enabled: true
paths:
- /path/to/your/log
multiline:
type: pattern
pattern: '^[0-9]{4}-[0-9]{2}-[0-9]{2} [0-9]{2}:[0-9]{2}:[0-9]{2}'
negate: true
match: after
skip_newline: true
processors:
- script:
lang: javascript
source: >
function process(event) {
var msg = event.Get("message");
msg = msg.replace(/\t/g, " ");
event.Put("message", msg);
}
- dissect:
# 2024-06-08 18:26:25,481 INFO (report-thread|199) [ReportHandler.cpuReport():617] begin to handle
tokenizer: "%{day} %{time} %{log_level} (%{thread}) [%{position}] %{content}"
target_prefix: ""
ignore_failure: true
overwrite_keys: true
# queue and batch
queue.mem:
events: 1000000
flush.min_events: 100000
flush.timeout: 10s
# output
output.doris:
fenodes: [ "http://fehost1:http_port", "http://fehost2:http_port", "http://fehost3:http_port" ]
user: "your_username"
password: "your_password"
database: "your_db"
table: "your_table"
# output string format
codec_format_string: '{"ts": "%{[day]} %{[time]}", "host": "%{[agent][hostname]}", "path": "%{[log][file][path]}", "message": "%{[message]}"}'
headers:
format: "json"
read_json_by_line: "true"
load_to_single_tablet: "true"
-
以下のコマンドに従ってFilebeatを実行し、ログを収集してApache Dorisに出力します。
chmod +x filebeat-doris-2.1.1
./filebeat-doris-2.1.1 -c filebeat_demo.yml
Filebeatの詳細については、Beats Doris Output Pluginを参照してください。
Kafkaの統合
JSON形式のログをKafkaのメッセージキューに書き込み、Kafka Routine Loadを作成し、Apache DorisがKafkaからデータを能動的に取得できるようにします。
以下の例を参照してください。property.*はLibrdkafkaクライアント関連の設定を表しており、実際のKafkaクラスターの状況に応じて調整する必要があります。
CREATE ROUTINE LOAD load_log_kafka ON log_db.log_table
COLUMNS(ts, clientip, request, status, size)
PROPERTIES (
"max_batch_interval" = "60",
"max_batch_rows" = "20000000",
"max_batch_size" = "1073741824",
"load_to_single_tablet" = "true",
"format" = "json"
)
FROM KAFKA (
"kafka_broker_list" = "host:port",
"kafka_topic" = "log__topic_",
"property.group.id" = "your_group_id",
"property.security.protocol"="SASL_PLAINTEXT",
"property.sasl.mechanism"="GSSAPI",
"property.sasl.kerberos.service.name"="kafka",
"property.sasl.kerberos.keytab"="/path/to/xxx.keytab",
"property.sasl.kerberos.principal"="<xxx@yyy.com>"
);
<br />SHOW ROUTINE LOAD;
Kafkaの詳細については、Routine Loadを参照してください。
カスタマイズプログラムを使用したログ収集
一般的なログコレクターの統合に加えて、Stream Load HTTP APIを使用してApache Dorisにログデータをインポートするためのプログラムをカスタマイズすることもできます。以下のコードを参照してください:
curl
--location-trusted
-u username:password
-H "format:json"
-H "read_json_by_line:true"
-H "load_to_single_tablet:true"
-H "timeout:600"
-T logfile.json
http://fe_host:fe_http_port/api/log_db/log_table/_stream_load
カスタムプログラムを使用する際は、以下の重要なポイントに注意してください:
-
HTTP認証にはBasic Authを使用し、コマンド echo -n 'username:password' | base64 を使用して計算します。
-
データ形式をJSONとして指定するために、HTTPヘッダー "format:json" を設定します。
-
1行につき1つのJSONを指定するために、HTTPヘッダー "read_json_by_line:true" を設定します。
-
小さなファイルのインポートを減らすために、一度に1つのバケットにデータをインポートするよう、HTTPヘッダー "load_to_single_tablet:true" を設定します。
-
クライアント側で100MBから1GBのサイズのバッチを書き込むことが推奨されます。Apache Dorisバージョン2.1以降では、Group Commit機能を通じてクライアント側でバッチサイズを削減する必要があります。
ステップ6:ログのクエリと分析
ログのクエリ
Apache Dorisは標準SQLをサポートしているため、MySQLクライアントやJDBCを通じてクラスターに接続し、ログクエリ用のSQLを実行できます。
mysql -h fe_host -P fe_mysql_port -u your_username -Dyour_db_name
参考用の一般的なSQLクエリコマンド5つを以下に示します:
- 最新の10件のログエントリを表示
SELECT * FROM your_table_name ORDER BY ts DESC LIMIT 10;
- ホストが8.8.8.8である最新の10件のログエントリを照会する
SELECT * FROM your_table_name WHERE host = '8.8.8.8' ORDER BY ts DESC LIMIT 10;
- request フィールドに error または 404 を含む最新の 10 件のログエントリを取得します。以下のコマンドでは、MATCH_ANY は Apache Doris がフィールド内の任意のキーワードをマッチングするために使用する全文検索 SQL 構文です。
SELECT * FROM your_table_name WHERE message **MATCH_ANY** 'error 404'
ORDER BY ts DESC LIMIT 10;
- リクエストフィールドにimageとfaqを含む最新の10件のログエントリを取得します。以下のコマンドで、MATCH_ALLはApache Dorisで使用される全文検索SQL構文で、フィールド内のすべてのキーワードにマッチするために使用されます。
SELECT * FROM your_table_name WHERE message **MATCH_ALL** 'image faq'
ORDER BY ts DESC LIMIT 10;
- リクエストフィールドでimageとfaqを含む最新10件のエントリを取得します。以下のコマンドでは、MATCH_PHRASEはApache Dorisで使用される全文検索SQL構文で、フィールド内のすべてのキーワードをマッチングし、一貫した順序を要求します。以下の例では、a image faq bはマッチしますが、a faq image bはimageとfaqの順序が構文にマッチしないためマッチしません。
SELECT * FROM your_table_name WHERE message **MATCH_PHRASE** 'image faq'
ORDER BY ts DESC LIMIT 10;
ログを視覚的に分析
一部のサードパーティベンダーは、Apache Dorisベースの視覚的ログ分析開発プラットフォームを提供しており、これらにはKibana Discoverに類似したログ検索・分析インターフェースが含まれています。これらのプラットフォームは、直感的でユーザーフレンドリーな探索的ログ分析のインタラクションを提供します。

-
全文検索とSQLモードのサポート
-
タイムボックスとヒストグラムによるクエリログ時間枠の選択サポート
-
詳細なログ情報の表示、JSONやテーブルに展開可能
-
ログデータコンテキスト内でのフィルター条件の追加・削除のためのインタラクティブクリック
-
異常の発見とさらなる掘り下げ分析のための検索結果における上位フィールド値の表示
詳細については、dev@doris.apache.orgまでお問い合わせください。