データレイクハウス FAQ
Certificate Issues
-
クエリ実行時に、エラー
curl 77: Problem with the SSL CA cert.が発生します。これは現在のシステム証明書が古すぎることを示しており、ローカルで更新する必要があります。- 最新のCA証明書を
https://curl.haxx.se/docs/caextract.htmlからダウンロードできます。 - ダウンロードした
cacert-xxx.pemを/etc/ssl/certs/ディレクトリに配置します。例:sudo cp cacert-xxx.pem /etc/ssl/certs/ca-certificates.crt。
- 最新のCA証明書を
-
クエリ実行時に、エラーが発生します:
ERROR 1105 (HY000): errCode = 2, detailMessage = (x.x.x.x)[CANCELLED][INTERNAL_ERROR]error setting certificate verify locations: CAfile: /etc/ssl/certs/ca-certificates.crt CApath: none。
yum install -y ca-certificates
ln -s /etc/pki/ca-trust/extracted/openssl/ca-bundle.trust.crt /etc/ssl/certs/ca-certificates.crt
Kerberos
-
Kerberosで認証されたHive Metastoreに接続する際に、
GSS initiate failedエラーが発生する。これは通常、Kerberos認証情報が正しくないことが原因です。以下の手順でトラブルシューティングできます:
-
1.2.1より前のバージョンでは、Dorisが依存するlibhdfs3ライブラリでgsaslが有効になっていませんでした。1.2.2以降のバージョンに更新してください。
-
各コンポーネントに正しいkeytabとprincipalが設定されていることを確認し、すべてのFEおよびBEノードにkeytabファイルが存在することを確認してください。
hadoop.kerberos.keytab/hadoop.kerberos.principal: Hadoop hdfsアクセスに使用されます。hdfsに対応する値を入力してください。hive.metastore.kerberos.principal: hive metastoreに使用されます。
-
principalのIPをドメイン名に置き換えてみてください(デフォルトの
_HOSTプレースホルダーは使用しないでください)。 -
すべてのFEおよびBEノードに
/etc/krb5.confファイルが存在することを確認してください。
-
-
Hive CatalogでHiveデータベースに接続する際にエラーが発生する:
RemoteException: SIMPLE authentication is not enabled. Available:[TOKEN, KERBEROS]。show databasesとshow tablesに問題がない状態でクエリ実行時にエラーが発生する場合は、以下の2つの手順に従ってください:- core-site.xmlとhdfs-site.xmlをfe/confおよびbe/confディレクトリに配置してください。
- BEノードでKerberos kinitを実行し、BEを再起動してからクエリを実行してください。
Kerberosで設定されたテーブルをクエリする際に
GSSException: No valid credentials provided (Mechanism level: Failed to find any Kerberos Ticket)エラーが発生した場合、通常FEおよびBEノードを再起動することで問題が解決されます。- すべてのノードを再起動する前に、
"${DORIS_HOME}/be/conf/be.conf"のJAVA_OPTSパラメータで-Djavax.security.auth.useSubjectCredsOnly=falseを設定し、アプリケーションではなく基盤メカニズムを通じてJAAS認証情報を取得してください。 - 一般的なJAASエラーの解決方法については、JAAS Troubleshootingを参照してください。
CatalogでKerberosを設定する際の
Unable to obtain password from userエラーを解決するには:- 使用されるprincipalが
klist -kt your.keytabで確認してklistに記載されていることを確認してください。 yarn.resourcemanager.principalなどの設定が不足していないか、catalogの設定を確認してください。- 上記の確認で問題がない場合、システムのパッケージマネージャーでインストールされたJDKバージョンが特定の暗号化アルゴリズムをサポートしていない可能性があります。JDKを手動でインストールし、
JAVA_HOME環境変数を設定することを検討してください。 - Kerberosは通常暗号化にAES-256を使用します。Oracle JDKの場合、JCEをインストールする必要があります。一部のOpenJDKディストリビューションは無制限強度のJCEを自動的に提供するため、別途インストールする必要がありません。
- JCEバージョンはJDKバージョンに対応しています。JDKバージョンに基づいて適切なJCE zipパッケージをダウンロードし、
$JAVA_HOME/jre/lib/securityディレクトリに展開してください:
KMSでHDFSにアクセスする際に
java.security.InvalidKeyException: Illegal key sizeエラーが発生した場合は、JDKバージョンをJava 8 u162以上にアップグレードするか、対応するJCE Unlimited Strength Jurisdiction Policy Filesをインストールしてください。CatalogでKerberosを設定した結果
SIMPLE authentication is not enabled. Available:[TOKEN, KERBEROS]エラーが発生した場合は、core-site.xmlファイルを"${DORIS_HOME}/be/conf"ディレクトリに配置してください。HDFSアクセスで
No common protection layer between client and serverエラーが発生した場合は、クライアントとサーバーのhadoop.rpc.protectionプロパティが一致していることを確認してください。<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>hadoop.security.authentication</name>
<value>kerberos</value>
</property>
</configuration>
Kerberosが設定されたBroker Loadを使用する際、Cannot locate default realm.エラーが発生する場合:
Broker Loadの`start_broker.sh`スクリプト内の`JAVA_OPTS`に設定項目`-Djava.security.krb5.conf=/your-path`を追加してください。
3. CatalogでKerberos設定を使用する場合、hadoop.usernameプロパティを同時に使用することはできません。
-
JDK 17でのKerberosアクセス
JDK 17でDorisを実行し、Kerberosサービスにアクセスする際、非推奨の暗号化アルゴリズムの使用によりアクセスに問題が発生する場合があります。krb5.confに
allow_weak_crypto=trueプロパティを追加するか、Kerberosの暗号化アルゴリズムをアップグレードする必要があります。詳細については次を参照してください:https://seanjmullan.org/blog/2021/09/14/jdk17#kerberos
JDBC Catalog
-
JDBC CatalogでSQLServerへの接続エラー:
unable to find valid certification path to requested targetjdbc_urlにtrustServerCertificate=trueオプションを追加してください。 -
JDBC CatalogでMySQLデータベースに接続すると中国語文字の文字化けや中国語文字のクエリ条件の不具合が発生
jdbc_urlにuseUnicode=true&characterEncoding=utf-8を追加してください。注:バージョン1.2.3以降、JDBC CatalogでMySQLデータベースに接続する際、これらのパラメータは自動的に追加されます。
-
JDBC CatalogでMySQLデータベースへの接続エラー:
Establishing SSL connection without server's identity verification is not recommendedjdbc_urlにuseSSL=trueを追加してください。 -
JDBC Catalogを使用してMySQLデータをDorisに同期する際、日付データの同期エラーが発生します。MySQLのバージョンとMySQLドライバパッケージが一致しているか確認してください。例えば、MySQL 8以上ではドライバcom.mysql.cj.jdbc.Driverが必要です。
-
単一フィールドが大きすぎる場合、クエリ時にBE側でJavaメモリOOMが発生します。
Jdbc ScannerがJDBCを通してデータを読み取る際、セッション変数
batch_sizeがJVMでバッチごとに処理される行数を決定します。単一フィールドが大きすぎる場合、field_size * batch_size(概算値、JVM静的メモリとデータコピーオーバーヘッドを考慮)がJVMメモリ制限を超え、OOMを引き起こす可能性があります。解決策:
set batch_size = 512;を実行してbatch_size値を減らす。デフォルト値は4064です。JAVA_OPTSの-Xmxパラメータを変更してBE JVMメモリを増やす。例:-Xmx8g。
Hive Catalog
-
Hive CatalogでIcebergまたはHiveテーブルにアクセスする際のエラー:
failed to get schemaまたはStorage schema reading not supported以下の方法を試してください:
-
icebergランタイム関連jarパッケージをHiveのlib/ディレクトリに配置する。 -
hive-site.xmlで設定:metastore.storage.schema.reader.impl=org.apache.hadoop.hive.metastore.SerDeStorageSchemaReader
-
設定が完了した後、Hive Metastoreを再起動する必要があります。
* Catalogプロパティに`"get_schema_from_table" = "true"`を追加してください
このパラメータはバージョン2.1.10および3.0.6以降でサポートされています。
2. Hive Catalogへの接続エラー:Caused by: java.lang.NullPointerException
fe.logに以下のスタックトレースが含まれている場合:
```
Caused by: java.lang.NullPointerException
at org.apache.hadoop.hive.ql.security.authorization.plugin.AuthorizationMetaStoreFilterHook.getFilteredObjects(AuthorizationMetaStoreFilterHook.java:78) ~[hive-exec-3.1.3-core.jar:3.1.3]
at org.apache.hadoop.hive.ql.security.authorization.plugin.AuthorizationMetaStoreFilterHook.filterDatabases(AuthorizationMetaStoreFilterHook.java:55) ~[hive-exec-3.1.3-core.jar:3.1.3]
at org.apache.hadoop.hive.metastore.HiveMetaStoreClient.getAllDatabases(HiveMetaStoreClient.java:1548) ~[doris-fe.jar:3.1.3]
at org.apache.hadoop.hive.metastore.HiveMetaStoreClient.getAllDatabases(HiveMetaStoreClient.java:1542) ~[doris-fe.jar:3.1.3]
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) ~[?:1.8.0_181]
```
create catalog文で"metastore.filter.hook" = "org.apache.hadoop.hive.metastore.DefaultMetaStoreFilterHookImpl"を追加して解決してみてください。
-
Hive Catalogを作成した後、
show tablesは正常に動作するがクエリを実行するとjava.net.UnknownHostException: xxxxxが発生する場合CATALOGのPROPERTIESに以下を追加してください:
'fs.defaultFS' = 'hdfs://<your_nameservice_or_actually_HDFS_IP_and_port>' -
Hive 1.xのorc形式のテーブルでは、基盤となるorcファイルスキーマのシステム列名が
_col0、_col1、_col2などとして表示される場合があります。この場合、カタログ設定でhive.versionを1.x.xとして追加し、hiveテーブルの列名とマッピングしてください。CREATE CATALOG hive PROPERTIES (
'hive.version' = '1.x.x'
); -
Catalogを使用してテーブルデータをクエリする際に、
Invalid method nameなどのHive Metastoreに関連するエラーが発生した場合は、hive.versionパラメータを設定してください。 -
ORC形式のテーブルをクエリする際に、FEが
Could not obtain blockまたはCaused by: java.lang.NoSuchFieldError: typesをレポートする場合、これはFEがデフォルトでHDFSにアクセスしてファイル情報を取得し、ファイル分割を実行することが原因である可能性があります。場合によっては、FEがHDFSにアクセスできない可能性があります。これは次のパラメータを追加することで解決できます:"hive.exec.orc.split.strategy" = "BI"。その他のオプションには、HYBRID(デフォルト)およびETLがあります。 -
Hiveでは、Hudiテーブルのパーティションフィールド値を見つけることができますが、Dorisでは見つけることができません。DorisとHiveは現在、Hudiをクエリする方法が異なります。Dorisでは、Hudiテーブルのavscファイル構造にパーティションフィールドを追加する必要があります。追加されていない場合、Dorisは(
hoodie.datasource.hive_sync.partition_fields=partition_valが設定されていても)partition_valが空でクエリします。{
"type": "record",
"name": "record",
"fields": [{
"name": "partition_val",
"type": [
"null",
"string"
],
"doc": "Preset partition field, empty string when not partitioned",
"default": null
},
{
"name": "name",
"type": "string",
"doc": "Name"
},
{
"name": "create_time",
"type": "string",
"doc": "Creation time"
}
]
} -
Hive外部テーブルをクエリする際に、
java.lang.ClassNotFoundException: Class com.hadoop.compression.lzo.LzoCodec not foundのエラーが発生した場合は、Hadoop環境でhadoop-lzo-*.jarを検索し、"${DORIS_HOME}/fe/lib/"ディレクトリに配置してFEを再起動してください。バージョン2.0.2以降では、このファイルをFEのcustom_lib/ディレクトリ(存在しない場合は手動で作成)に配置することで、libディレクトリが置き換えられることによるクラスタアップグレード時のファイル紛失を防ぐことができます。 -
serdeを
org.apache.hadoop.hive.contrib.serde2.MultiDelimitserDeとして指定したHiveテーブルを作成し、テーブルにアクセスする際にstorage schema reading not supportedのエラーが発生した場合は、hive-site.xmlファイルに以下の設定を追加してHMSサービスを再起動してください:<property>
<name>metastore.storage.schema.reader.impl</name>
<value>org.apache.hadoop.hive.metastore.SerDeStorageSchemaReader</value>
</property> -
エラー:
java.security.InvalidAlgorithmParameterException: the trustAnchors parameter must be non-empty。FEログの完全なエラーメッセージは以下の通りです:org.apache.doris.common.UserException: errCode = 2, detailMessage = S3 list path failed. path=s3://bucket/part-*,msg=errors while get file status listStatus on s3://bucket: com.amazonaws.SdkClientException: Unable to execute HTTP request: Unexpected error: java.security.InvalidAlgorithmParameterException: the trustAnchors parameter must be non-empty: Unable to execute HTTP request: Unexpected error: java.security.InvalidAlgorithmParameterException: the trustAnchors parameter must be non-empty
org.apache.doris.common.UserException: errCode = 2, detailMessage = S3 list path exception. path=s3://bucket/part-*, err: errCode = 2, detailMessage = S3 list path failed. path=s3://bucket/part-*,msg=errors while get file status listStatus on s3://bucket: com.amazonaws.SdkClientException: Unable to execute HTTP request: Unexpected error: java.security.InvalidAlgorithmParameterException: the trustAnchors parameter must be non-empty: Unable to execute HTTP request: Unexpected error: java.security.InvalidAlgorithmParameterException: the trustAnchors parameter must be non-empty
org.apache.hadoop.fs.s3a.AWSClientIOException: listStatus on s3://bucket: com.amazonaws.SdkClientException: Unable to execute HTTP request: Unexpected error: java.security.InvalidAlgorithmParameterException: the trustAnchors parameter must be non-empty: Unable to execute HTTP request: Unexpected error: java.security.InvalidAlgorithmParameterException: the trustAnchors parameter must be non-empty
Caused by: com.amazonaws.SdkClientException: Unable to execute HTTP request: Unexpected error: java.security.InvalidAlgorithmParameterException: the trustAnchors parameter must be non-empty
Caused by: javax.net.ssl.SSLException: Unexpected error: java.security.InvalidAlgorithmParameterException: the trustAnchors parameter must be non-empty
Caused by: java.lang.RuntimeException: Unexpected error: java.security.InvalidAlgorithmParameterException: the trustAnchors parameter must be non-empty
Caused by: java.security.InvalidAlgorithmParameterException: the trustAnchors parameter must be non-empty
FEノードでupdate-ca-trust (CentOS/RockyLinux)を使用してCA証明書を更新し、その後FEプロセスを再起動してみてください。
-
BEエラー:
java.lang.InternalError。be.INFOで以下のようなエラーが表示される場合:W20240506 15:19:57.553396 266457 jni-util.cpp:259] java.lang.InternalError
at org.apache.hadoop.io.compress.zlib.ZlibDecompressor.init(Native Method)
at org.apache.hadoop.io.compress.zlib.ZlibDecompressor.<init>(ZlibDecompressor.java:114)
at org.apache.hadoop.io.compress.GzipCodec$GzipZlibDecompressor.<init>(GzipCodec.java:229)
at org.apache.hadoop.io.compress.GzipCodec.createDecompressor(GzipCodec.java:188)
at org.apache.hadoop.io.compress.CodecPool.getDecompressor(CodecPool.java:183)
at org.apache.parquet.hadoop.CodecFactory$HeapBytesDecompressor.<init>(CodecFactory.java:99)
at org.apache.parquet.hadoop.CodecFactory.createDecompressor(CodecFactory.java:223)
at org.apache.parquet.hadoop.CodecFactory.getDecompressor(CodecFactory.java:212)
at org.apache.parquet.hadoop.CodecFactory.getDecompressor(CodecFactory.java:43)
これは、Doris内蔵のlibz.aがシステム環境のlibz.soと競合するためです。この問題を解決するには、まずexport LD_LIBRARY_PATH=/path/to/be/lib:$LD_LIBRARY_PATHを実行してから、BEプロセスを再起動してください。
-
Hiveにデータを挿入する際、
HiveAccessControlException Permission denied: user [user_a] does not have [UPDATE] privilege on [database/table]というエラーが発生しました。データ挿入後、対応する統計情報を更新する必要があり、この更新操作にはalter権限が必要なためです。そのため、Ranger上でこのユーザーにalter権限を追加する必要があります。
HDFS
-
HDFS 3.xにアクセスする際、
java.lang.VerifyError: xxxエラーが発生する場合、バージョン1.2.1以前では、DorisはHadoopバージョン2.8に依存しています。2.10.2にアップデートするか、Dorisをバージョン1.2.2以降にアップグレードする必要があります。 -
Hedged Readを使用して低速なHDFS読み取りを最適化する。場合によっては、HDFSの高負荷により、特定のHDFS上のデータレプリカの読み取り時間が長くなり、全体的なクエリ効率が低下することがあります。HDFS Clientは Hedged Read機能を提供します。この機能は、読み取りリクエストが特定の閾値を超えても返らない場合、同じデータを読み取る別の読み取りスレッドを開始し、最初に返された結果を使用します。
注意:この機能はHDFSクラスターの負荷を増加させる可能性があるため、慎重に使用してください。
この機能は以下の方法で有効にできます:
create catalog regression properties (
'type'='hms',
'hive.metastore.uris' = 'thrift://172.21.16.47:7004',
'dfs.client.hedged.read.threadpool.size' = '128',
'dfs.client.hedged.read.threshold.millis' = "500"
);
dfs.client.hedged.read.threadpool.sizeは、Hedged Readに使用されるスレッド数を表し、HDFS Clientによって共有されます。通常、HDFSクラスターでは、BEノードがHDFS Clientを共有します。
dfs.client.hedged.read.threshold.millisは、ミリ秒単位の読み取り閾値です。読み取りリクエストがこの閾値を超えて戻らない場合、Hedged Readがトリガーされます。
有効にすると、Query Profileで関連パラメータを確認できます:
TotalHedgedRead:Hedged Readが開始された回数。
HedgedReadWins:Hedged Readが成功した回数(リクエストが開始され、元のリクエストよりも高速に戻った回数)
これらの値は単一のクエリではなく、単一のHDFS Clientに対する累積値であることに注意してください。同じHDFS Clientは複数のクエリで再利用される可能性があります。
-
Couldn't create proxy provider class org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProviderFEとBEの起動スクリプトでは、環境変数
HADOOP_CONF_DIRがCLASSPATHに追加されます。HADOOP_CONF_DIRが存在しないパスや間違ったパスを指すなど、正しく設定されていない場合、間違ったxxx-site.xmlファイルを読み込み、不正な情報を読み取る可能性があります。HADOOP_CONF_DIRが正しく設定されているかを確認するか、この環境変数を削除してください。 -
BlockMissingExcetpion: Could not obtain block: BP-XXXXXXXXX No live nodes contain current block可能な解決策は以下の通りです:
hdfs fsck file -files -blocks -locationsを使用してファイルが健全かどうかを確認する。telnetを使用してdatanodeとの接続を確認する。- datanodeのログを確認する。
以下のエラーが発生した場合:
org.apache.hadoop.hdfs.server.datanode.DataNode: Failed to read expected SASL data transfer protection handshake from client at /XXX.XXX.XXX.XXX:XXXXX. Perhaps the client is running an older version of Hadoop which does not support SASL data transfer protectionこれは現在のhdfsで暗号化転送が有効になっているが、クライアントでは有効になっていないためエラーが発生していることを意味します。以下の解決策のいずれかを使用してください:
- hdfs-site.xmlとcore-site.xmlをbe/confとfe/confディレクトリにコピーする。(推奨)
- hdfs-site.xmlで対応する設定
dfs.data.transfer.protectionを見つけ、このパラメータをcatalogで設定する。
DLF Catalog
-
DLF Catalogを使用する際、BEがJindoFSデータを読み取る際に
Invalid addressが発生した場合、ログに表示されるドメイン名とIPのマッピングを/etc/hostsに追加してください。 -
データを読み取る権限がない場合、
hadoop.usernameプロパティを使用して権限を持つユーザーを指定してください。 -
DLF CatalogのメタデータはDLFと整合性を保つ必要があります。DLFを使用してメタデータを管理する際、Hiveで新しくインポートされたパーティションがDLFによって同期されない場合があり、DLFとHiveのメタデータ間で不整合が生じる可能性があります。これに対処するため、HiveメタデータがDLFによって完全に同期されていることを確認してください。
その他の問題
-
Binary型をDorisにマッピングした後、クエリ結果が文字化けする
Dorisは本来Binary型をサポートしていないため、さまざまなデータレイクやデータベースからBinary型をDorisにマッピングする際、通常String型を使用して行われます。String型は印刷可能文字のみを表示できます。Binaryデータの内容をクエリする必要がある場合、
TO_BASE64()関数を使用してBase64エンコーディングに変換してから、さらに処理を行うことができます。 -
Parquetファイルの分析
Parquetファイルをクエリする際、異なるシステムによって生成されるParquetファイルの形式の潜在的な違い(RowGroupsの数、インデックス値など)により、問題の特定やパフォーマンス分析のためにParquetファイルのメタデータを確認する必要がある場合があります。ユーザーがParquetファイルをより便利に分析できるよう、以下のツールを提供します:
-
Apache Parquet Cli 1.14.0をダウンロードして解凍する
-
分析するParquetファイルをローカルマシンにダウンロードし、パスを
/path/to/file.parquetとする -
以下のコマンドを使用してParquetファイルのメタデータを分析する:
./parquet-tools meta /path/to/file.parquet -
より多くの機能については、Apache Parquet Cli documentationを参照してください
-