ADLS パス (ABFS)¶
このタイプのパスを使用して、Azure Data Lake Storage のコンテナーにある 1 つまたは複数のファイルからデータを取得します。Denodo では、Azure Blob ファイルシステム (ABFS) ドライバーを使用して Azure Data Lake Storage Gen2 (ADLS Gen2) に接続します。
以下のセクションでは、このパスの 構成 と、さまざまな 認証方法 について詳しく説明します。最後に [Filters] タブの詳細については、「 圧縮または暗号化されたデータソース 」を参照してください。フィルタはどのタイプのパス (ローカル、HTTP、FTP など) でも同様に機能します。
ADLS の構成¶
[URI] には、データの取得元のパスを入力します。ファイルやディレクトリを参照することができ、補間変数を使用できます (「 補間変数によるパスなどの値 」のセクションを参照)。
Azure Blob ファイルシステム (ABFS) ドライバーには、以下の URI 構文が必要です。
abfs[s]://<file_system>@<account_name>.dfs.core.windows.net/<path>/<file_name>
この構文の詳細については、Microsoft のドキュメントを参照してください。
[Custom properties] では、 core-site.xml
のような Hadoop 構成ファイルに記述するのと同じプロパティを設定して、 ABFS Hadoop コネクター を構成できます。
ディレクトリを参照するパス¶
ディレクトリを参照するデータソースから基本ビューを作成すると、Virtual DataPort では、そのディレクトリの先頭にあるファイルから新しいビューのスキーマを推測し、他のすべてのファイルはそれと同じスキーマを持つものと仮定します。
区切り形式ファイルのデータソースの場合にのみ適用される扱い: ディレクトリを参照するパスを指定している場合、[File name pattern] に値を入力すると、その値の正規表現と一致する名前のファイルのみがデータソースで処理されます。たとえば、拡張子が log
であるファイルのみを処理する場合は、「 (.*)\.log
」と入力します。
注釈
XML データソースでは、[Validation file] を指定した場合は、ディレクトリにあるすべてのファイルが、指定したファイルの スキーマ または DTD に一致している必要があります。
ADLS 認証¶
ADLS 資格情報を構成するには、以下の 3 つの方法があります。
Azure Shared Key: アカウント名とパスワードに基づく最も簡単な認証メカニズムです。アカウント名は、ADLS コンテナーの URI から推測されます。パスワード (「shared key」) を入力してください。
OAuth 2.0 Client Credentials: [Token endpoint]、[Client ID]、[Client Secret] を指定します。VDP はエンドポイントを使用して、入力したクライアント資格情報で OAuth 2.0 トークンを取得します。
Azure Managed Identity: この Virtual DataPort サーバーが動作している Azure Virtual Machine から、Azure Data Lake Storage の資格情報を自動的に取得します。OAuth 2.0 トークンは、実行している仮想マシンからのみアクセス可能な特定のエンドポイントによって発行されます (http://169.254.169.254/metadata/identity/oauth2/token)。 オプションで、[Client ID]、[Tenant ID]、[Token endpoint] を指定することもできます。この認証方法を使用するには、Azure Data Lake Storage コンテナーにアクセスできるように構成されたマネージド ID を持つ Azure Virtual Machine で Virtual DataPort サーバーが動作している必要があります。この詳細については、 Azure ドキュメント を参照してください。
認証方法が Oauth 2.0 の場合、URI で abfss の追加の「s」を指定しない場合でも、コネクションは常に TLS を使用することに注意してください。