USER MANUALS

Denodo Assistant

このページでは、大規模言語モデルを使用する Denodo Assistant の機能を有効にする方法について説明します。これらの機能は、「 大規模言語モデルを使用する Denodo Assistant の機能 」ページに記載されています。

機能を使用するには、まず大規模言語モデル (LLM) の API へのコネクションを設定し、次にこの一連の機能を有効にする必要があります。

LLM 構成

[Denodo Assistant] セクションの [LLM Configuration] 領域で、Denodo Assistant が使用する大規模言語モデルプロバイダーを設定します。

Denodo Assistant LLM provider configuration

プロバイダーを設定する場合、[Test Configuration] をクリックして、構成が正しいことを確認します。これにより、AI サービスにテストリクエストが送信されます。

Denodo では、LLM プロバイダー Amazon BedrockAzure OpenAI ServiceOpenAIOther (OpenAI API Compatible) をサポートしています。

Amazon Bedrock

  • Authentication: Amazon Bedrock にアクセスする場合の認証方法。AWS IAM 資格情報または Denodo AWS インスタンス資格情報のいずれかを選択します。

    • AWS IAM credentials: AWS 資格情報を指定する場合、このオプションを使用します。

      • AWS access key ID: リクエスト元のユーザーまたはエンティティを指定する一意の ID。

      • AWS secret access key: AWS に対するリクエストへの署名に使用するシークレット文字列。

      • AWS IAM role ARN (オプション): 特定の権限を持つ IAM ID。

      • AWS region: Amazon Bedrock サービスにアクセスできる AWS リージョン。

    • Denodo AWS instance credentials: Denodo が実行されているインスタンスで AWS 資格情報が構成されている場合、このオプションを使用します。

      • AWS IAM role ARN (オプション): 特定の権限を持つ IAM ID。

      • AWS region: Amazon Bedrock サービスにアクセスできる AWS リージョン。

  • Context window (tokens): 選択したモデルで許可されている最大トークン数。

  • Max Output Tokens: モデルが 1 回の応答で生成できる最大トークン数。

  • Model id: モデルの一意の識別子。現時点では、モデルプロバイダー Anthropic の Claude ファミリーの Amazon Bedrock モデルのみがサポートされています。

AWS 認証パラメータの詳細については、「 Amazon AWS セキュリティ資格情報の参照 」を参照してください。

Azure OpenAI

  • Azure resource name: Azure リソースの名前。

  • Azure deployment name: モデルをデプロイする際に選択したデプロイ名。

  • API version: この操作に使用する API バージョン。これは、YYYY-MM-DD 形式に従います。

  • API key: API キー。

  • Context window (tokens): デプロイしたモデルで許可されている最大トークン数。

  • Max Output Tokens: モデルが 1 回の応答で生成できる最大トークン数。

  • Specify URI: 有効にすると、カスタムチャット補完 URI を構成できます。

  • Chat Completions URI: カスタムチャット補完エンドポイント。

  • Authentication: [Specify URI] が有効な場合、カスタム API で API キーによる認証が必要かどうかを構成できます。

Azure OpenAI Service API のパラメータの詳細については、 Azure OpenAI Service REST API リファレンス を参照してください。

[Specify URI] を使用する場合、特定の API が公式の Chat Completions Azure OpenAI Service API (https://learn.microsoft.com/en-us/azure/ai-services/openai/reference#chat-completions を参照) を実装している場合にこの API を利用可能とみなします。Denodo Assistant との互換性を確保するカスタム API に対して Chat Completions Azure OpenAI Service API のすべてのパラメータが必要になるわけではありません。

  • リクエストの本文: Denodo Assistant は、リクエスト本文で messages および temperature の各パラメータを指定してリクエストを行います。

  • 応答の本文: Denodo Assistant は、応答の本文に id、object、created、choices、および usage の各パラメータを必要とします。

OpenAI

  • API key: OpenAI API キー。このパラメータは必須です。

  • Organization ID: 構成すると、API リクエストで使用する組織を指定するヘッダーが送信されます。複数の組織に属するユーザーの場合に便利です。このパラメータは必須ではありません。

  • Model: クエリを生成するために使用するモデル。ドロップダウンに表示される値は、Denodo によってテスト済みです。ただし、未テストの OpenAI モデルを試したい場合は、編集アイコンをクリックすると構成できます。組織の OpenAI のアカウントに応じて、表示された一部のモデルが動作しない場合があることに注意してください。

  • Context window (tokens): 選択したモデルで許可されている最大トークン数。

  • Max Output Tokens: モデルが 1 回の応答で生成できる最大トークン数。

OpenAI API のパラメータの詳細については、OpenAI API リファレンス https://platform.openai.com/docs/api-reference/authentication を参照してください。

Other (OpenAI API Compatible)

  • Authentication: カスタム API が認証を必要とするかどうかに応じて、このオプションを構成します。

  • API key: API キー。認証が有効な場合、このパラメータが必要です。

  • Organization ID: 構成すると、API リクエストで使用する組織を指定するヘッダーが送信されます。複数の組織に属するユーザーの場合に便利です。認証が有効な場合のみ使用できます。このパラメータは必須ではありません。

  • Chat Completions URI: チャット補完エンドポイント。このパラメータは必須です。

  • Model: クエリを生成するために使用するモデル。このパラメータは必須です。

  • Context window (tokens): カスタムモデルで許可されている最大トークン数。このパラメータは必須です。

  • Max Output Tokens: モデルが 1 回の応答で生成できる最大トークン数。このパラメータは必須です。

[Other (OpenAI API Compatible)] オプションにより、Denodo Assistant では OpenAI Chat Completions API 手法に従い、API からのリクエストを送信して処理できます。API が公式の Chat Completions OpenAI API (https://platform.openai.com/docs/api-reference/chat を参照) を実装する場合、API はこの手法に従うものとみなします。Denodo Assistant との互換性を確保する API に対して Chat Completions OpenAI API のすべてのパラメータが必要になるわけではありません。

  • リクエストの本文: Denodo Assistant は、リクエスト本文で model、messages、および temperature の各パラメータを指定してリクエストを行います。

  • 応答の本文: Denodo Assistant は、応答の本文に id、object、created、choices、および usage の各パラメータを必要とします。

Chat Completions API に対応するモデルとして、gpt-oss-20b などの OpenAI モデルに加え、Google の Gemini や、Ollama で提供可能な Llama 3.3、Mistral、Phi-4 などのモデルもあります。以下の例は、Gemini モデルと Ollama で提供されるモデルの両方を構成する方法を示しています。

  • Vertex AI プラットフォーム: Vertex AI プラットフォームからデプロイされた Gemini モデルを使用するには、以下の手順に従います。

    1. プロバイダー に [Other (OpenAI API Compatible)] を選択します。

    2. 認証が必要な場合は、 API キー を入力します。Google Cloud Shell で以下のコマンドを使用して、一時的なアクセストークンを取得できます。

      gcloud auth print-access-token
      
    3. Vertex AI API のチャット補完エンドポイントの URI を指定します。この URI には、 {location} および {project} の特定の値を含める必要があります。https://{location}-aiplatform.googleapis.com/v1beta1/projects/{project}/locations/{location}/endpoints/openapi/chat/completions

    4. [Model] フィールドに、デプロイした Gemini モデルの完全名 (google/gemini-2.0-flash など) を入力します。

    これらの手順に従うことで、Denodo ではデプロイされた Vertex AI モデルに安全に接続してモデルを利用できます。

  • Ollama: Ollama サーバーでホストされるローカル LLM を使用するには、以下の手順に従います。

    始める前に、以下の準備ができていることを確認します。

    1. Ollama サーバーが、使用するマシンにインストールされて実行している。

    2. 使用するモデル (gpt-oss:20bllama3.2:3b など) をプルしている。モデルはローカルの Ollama サーバーで利用できるようにする必要があります。

      ollama pull gpt-oss:20b
      

    構成を完了するには、以下の手順に従います。

    1. プロバイダーに [Other (OpenAI API Compatible)] を選択します。

    2. [API Key] フィールドは空白のままにします。ローカルで実行している Ollama サーバーでは通常、認証は必要ありません。

    3. Ollama チャット補完エンドポイントの URI を指定します。通常はローカルマシンのアドレスと Ollama のデフォルトポート (11434) の後に API のパスが続きます。http://localhost:11434/v1/chat/completions

    4. [Model] フィールドに、Ollama でプルしたモデルの名前 (gpt-oss:20bllama3.2:3b など) を入力します。

    これらの手順に従うことで、Denodo ではローカルの Ollama サーバーに接続し、選択したモデルを利用できます。

HTTP プロキシの構成

[LLM configuration] セクションの [Http Proxy Configuration] 領域で、Denodo Assistant が使用するプロキシを設定します。

  • Mode: Denodo Assistant が使用するプロキシモードを指定します。以下の 3 つのモードがあります。

    • DEFAULT: [Server Configuration] の [OTHERS] > [HTTP Proxy] セクションで vdp サーバープロキシが有効になっている場合、Denodo Assistant のリクエストはプロキシ経由で送られます。

    • MANUAL: リクエストは、Denodo Assistant 専用のプロキシを使用します。このオプションを選択した場合、Denodo Assistant のリクエストに固有のプロキシパラメータを指定する必要があります。

    • OFF: Denodo Assistant はプロキシを使用しません。

構成されたプロキシで 基本認可 が必要な場合は、このプロパティを Virtual DataPort サーバーと Web コンテナーの JVM プロパティに追加します。

-Djdk.http.auth.tunneling.disabledSchemes=""

JVM プロパティの構成の詳細については、「 Denodo プラットフォームの構成 」のセクションを参照してください。

全般

[Denodo Assistant] > [General] で、Denodo Assistant を構成します。

Denodo Assistant configuration

Denodo Assistant の構成パラメータ

  • Enable Denodo Assistant features that use a large language model: 大規模言語モデルを使用する Denodo Assistant の機能を有効または無効にします。

注釈

  • Assistant を有効にすると、サーバーでは、メタデータ情報を使用する際にメタデータ情報を構成済みの LLM に送信できます。データ利用が有効になっている場合のみ、結果を改善するために、ビューのデータも処理され、LLM に送信されます。組織がこのことを認識し、同意していることを確認してください。

  • この機能を有効にすると、外部 LLM API へのリクエストに費用が発生します。このオプションを有効にする前に、組織がこの金銭的影響を完全に認識していることを確認してください。

  • Language Options: Denodo Assistant で対応する言語。サーバーのロケール設定の言語 ([Server configuration] の [OTHERS] > [Server i18n] セクションを参照) または代替言語のいずれかを選択できます。

  • Use a different language for column name generation: 有効にすると、Assistant は以前に選択した言語とは異なる言語で列名を生成します。詳細については、「 フィールド名の提案 」のセクションを参照してください。

  • Use sample data: 有効にすると、Assistant はビューの実際のデータ (ビューが返す行など) を LLM に送信します。これは Assistant の応答の改善に役立ちます。このオプションを機能させるには、 キャッシュモジュール が有効になっていることを確認します。有効になっている場合、[Sample data size] を入力します。これは、サンプリングで取得する行数です。サンプリングプロセスでは、結果の行のサブセットを選択するサンプルを作成します。機能 フィールドの説明の提案 が有効になっている場合、提案されるフィールドの説明には、通常、 text 型のフィールドの実際のデータ例が含まれます。さらに、 ビューの説明の提案 <Suggest View Description> に、データサンプルがいくつか含まれる場合もあります。

  • Add extra instructions to the metadata requests: 有効にすると、Denodo Assistant では、ビューの説明、フィールドの説明、フィールド名、およびビュータグ (ビュー自体とそのフィールドの両方) を提案する際に、ユーザーの入力が該当の機能に関連している場合、その入力を追加のコンテキストとして考慮します。これは、企業のコンテキストや業務上の命名規則を組み込む場合に役立ちます。

注釈

サンプルデータの使用を有効にすると、Assistant は使用されたビューの実際のデータを送信できます。組織がこのことを認識し、同意していることを確認してください。

ベクトルデータベースの統合

[Denodo Assistant] セクションの [Vector Database Integration] 領域で、Denodo Assistant が使用する組み込みモデルとベクトルデータベースを設定します。

Denodo Assistant Vector Database Integration

ベクトルデータベースと組み込みモデルを構成する場合、[Test Configuration] をクリックして構成が正しいことを確認します。テストドキュメントがベクトルデータベースに組み込まれ、構成の検証後に削除されます。

ベクトル統合を使用する機能 」のセクションでは、ベクトル統合が必要な機能について説明しています。

ベクトルデータベースの統合では、コレクション vdp_viewsvdp_test_config が使用される点が重要です。これらのコレクションは、ベクトル統合機能の使用プロセスで変更および削除されるため、外部で使用しないでください。

インデックス構成

[Index Configuration] では、Denodo でのインデックスの処理方法を構成できます。

  • Batch Size: 一度にインデックス化するエレメントの数。

  • Refresh metadata interval: システムが更新を確認し、必要なメタデータを更新する間隔 (秒単位)。

ベクトルデータベースの構成

Denodo では、ベクトルデータベースとしての Pgvector の構成に対応しています。

  • Database URI: データベースへの接続 URL。

  • Authentication type: ベクトルデータベースに接続するときに使用する認証タイプ。現在サポートされている認証タイプは、ログインとパスワード、パスワード保管方法からのログインとパスワード (シングルシークレット)、パスワード保管方法からのログインとパスワード (フィールドごとに 1 つのシークレット) です。

組み込みモデルの構成

Denodo では、組み込みモデルのプロバイダーとして Amazon BedrockAzure OpenAI ServiceOpenAIOther (OpenAI API Compatible) をサポートしています。

Azure OpenAI

  • Azure OpenAI endpoint: Azure OpenAI API のエンドポイント。

  • Azure deployment name: デプロイした Azure OpenAI 組み込みモデルの名前。

  • Authentication: Azure にアクセスする場合の認証方法。API キーまたはユーザー名およびパスワードから選択します。

    • API key: API キー。

    • Username and password: Azure ID ベース認証のユーザー名とパスワード。

  • Headers: API リクエストに含める追加のヘッダー。

  • Max tokens: デプロイしたモデルで許可される最大トークン数。

  • Proxy Mode: 組み込みリクエストに使用するプロキシ。以下の 3 つのモードがあります。

    • DEFAULT: [Server Configuration] の [OTHERS] > [HTTP Proxy] セクションで vdp サーバープロキシが有効になっている場合、Denodo Assistant の組み込みリクエストはプロキシ経由で送られます。

    • MANUAL: 組み込みリクエストは、Denodo Assistant 専用のプロキシを使用します。このオプションを選択した場合、Denodo Assistant の組み込みリクエストに固有のプロキシパラメータを指定する必要があります。

    • OFF: Denodo Assistant の組み込みリクエストではプロキシを使用しません。

Azure OpenAI Service API のパラメータの詳細については、 Azure OpenAI Service REST API リファレンス を参照してください。

Amazon Bedrock

  • Authentication: Amazon Bedrock にアクセスする場合の認証方法。AWS IAM 資格情報または Denodo AWS インスタンス資格情報のいずれかを選択します。

    • AWS IAM credentials: AWS 資格情報を指定する場合、このオプションを使用します。

      • AWS access key ID: リクエスト元のユーザーまたはエンティティを指定する一意の ID。

      • AWS secret access key: AWS に対するリクエストへの署名に使用するシークレット文字列。

      • AWS IAM role ARN (オプション): 特定の権限を持つ IAM ID。

      • AWS region: Amazon Bedrock サービスにアクセスできる AWS リージョン。

    • Denodo AWS instance credentials: Denodo が実行されているインスタンスで AWS 資格情報が構成されている場合、このオプションを使用します。

      • AWS IAM role ARN (オプション): 特定の権限を持つ IAM ID。

      • AWS region: Amazon Bedrock サービスにアクセスできる AWS リージョン。

  • Max tokens: デプロイしたモデルで許可される最大トークン数。

  • Model name: 使用する組み込みモデル。

Amazon Titan 組み込みモデルの詳細については、「 Amazon Titan 組み込みモデルリファレンス 」を参照してください。AWS 認証パラメータの詳細については、「 Amazon AWS セキュリティ資格情報の参照 」を参照してください。

OpenAI

  • API key: API キー。

  • Max tokens: デプロイしたモデルで許可される最大トークン数。

  • Model: 使用する組み込みモデル。ドロップダウンに表示される値は、Denodo によってテスト済みです。ただし、未テストの OpenAI モデルを試したい場合は、編集アイコンをクリックすると構成できます。組織の OpenAI のアカウントに応じて、表示された一部のモデルが動作しない場合があることに注意してください。

  • Organization ID: OpenAI の組織を指定します。

詳細については、OpenAI 組み込みモデルのドキュメント https://platform.openai.com/docs/guides/embeddings#embedding-models を参照してください。

OpenAIOther (OpenAI API Compatible) の組み込みモデルについては、Virtual DataPort サーバーおよび Web コンテナーの以下の JVM プロパティを使用して、認証を行わずに プロキシ を設定できます。

-Dhttps.proxyHost=proxyHost.com
-Dhttps.proxyPort=1234

Other (OpenAI API Compatible)

  • API key: API キー。

  • Max tokens: デプロイしたモデルで許可される最大トークン数。

  • Model: 使用する組み込みモデル。

  • URI: OpenAI のカスタムエンドポイント。

[Other (OpenAI API Compatible)] オプションにより、Denodo Assistant では OpenAI Create Embeddings 手法に従い、API からのリクエストを送信して処理できます。API が公式の Create Embeddings API (https://platform.openai.com/docs/api-reference/embeddings/create を参照) に準拠する場合、API はこの手法に従うものとみなします。

OpenAI Create Embeddings 手法に準拠したモデルはありますが、OpenAI によって作成されたものではありません。Ollama モデル (nomic-embed-text、mxbai-embed-large、all-minilm など) があり、ローカルでも実行できます。これらのモデルを構成するには、v1 エンドポイント/v1 を使用します。

Add feedback