Denodo Assistant¶
このページでは、大規模言語モデルを使用する Denodo Assistant の機能を有効にする方法について説明します。これらの機能は、「 大規模言語モデルを使用する Denodo Assistant の機能 」ページに記載されています。
機能を使用するには、まず大規模言語モデル (LLM) の API へのコネクションを設定し、次にこの一連の機能を有効にする必要があります。
LLM 構成¶
[Denodo Assistant] セクションの [LLM Configuration] 領域で、Denodo Assistant が使用する大規模言語モデルプロバイダーを設定します。

プロバイダーを設定する場合、[Test Configuration] をクリックして、構成が正しいことを確認します。これにより、AI サービスにテストリクエストが送信されます。
Denodo では、LLM プロバイダー Amazon Bedrock 、 Azure OpenAI Service 、 OpenAI 、 Custom (カスタム API へのコネクション) をサポートしています。
Amazon Bedrock¶
AWS access key ID: AWS アクセスキーペアの識別子。
AWS シークレットアクセスキー: AWS アクセスキーペアのシークレットアクセスキー。
AWS ARN IAM role.AWS IAM ロール。
AWS リージョン: Amazon Bedrock サービスにアクセスできる AWS リージョン。
Context window (tokens): 選択したモデルで許可されている最大トークン数。
Max Output Tokens: モデルが 1 回の応答で生成できる最大トークン数。
Model id: モデルの一意の識別子。現時点では、モデルプロバイダー Anthropic の Claude ファミリーの Amazon Bedrock モデルのみがサポートされています。
AWS 認証パラメータの詳細については、「 Amazon AWS セキュリティ資格情報の参照 」を参照してください。
Azure OpenAI¶
Azure resource name: Azure リソースの名前。
Azure deployment name: モデルをデプロイする際に選択したデプロイ名。
API version: この操作に使用する API バージョン。これは、YYYY-MM-DD 形式に従います。
API key: API キー。
Context window (tokens): デプロイしたモデルで許可されている最大トークン数。
Max Output Tokens: モデルが 1 回の応答で生成できる最大トークン数。
Azure OpenAI Service API のパラメータの詳細については、 Azure OpenAI Service REST API リファレンス を参照してください。
OpenAI¶
API key: OpenAI API キー。このパラメータは必須です。
Organization ID: 構成すると、API リクエストで使用する組織を指定するヘッダーが送信されます。複数の組織に属するユーザーの場合に便利です。このパラメータは必須ではありません。
Model: クエリを生成するために使用するモデル。ドロップダウンに表示される値は、Denodo によってテスト済みです。ただし、未テストの OpenAI モデルを試したい場合は、編集アイコンをクリックすると構成できます。組織の OpenAI のアカウントに応じて、表示された一部のモデルが動作しない場合があることに注意してください。
Context window (tokens): 選択したモデルで許可されている最大トークン数。
Max Output Tokens: モデルが 1 回の応答で生成できる最大トークン数。
OpenAI API のパラメータの詳細については、OpenAI API リファレンス https://platform.openai.com/docs/api-reference/authentication を参照してください。
Custom compatibility mode¶
[Custom compatibility mode] パラメータを使用すると、 OpenAI チャット補完 API アプローチまたは Azure OpenAI Service チャット補完 API アプローチに従ったカスタム API に応じて、Denodo Assistant がリクエストを送信および処理できるようになります。
OpenAI チャット補完 API アプローチ: カスタム API が公式の OpenAI チャット補完 API を実装している場合、カスタム API はこのアプローチに従っていると定義します (https://platform.openai.com/docs/guides/text-generation/chat-completions-api を参照)。この場合、[Custom compatibility mode] パラメータを [OpenAI] に設定する必要があります。カスタム API と Denodo Assistant の互換性のために、OpenAI チャット補完 API のすべてのパラメータが必要なわけではありません。
リクエストの本文: Denodo Assistant は、リクエスト本文で model、messages、および temperature の各パラメータを指定してリクエストを行います。
応答の本文: Denodo Assistant は、応答の本文に id、object、created、choices、および usage の各パラメータを必要とします。
Azure OpenAI Service チャット補完 API: カスタム API が公式の Azure OpenAI Service チャット補完 API を実装している場合、カスタム API はこのアプローチに従っていると定義します (https://learn.microsoft.com/en-us/azure/ai-services/openai/reference#chat-completions を参照)。この場合、[Custom compatibility mode] パラメータを [Azure OpenAI Service] に設定する必要があります。カスタム API と Denodo Assistant の互換性のために、Azure OpenAI Service チャット補完 API のすべてのパラメータが必要なわけではありません。
リクエストの本文: Denodo Assistant は、リクエスト本文で messages および temperature の各パラメータを指定してリクエストを行います。
応答の本文: Denodo Assistant は、応答の本文に id、object、created、choices、および usage の各パラメータを必要とします。
次に、それぞれのカスタム互換性モードのパラメータについて説明します。
カスタム OpenAI¶
Authentication: カスタム API が認証を必要とするかどうかに応じて、このオプションを構成します。
API key: API キー。認証が有効な場合、このパラメータが必要です。
Organization ID: 構成すると、API リクエストで使用する組織を指定するヘッダーが送信されます。複数の組織に属するユーザーの場合に便利です。認証が有効な場合のみ使用できます。このパラメータは必須ではありません。
OpenAI URI: カスタム API の URI。このパラメータは必須です。
Model: クエリを生成するために使用するモデル。このパラメータは必須です。
Context window (tokens): カスタムモデルで許可されている最大トークン数。このパラメータは必須です。
Max Output Tokens: モデルが 1 回の応答で生成できる最大トークン数。このパラメータは必須です。
カスタム Azure OpenAI Service¶
Authentication: カスタム API が認証を必要とするかどうかに応じて、このオプションを構成します。
API key: API キー。認証が有効な場合、このパラメータが必要です。
Azure OpenAI service URI: カスタム API の URI。このパラメータは必須です。
Context window (tokens): カスタムモデルで許可されている最大トークン数。このパラメータは必須です。
Max Output Tokens: モデルが 1 回の応答で生成できる最大トークン数。このパラメータは必須です。
HTTP プロキシの構成¶
[Server Configuration] の [OTHERS] > [HTTP Proxy] セクションでデフォルトのサーバープロキシが有効になっている場合、Denodo Assistant のリクエストはプロキシ経由で送られます。構成されたプロキシで 基本認可 が必要な場合は、このプロパティを Virtual DataPort サーバーと Web コンテナーの JVM プロパティに追加します。
-Djdk.http.auth.tunneling.disabledSchemes=""
JVM プロパティの構成の詳細については、「 Denodo プラットフォームの構成 」のセクションを参照してください。
全般¶
[Denodo Assistant] > [General] で、Denodo Assistant を構成します。

Denodo Assistant の構成パラメータ¶
Enable Denodo Assistant features that use a large language model: 大規模言語モデルを使用する Denodo Assistant の機能を有効または無効にします。
注釈
Assistant を有効にすると、サーバーでは、メタデータ情報を使用する際にメタデータ情報を構成済みの LLM に送信できます。データ利用が有効になっている場合のみ、結果を改善するために、ビューのデータも処理され、LLM に送信されます。組織がこのことを認識し、同意していることを確認してください。
この機能を有効にすると、外部 LLM API へのリクエストに費用が発生します。このオプションを有効にする前に、組織がこの金銭的影響を完全に認識していることを確認してください。
Language Options: Denodo Assistant で対応する言語。サーバーのロケール設定の言語 ([Server configuration] の [OTHERS] > [Server i18n] セクションを参照) または代替言語のいずれかを選択できます。
Use a different language for column name generation: 有効にすると、Assistant は以前に選択した言語とは異なる言語で列名を生成します。詳細については、「 フィールド名の提案 」のセクションを参照してください。
Use sample data.有効にすると、Assistant はビューの実際のデータ (ビューが返す行など) を LLM に送信します。これは Assistant の応答の改善に役立ちます。このオプションを機能させるには、 キャッシュモジュール が有効になっていることを確認します。有効になっている場合、[Sample data size] を入力します。これは、サンプリングで取得する行数です。サンプリングプロセスでは、結果の行のサブセットを選択するサンプルを作成します。
注釈
サンプルデータの使用を有効にすると、Assistant は使用されたビューの実際のデータを送信できます。組織がこのことを認識し、同意していることを確認してください。