T.TAO
設定

AI 設定

AI 設定パネルは、Alfheim の全 AI 機能に必要なサービスプロバイダーを一元管理するために使用します。設定完了後、キャラクター試し会話、知識庫検索、翻訳補助、画像生成などの機能で AI を利用できます。

機能概要

  • 複数プロバイダー対応
  • API Key とモデルの統一管理
  • カスタムプロバイダー設定
  • 各 AI 機能でプロバイダープールを共有

対応 AI プロバイダー

プロバイダー説明
GeminiGoogle の AI サービス
OpenAIChatGPT シリーズモデル
AnthropicClaude シリーズモデル
Ollamaローカルデプロイのオープンソースモデル
カスタムOpenAI API 形式互換の任意のサービス

プロバイダーの追加

  1. AI 設定パネルで プロバイダーを追加 をクリック。
  2. プロバイダータイプを選択。
  3. 設定情報を入力:
    • 名前:この設定の識別しやすい名前。
    • API Key:プロバイダーから取得したキー。
    • Base URL(任意):カスタム API アドレス。Ollama とカスタムプロバイダーは入力必須。
    • デフォルトモデル:使用するモデル名を選択または入力。
  4. 保存をクリック。

プロバイダーの管理

編集

既存のプロバイダー設定を選択して変更します。

削除

使用しなくなったプロバイダー設定を削除します。

有効/無効

設定を削除せずに、一時的にプロバイダーを無効にできます。

AI 機能一覧

プロバイダーを設定すると、以下の機能で AI を利用できます:

機能モジュール説明
キャラクター試し会話キャラクターデザイナーキャラクターと模擬会話し、性格をテスト
セマンティック検索知識庫 (Huginn)意味に基づいて知識エントリを検索
一貫性チェック知識庫 (Mimir)設定内の矛盾を検出
AI 翻訳ローカライゼーションゲームコンテンツの一括翻訳
画像生成アートスタジオAI によるビジュアル素材の生成

画像生成について

AI 画像生成機能は主に Nidavellir の ComfyUI 接続で実装されています。アートスタジオの AI 生成パネルでも、設定したプロバイダーを使用する場合があります。

Ollama(ローカルモデル)の使用

Ollama を使用すると、API Key やネットワーク接続なしで、ローカルコンピュータでオープンソース AI モデルを実行できます。

設定手順

  1. ローカルに Ollama サービスをインストールして起動。
  2. AI 設定パネルで Ollama タイプのプロバイダーを追加。
  3. Ollama のサービスアドレスを入力(デフォルト: http://localhost:11434)。
  4. ダウンロード済みのモデルを選択。

メリット

  • 完全オフライン動作、データはローカルに留まる。
  • API 費用不要。
  • データプライバシーを重視するプロジェクトに適している。

カスタムプロバイダーの使用

使用する AI サービスが OpenAI の API 形式と互換性がある場合、カスタムプロバイダーで接続できます。

  1. 「カスタム」タイプを選択。
  2. サービスの Base URL を入力。
  3. API Key を入力(必要な場合)。
  4. モデル名を入力。

ヒント

  • Alfheim の全 AI 機能をアンロックするには、少なくとも 1 つのプロバイダーを設定することを推奨します。
  • 機能によってモデル要件が異なります — キャラクター試し会話や翻訳には高性能モデル、シンプルな検索には軽量モデルが適しています。
  • コストを重視する場合は、用途別に異なるプロバイダーを設定できます(例:日常テストは Ollama、最終出力は商用 API)。
  • API Key はローカルプロジェクト設定に保存され、アップロードや共有はされません。