AI 配置
AI 配置面板用于统一管理 Alfheim 中所有 AI 功能所需的服务供应商。配置完成后,角色试聊、知识库搜索、翻译辅助、图像生成等功能都可以使用 AI 能力。
功能概览
- 多供应商支持
- API Key 和模型统一管理
- 自定义供应商配置
- 各 AI 功能共享供应商池
支持的 AI 供应商
| 供应商 | 说明 |
|---|---|
| Gemini | Google 的 AI 服务 |
| OpenAI | ChatGPT 系列模型 |
| Anthropic | Claude 系列模型 |
| Ollama | 本地部署的开源模型 |
| 自定义 | 兼容 OpenAI API 格式的任意服务 |
添加供应商
- 在 AI 配置面板中点击 添加供应商。
- 选择供应商类型。
- 填写配置信息:
- 名称:为这个配置取一个易辨识的名称。
- API Key:从供应商处获取的密钥。
- Base URL(可选):自定义 API 地址。Ollama 和自定义供应商需要填写。
- 默认模型:选择或输入要使用的模型名称。
- 点击保存。
管理供应商
编辑
选中已有的供应商配置进行修改。
删除
移除不再使用的供应商配置。
启用/禁用
可以临时禁用某个供应商,而不必删除其配置。
AI 功能一览
配置供应商后,以下功能可以使用 AI 能力:
| 功能 | 所在模块 | 说明 |
|---|---|---|
| 角色试聊 | 角色设计器 | 与角色进行模拟对话,测试角色性格 |
| 语义搜索 | 知识库 (Huginn) | 基于含义检索知识条目 |
| 一致性检查 | 知识库 (Mimir) | 检查设定中的矛盾 |
| AI 翻译 | 本地化 | 批量翻译游戏内容 |
| 图像生成 | 美术工作室 | AI 辅助生成视觉素材 |
关于图像生成
AI 图像生成功能主要通过 Nidavellir 的 ComfyUI 连接实现。美术工作室中的 AI 生成面板也可能使用配置的供应商。
使用 Ollama(本地模型)
Ollama 允许在本地计算机上运行开源 AI 模型,无需 API Key 和网络连接。
配置步骤
- 在本地安装并启动 Ollama 服务。
- 在 AI 配置面板添加 Ollama 类型的供应商。
- 填写 Ollama 的服务地址(默认为
http://localhost:11434)。 - 选择已下载的模型。
优势
- 完全离线运行,数据不离开本地。
- 无需支付 API 费用。
- 适合对数据隐私有要求的项目。
使用自定义供应商
如果你使用的 AI 服务兼容 OpenAI 的 API 格式,可以通过自定义供应商接入。
- 选择「自定义」类型。
- 填写服务的 Base URL。
- 填写 API Key(如果需要)。
- 输入模型名称。
提示
- 建议至少配置一个供应商,以解锁 Alfheim 的全部 AI 功能。
- 不同功能可能对模型能力有不同要求 — 角色试聊和翻译建议使用较强的模型,简单的搜索可以使用轻量模型。
- 如果关注成本,可以为不同用途配置不同的供应商(如用 Ollama 做日常测试,用商业 API 做最终输出)。
- API Key 存储在本地项目配置中,不会被上传或分享。