配置与提供商

配置与提供商

本节介绍如何在应用设置中配置云端提供商与本地模型,以及与隐私相关的本地优先设置(内容摘自 Chatless 仓库 README)。

配置 AI 提供商

  1. 打开应用设置
  2. 进入“AI 模型设置”选项卡
  3. 点击“管理提供商”,新增需要的提供商,输入 API 密钥
  4. 配置密钥后点击刷新模型,以拉取模型列表,回到聊天界面即可选择模型开始对话
AI 提供商设置 - 管理云端与本地模型

支持多家提供商,可同时配置并按需切换。

本地模型(可选)

若希望离线使用,可通过 Ollama/LM Studio 运行本地模型,并在应用中配置本地地址:

# 1) 安装 Ollama(示例)
curl -fsSL https://ollama.ai/install.sh | sh

# 2) 下载常用模型
ollama pull llama2:7b
ollama pull mistral:7b
ollama pull qwen:7b

# 3) 在应用设置中配置 Ollama 地址(默认:http://localhost:11434)
知识库设置 - 索引与解析参数

隐私与本地优先

  • 会话与设置存储在本地,确保对话内容不上传云端。
  • 上传/联网功能仅在调用云端模型时发生;本地模型(如 Ollama)不会外发数据。
  • 建议为敏感场景启用“仅本地模型”或断网模式。

健康检查

Chatless 推荐采用“带错误密钥的最小真实请求”判断服务是否可用,避免真实的 Token 消耗,同时覆盖网络与服务端链路。详见《可用性检查(健康检查)》。

提示:模型与对话参数

  • 温度、Top‑P、系统指令、最大输出长度等参数可在会话或设置中调节。
  • 对于不同提供商的模型名称,请参考其官网/文档;OpenAI 兼容接口通常以 gpt-*deepseek-*llama* 命名。