配置与提供商
本节介绍如何在应用设置中配置云端提供商与本地模型,以及与隐私相关的本地优先设置(内容摘自 Chatless 仓库 README)。
配置 AI 提供商
- 打开应用设置
- 进入“AI 模型设置”选项卡
- 点击“管理提供商”,新增需要的提供商,输入 API 密钥
- 配置密钥后点击刷新模型,以拉取模型列表,回到聊天界面即可选择模型开始对话

支持多家提供商,可同时配置并按需切换。
本地模型(可选)
若希望离线使用,可通过 Ollama/LM Studio 运行本地模型,并在应用中配置本地地址:
# 1) 安装 Ollama(示例)
curl -fsSL https://ollama.ai/install.sh | sh
# 2) 下载常用模型
ollama pull llama2:7b
ollama pull mistral:7b
ollama pull qwen:7b
# 3) 在应用设置中配置 Ollama 地址(默认:http://localhost:11434)

隐私与本地优先
- 会话与设置存储在本地,确保对话内容不上传云端。
- 上传/联网功能仅在调用云端模型时发生;本地模型(如 Ollama)不会外发数据。
- 建议为敏感场景启用“仅本地模型”或断网模式。
健康检查
Chatless 推荐采用“带错误密钥的最小真实请求”判断服务是否可用,避免真实的 Token 消耗,同时覆盖网络与服务端链路。详见《可用性检查(健康检查)》。
提示:模型与对话参数
- 温度、Top‑P、系统指令、最大输出长度等参数可在会话或设置中调节。
- 对于不同提供商的模型名称,请参考其官网/文档;OpenAI 兼容接口通常以
gpt-*
、deepseek-*
、llama*
命名。