将 Ollama 配置为用于生成翻译的 LLM 提供程序。
llm.profiles.<name>.provider
ollama
{ "llm": { "profiles": { "default": { "provider": "ollama", "model": "qwen2.5:7b", "prompt": "Translate from {{source}} to {{target}}:\n\n{{input}}" } } } }
OLLAMA_BASE_URL
http://127.0.0.1:11434/v1
OLLAMA_API_KEY
此页面对您有帮助吗?