沉浸式翻译在本地使用千问 35B-8Bit 模型后油管加载失败后的设置调整

在本地大模型使用Qwen3.5-35B-A3B-8bit之后,沉浸式翻译在翻译Youtube/X等平台时会出现问题,在OpenClaw里也会出现:

Context overflow: prompt too large for the model. Try /reset (or /new) to start a fresh session, or use a larger-context model.Context overflow: prompt too large for the model. Try /reset (or /new) to start a fresh session, or use a larger-context model.

一开始修改 oMLX 的模型配置时发现有问题,后来调整了几次“沉浸式翻译”的相关配置,就解决了这个问题。我把这个经验分享出来,等后续有人通过搜索找到这篇内容的时候,要是按这个方法解决了问题,麻烦在这里留个言哈。

每秒最大请求数:1
每次请求最大文本长度:800

每次请求最大段落数:2

如图所示:

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

© 2026 Xiaoxiao’s Weblog. All Rights Reserved. 粤ICP备15088982号