
在本地大模型使用Qwen3.5-35B-A3B-8bit之后,沉浸式翻译在翻译Youtube/X等平台时会出现问题,在OpenClaw里也会出现:
Context overflow: prompt too large for the model. Try /reset (or /new) to start a fresh session, or use a larger-context model.Context overflow: prompt too large for the model. Try /reset (or /new) to start a fresh session, or use a larger-context model.
一开始修改 oMLX 的模型配置时发现有问题,后来调整了几次“沉浸式翻译”的相关配置,就解决了这个问题。我把这个经验分享出来,等后续有人通过搜索找到这篇内容的时候,要是按这个方法解决了问题,麻烦在这里留个言哈。
每秒最大请求数:1
每次请求最大文本长度:800
每次请求最大段落数:2
如图所示:

