在科研和学习的道路上,高效利用工具是提升效率的关键。对新手来说,本地部署大模型最便捷的方法之一就是通过Ollama来实现。只需一行命令(ollama run modelname)就能召唤出DeepSeek、gemma等顶级大模型,这种“开箱即用”的体验让无数开发者直呼真香。
然而,当你熬过漫长的模型下载进度条,满心期待地载入模型使用时,屏幕上突然出现的“Error: The parameter is incorrect”却像一盆冷水——明明跟着教程一步步操作,怎么就卡在最后一步?
下面,让我们先来看看这个问题到底长啥样。以执行 deepseek-r1 的 1.5b 模型为例,在 cmd 命令行输入如下命令:ollama run deepseek-r1:1.5b,结果就出现如下错误(为了篇幅,删掉大部分校验信息):
←[?25h←[?25l←[?25l←[2K←[1G←[?25h←[2K←[1G←[?25hE
rror: The parameter is incorrect.
ollama run deepseek-r1:1.5b
当时遇到这种情况,整个脑袋都蒙了,这是什么情况?赶紧复制粘贴到 Deepseek、ChatGPT、Kimi、豆包、通义千问等等都问了个遍,没有一个的回答能够正常解决问题。没辙只能通过浏览器检索试试,找来找去,始终没能找到解决该问题的办法。最后通过关键词“Ollama The parameter is incorrect”寻到了答案。
在 Ollama 的 GitHub 项目中,#3916 号问题有人遇到了这个问题,但是似乎并不能解决我的问题,我的 win 系统版本号是 22H2,符合 Ollama 对系统的版本的要求。另外在 geeksrepos 网站上有人遇到这个问题,而答案真实让觉得不可思议,原来是 cmd 或者 powershell 的版本问题,在 VS code 的终端里面就能正常运行,如下图所示。
[VS code终端执行ollama命令效果图]
原来如此,因为从来遇到因为终端版本问题而触发软件不能正常执行的情况,于是果断选择下载微软推出的新终端(new Windows Terminal),建议伙伴们直接在微软应用商店里面下载即可。以下是在新终端中执行效果如下图:
[新终端执行ollama命令效果图]
现在回过头来看,其实模型已经是正常安装了,只不过是不能在旧版本的cmd或powershell终端中执行,通过其他方式是可以正常调用模型的,比如ChatBox、AnythingLLM等平台中都可识别到所下载的模型。
今天的内容到此就要结束了,这个问题可能绝大部分伙伴都遇不到,但是初次遇到还是有点丈二和尚摸不着头脑,希望本文对遇到此问题伙伴有帮助。
最后,祝大家生活愉快、天天开心!
参考资料:[1] https://geeksrepos.com/ollama/ollama/issues/3967