WebStorm + Continue + Ollama,实现本地大模型代码补全,M2 Mac 实测结果是可用但不好用
本文首发于 微信公众号 CroWall,这里同步一下。
PS: 本文目标读者是对编程感兴趣的用户或者是程序员,小白用户可以忽略。
昨天夜里尝试了一下 Ollama 本地部署大模型,效果不错,参见《Ollama 初体验,本地部署大模型利器,小白也能在 M2 芯片的 Mac 上分分钟跑起来》这篇文章。
今天上午一到公司,就迫不及待尝试了下阿里的 qwen2.5-coder:7b 模型的代码补全效果。
PS 视频参见公众号文章。
先说结论,代码补全在我的 M2 MacBook Air 上可以用,但资源占用太高,导致我的网易云音乐播放着的音乐都卡顿了,所以目前来看并不好用。
一方面不能一边写代码一边听音乐了,另一方面如果是坐在外面(比如咖啡馆)写代码没插电源,估计个把小时就能把电池用完了。