Ollama 初体验,本地部署大模型利器,小白也能在 M2 芯片的 Mac 上分分钟跑起来
本文发布于 微信公众号 CroWall,这里同步一下。
Ollama 是一个开源的大型语言模型(LLM)服务工具,旨在简化在本地运行大语言模型的过程,降低使用大语言模型的门槛。
有了 Ollama,即使是小白用户,也能分分钟在自己电脑上跑一个大模型玩玩。
本文发布于 微信公众号 CroWall,这里同步一下。
Ollama 是一个开源的大型语言模型(LLM)服务工具,旨在简化在本地运行大语言模型的过程,降低使用大语言模型的门槛。
有了 Ollama,即使是小白用户,也能分分钟在自己电脑上跑一个大模型玩玩。
TEL
减 2 美元);详细可以参考这篇文章 使用虚拟卡片开通了 ChatGPT Plus。
注意事项:
充值金额随意,Plus 会员每个月 20 美元,所以我的做法是首次充值40美刀,然后每个月充20,留 20 在里面避免忘记充了。可以趁着汇率合适的时候多充点。
PS: 购买了 ChatGPT Plus 后,我发现了一个额外福利,可以使用 ChatGPT 的客户端了,Web 端会提示你下载客户端使用。用了客户端的好处就是没有 Web 端老是询问你是否机器人的问题了。
众所周知,ChatGPT OpenAPI 在国内是没办法使用的。
如果想用,就得解决两大难题:
我之前也捣鼓过,搞到最后没脾气了,后来发现了一个不错的第三方代理 OpenKey.Cloud,帮你解决了这两大难题,你只需要专注于你的应用开发就可以了。
OpenKey.Cloud可以在国内的服务器上使用,可以使用微信支付宝支付,就跟使用国内的 API 服务一样,非常不错,而且 API 只是转发,改个域名就可以了。非常方便。
使用我的邀请码(官方叫“赠送码”)可以获得赠送额度。
9B3WG
比如,充值额度 $1000美金,同时获得赠送额度 = $1,000 x 5% = 50刀。
今天遇到一个问题,在使用 Symfony 6.x 框架的项目里,我没有使用框架自带的 Security 组件,而是自己实现了一个用户认证的土方法。
在我的方法中,当用户请求需要登录的接口时,会抛出一个自定义的异常 ApiNotAuthException,然后我在 ExceptionListener 监听器服务中捕获这个异常并封装我自己的返回值结构,最后将状态码强制改为 200(因为我不喜欢使用 HTTP 状态码来替代业务状态码)。
我用 PHP 脚本写了一个订阅 redis 列表的命令,但我发现跑了没多久就连接失败退出了。
报错的提示是:read error on connection to 127.0.0.1:6379
。
试了两次发现时间差不多,估计是触发了 PHP 的某个默认配置。
好在现在有了 ChatGPT,不需要去慢慢查文档了。
问了一下 ChatGPT,给出的 4 个可能原因中,第三个非常 match:
如果在读取数据时连接突然中断,可能是由于连接超时、网络中断或 Redis 服务器故障引起的。在 PHP 中,可以使用 ini_set('default_socket_timeout', -1); 来设置无限制的超时时间,以确保连接不会因为超时而关闭。
在脚本之前加上 ini_set('default_socket_timeout', -1);
再跑,果然 work 了。
查了下 php.ini 的配置,默认的时间果然是 60 秒。
自从有了 ChatGPT,Google 变得没那么重要了。。。
如果用 Google,可能我还在翻 StackOverflow 或者 php.net 寻找问题的可能原因。
如果用 Bing,可能我还在关闭 CSDN 页面上的广告。
如果用百度,可能我又要被哪个卖课的骗进去了。
现在体会到 ChatGPT 发布后,Google 为啥那么着急了。。。
整理可用的国内 GPT 代理服务信息,不定期更新。