在本地安装 ollama 服务,并且安装至少一个模型,这次我们的模型是
llama3.1:8b。具体如何安装就不赘述了,请参考以往文章: