逸云蓝天 每一天都有收获-读好文-学知识-用软件

使用Ollama本地部署大语言模型

在这篇文章中,我们将实践通过Ollama在本地计算机部署阿里大模型Qwen2.5,并通过命令行和API的方式进行调用。 Ollama的出现简化了大模型中本地部署的过程,让我们可以很轻松的将网络上的开源模型在本地计算机中运行。 Qwen2.5是由阿里推出的大语言模型,参数规模从5亿到720亿不等,支持

eskysky eskysky 发布于 2024-12-10