最近由于工作的原因,需要去尝试部署海外大厂的开源 LLM 模型,进行一些测试验证。逐步呢就会接触到 AI 生态中的一些概念。
Hugging Face 的 transformers 库提供了使用 PyTorch 实现的预训练 NLP 模型,这些模型通过 CUDA 支持在 GPU 上进行训练和推理。
因此对于私有化部署而言,最核心的就是把 GPU 的驱动及 CUDA 都安装好,那么 CUDA 是什么?如何完成安装?
大家可以收藏一下,后期本地部署的时候,应该能帮大家节省时间。
https://watermelonwater.tech/hugging-face-transformers%e5%ba%93%e4%be%9d%e8%b5%96%e7%9a%84cuda%e6%98%af%e4%bb%80%e4%b9%88%ef%bc%9f%e5%a6%82%e4%bd%95%e5%ae%89%e8%a3%85%ef%bc%9f/