使用 Ollama + Ngrok 搭建本地 LLM,遠端存取 AI 模型教學
想在本地運行 LLM,又希望能遠端存取?本篇教你如何使用 Ollama 在 Mac mini 部署 AI 模型,並透過 Ngrok 建立公開 API,讓你從公司也能使用自己的 LLM。內附詳細步驟與 Postman 測試!
想在本地運行 LLM,又希望能遠端存取?本篇教你如何使用 Ollama 在 Mac mini 部署 AI 模型,並透過 Ngrok 建立公開 API,讓你從公司也能使用自己的 LLM。內附詳細步驟與 Postman 測試!
Recent Comments