最近在研究提供給內網使用的LLM,因為已經在本機玩過Ollama還蠻容易上手,量化模型也做得不錯(沒有GPU也......