🦙 llama.cpp

在本地运行LLM。

替代方案