
exo
在家使用日常设备搭建自己的AI集群。
- 支持LLaMA等流行模型。
- 动态模型分割,根据网络拓扑和设备资源最优分配模型。
- 自动设备发现,无需手动配置。
- 提供与ChatGPT兼容的API,简化模型运行流程。
- 支持多种推理引擎,如MLX、tinygrad、llama.cpp。
- 支持多种网络模块,包括GRPC、Radio、Bluetooth。
产品详情
exo是一个实验性的软件项目,旨在利用家中的现有设备,如iPhone、iPad、Android、Mac、Linux等,统一成一个强大的GPU来运行AI模型。它支持多种流行的模型,如LLaMA,并具有动态模型分割功能,能够根据当前网络拓扑和设备资源来最优地分割模型。此外,exo还提供了与ChatGPT兼容的API,使得在应用程序中使用exo运行模型仅需一行代码的更改。