Sequence-LLM
ストックにはログインが必要です
シンプルなコマンドで、複数のローカルLLMを管理する。
Artificial Intelligence
Developer Tools
GitHub
Tech
概要
- 複数のローカルLLMを、ポートやサーバ管理を気にせずコマンドで切替える開発者向けCLI。
- モデルプロファイルを一度設定すれば、/brain、/coder、/status などのコマンドで瞬時に切り替え可能。
- サーバの起動/停止、ポート管理、設定読み込みを自動化。Windows/macOS/Linux に対応。
- 限られたハードウェア環境でのローカルAI実験を想定した軽量設計。
- 初期版(v0.1)で、バックエンドを固定せず柔軟に運用する仕組みを目指す。
- 複数モデルを別々の環境として管理する煩雑さを解消し、コマンドで瞬時に移動できる統一インターフェースを提供することを目指しています。
投票数: 3