vllm-project avatar
AI Python

vllm-project/vllm

A high-throughput and memory-efficient inference and serving engine for LLMs

高效 LLM serving 基礎設施,能補齊模型推理層的觀察面。

#amd#blackwell#cuda#deepseek#deepseek-v3#gpt#gpt-oss#inference#kimi#llama#llm#llm-serving#model-serving#moe#openai#pytorch#qwen#qwen3#tpu#transformer

為什麼值得關注

適合放進專案推薦站的原因

維持追蹤

這個 repo 已被加入每日同步清單,會自動更新熱度與活躍度資料。

有清楚定位

目前分類在「AI」,適合與同類工具放在一起做比較與導覽。

討論入口現成

你可以在這頁直接掛留言,也能把深度討論引導到 GitHub Discussions。

討論區

可以直接掛 GitHub Discussions