🐼 inferentia

👇 1 Elementos

vllm

33.9k Python Apache-2.0

A high-throughput and memory-efficient inference and serving engine for LLMs

1 hace 2 año(s) hace 1 mese(s)