🐼 quantization

👇 1 Elementos

LLaMA-Factory

56.6k Python Apache-2.0

Unified Efficient Fine-Tuning of 100+ LLMs & VLMs (ACL 2024)

1 hace 2 año(s) hace 1 mese(s)