La semaine dernière, nous avons publié c3-llamacpp, un llama.cpp containerisé avec un téléchargeur hf rapide. Cette semaine, c3-vllm. Cela conteneurise vLLM, le boss final des serveurs API LLM.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
14 J'aime
Récompense
14
4
Partager
Commentaire
0/400
ForkTrooper
· Il y a 7h
Il y a trop de modèles à gérer.
Voir l'originalRépondre0
UncleWhale
· 08-03 01:51
Ce conteneur peut tout contenir, allons-y.
Voir l'originalRépondre0
TrustlessMaximalist
· 08-03 01:50
Pas mal, vllm est sur la chaîne.
Voir l'originalRépondre0
PumpAnalyst
· 08-03 01:44
Les informations positives sur le plan technique ne doivent pas inciter à chasser le prix aveuglément, attention à devenir un héros qui se coupe le bras.
La semaine dernière, nous avons publié c3-llamacpp, un llama.cpp containerisé avec un téléchargeur hf rapide. Cette semaine, c3-vllm. Cela conteneurise vLLM, le boss final des serveurs API LLM.