На прошлой неделе мы выпустили c3-llamacpp, контейнеризированный llama.cpp с быстрым загрузчиком hf. На этой неделе c3-vllm. Это контейнеризирует vLLM, последнего босса серверов LLM API.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
14 Лайков
Награда
14
4
Поделиться
комментарий
0/400
ForkTrooper
· 4ч назад
Так много моделей, с которыми не справиться.
Посмотреть ОригиналОтветить0
UncleWhale
· 08-03 01:51
Этот контейнер подходит для меня,冲
Посмотреть ОригиналОтветить0
TrustlessMaximalist
· 08-03 01:50
Неплохо, vllm на блокчейне
Посмотреть ОригиналОтветить0
PumpAnalyst
· 08-03 01:44
Технические благоприятные условия не должны стать поводом для слепого гнания за ценой, будьте осторожны, чтобы не оказаться в ситуации "герой с отрубленной рукой".
На прошлой неделе мы выпустили c3-llamacpp, контейнеризированный llama.cpp с быстрым загрузчиком hf. На этой неделе c3-vllm. Это контейнеризирует vLLM, последнего босса серверов LLM API.