显示HN:sllm – 与其他开发者共享GPU节点,无限tokens
Show HN: sllm – Split a GPU node with other developers, unlimited tokens

原始链接: https://sllm.cloud

关于登录模型 llama-4-scout-109b qwen-3.5-122b glm-5-754b kimi-k2.5-1t deepseek-v3.2-685b deepseek-r1-0528-685b 价格 $10 $40 承诺 1 个月 3 个月 吞吐量 15 tok/s 35 tok/s 可用性 0% 100% 筛选器 显示 0/0 排序 可用性:低到高 价格:低到高 价格:高到低 吞吐量:高到低 没有匹配您筛选器的模型。

## sllm:LLM 共享 GPU 访问 - 摘要 sllm.cloud 旨在通过允许开发者共享 GPU 节点,从而 democratize 大型语言模型 (LLM) 的访问,显著降低成本。运行像 DeepSeek V3 (685B) 这样强大的模型通常每月需要 14,000 美元,但 sllm 提供每月 5 美元起的价格,面向需要 15-25 token/秒的用户。 该服务采用基于 cohort 的系统:用户预留位置,只有在 cohort 填满时才会付款。它使用 vLLM 兼容 OpenAI-API,确保易于集成。一个关键特性是数据隐私 – 不记录任何流量。 早期反馈强调了对资源竞争(“噪音邻居”问题)和 cohort 填满时间的问题。sllm 正在通过速率限制、7 天 cohort 填满保证(未填满时自动取消)以及优化 GPU 利用率来解决这些问题。用户质疑广告宣传的 token 速率与实际性能,以及与 OpenRouter 等替代方案相比的成本效益。该项目仍处于早期阶段,正在寻求反馈以完善其模型。
相关文章

原文
Showing 0 of 0

No cohorts match your filters.

联系我们 contact @ memedata.com