推文详情
avatar
@lidangzzz@x.good.news
deepseek官方提供的API,速度几乎是市面上主流LLM inference API里最慢的, 同样体量的模型,cerebras、sambanova、groq的速度是OpenAI的10倍,是deepseek的100倍。 幻方这家公司太像2000年的Google了,估计是把前几年的垃圾nvidia GPU全都便宜收集来了,无脑堆起来给用户用,在硬件成本上精打细算。
查看详情
0
0
0
@lidangzzz@x.good.news
0/477
加载中