在目前deepseek频繁遭到DDoS攻击的当下,最佳平替还是deepseek —— 硅基流动联合华为爬出来的完整R1库(非提纯、蒸馏)。
相比360硬蹭的行为,硅基家还是有优势的。
优点:
- 有外联API,可以用客户端直接部署到本地客户端上
- 纯正R1体验
- 送了13块钱朋友费体验
缺点:
- 收费,且token消耗不低
- 仍然还是没有deepseek本家调教的好,同一个问题虽然给出的答案都类似,但问题的拓展性、逻辑活跃性、思维链路表达、文字输出方面还差点意思。不知道是不是因为这个R1模型相对来说比较封闭的关系
总之,继续昨天kimi的话题。如果原版deepseek是在读硕士、kimi1.5预览版是水硕,硅基部署的R1介于两者之间,属于比上不足比下有余的状态。
对于token使用量不高的场景来说,在deepseek无法访问的时候,可以切换到硅基部署的R1模型应急。
不过话说回来,本地知识库仍旧任重而道远。
【下面看图说话】
下午用ollama+嵌入模型+硅基R1 API的组合尝试构建小说的知识库,结果仍旧惨不忍睹。不知道是嵌入模型学习能力的问题、还是对长文分段上仍有局限性,亦或是对docx支持不佳。
结果就是,索引文件垃的一匹。空耗了8万token的流量,屁用也没。
任重而道远啊,任重而道远。
之后会试试导入更轻量的markdown格式,看看有没有改观,估计悬......
评论区
共 3 条评论热门最新