1236528.jpg

nmslsxc

r1写文温度过于高了

其实deepseek我从v3刚出的时候就开始玩了,当时因为命中缓存的原因只能放弃,说两句就会一直复读。
r1出来我也体验了几天,自从这玩意火了我真的就没一次完整体验过,包括所谓的本地部署。
看过一些科普视频的也都知道,本地部署除非你部署的是完整版,否则都是跟其他大模型一起蒸馏的四不像的怪胎,体验自然不会好,那如果用api呢?
api效果可能会好一点,但不多,我用酒馆和一些其他平台把r1的温度压到0它写起来还是飘的,总是会莫名其妙蹦出些其他设定,但你细想感觉好像又挺合理,感觉好像能说得过去,r1一直就给我这种感觉,如果对话超过8ktoken那体验可以说是抽象级的,又忘文又飘。总得来说现在的r1其实并不是特别好的瑟瑟工具。

none.gif

cecba62b

r1 32b 试了下 比较抽象 网文人物基本不认得 用提示词破限制 感觉很容易飘。可能用中文数据的原因 大部分数据本身就自带红色思想钢印 部位敏感词只能用英文单词委婉的说出来dog。 甚至直接给你飙一口流利的英语。
而使用无审查的版本 进行飞线短接 又容易导致逻辑性不强 。

这些模型的本质就是解压缩 用少量的文字撞出你所不知道的大量信息   目前调破限的精彩量 还没撞出来的多 那些会写破限词的 建议直接去写文 定会更加精彩非凡……  

none.gif

锻造切糕

单纯用的联网r1,最大感受就是写文的时候毫无节制的细节和定语堆砌......以及很多时候令型月重工望都而却步的情节处理......以及离谱的各种超展开......