我必须得说线性回归模型是一个很烦的东西,所有很容易搞乱套的东西全都在里面,相关系数、偏相关系数、beta、标准化 beta、方差、协方差、偏协方差,还有特殊情况、非特殊情况、有量纲、没有量纲,一大堆概念,而且这些概念特别不好深入浅出。会推公式的人会用 verify 替代解释,把一切都用公式压过去,不会的直接把它当魔法……
这世界欠我一个解释……
我之所以会产生这个想法,是因为我最近一直在用 arena 的 battle mode 学习一些很晦涩的东西,每次都有两个匿名的、随机的模型各自做了深入的研究之后给我答案,我可以追问,我可以自由地表达我的懊恼、自由地选择我认为「解释得更易懂」的答案,无需锁死在一个「名师」身上,对方也不会因为我的懊恼和选择而伤害我。更有趣的一点是,你每次选择的最佳解释都构成了一个优质的上下文,每次新的「教育者」现身的时候都会参考你的「学习历程」,给你一个脉络化的解答,这种自由、安全、被保护的学习体验是前所未有的。
Читать полностью…
一点想法,尊师重道的学习环境里面,学习者可能没发在一个安全的环境里面深入地探索满足真正的求知欲。学习空间里面应当允许学习者感到懊恼,甚至有机会指责教授者没有把事情剖析清楚(在尊师重道的教育环境里只有教授者有立场指责学习者)。学习场景是学习者和教育者的共舞,既然是一个系统,那就不可能出现不会犯错的一方。
Читать полностью…
如果你较真的话会发现范文的部分基本全是滑坡,一方面我得承认我的确是在玩,另外一方面,我背后的用意是清晰地展示架空式论述的后果:如果你不把论述讲清楚提前结束你的回合,那你就是在把解读的权利拱手让给对方。况且这不是在聊天室实时对线,没有人在拼速度的,你完全有机会多动点脑筋把话说清楚。
Читать полностью…
只有一名舰长两*式开了私信超高收费,我没办法联系,剩下的朋友都已经私信了舰长群 Link,请各位查收自己的私信 ᕕ( ᐛ )ᕗ
Читать полностью…
正在为我的博客开发特辑功能,把我认为可以在一起读的内容放到单独的页面,并且写好导读,试了一下用 GPT 出特辑封面,其实效果不错的
Читать полностью…
Jojo123: jandan.net/t/6131626
OO: 123 XX: 11
VlSO: night你就是原来的漆也没用,新旧都会有色差
OO: 15, XX: 0
https://roriri.one/notes/stupid-no
写得好爽
转载前请三思,不是什么优秀写作,纯粹在玩……
Deepseek V4 的模型品质非常次,拿来做写作辅助几乎是不可用的,所有问题的解决全都是按字面意思给你对付
Читать полностью…
visual-base 这个项目另一个启发点的来源是 DeepSeek OCR 这篇论文。里面纠正了一个我一直以来的思维误区,就是文字比图片更省 Token。
实际上从 LLM 的角度,图片 Token 的信息密度可能是文字 Token 信息密度的 10x-20x,那么以此类推视频 Token 的密度可能是文字 Token 的 100x 了。所以看似文字是做了压缩,但可能不仅是有损压缩,压缩完了体积还膨胀了。
而且只是做 LLM 的理解并不需要 4K 120fps 的视频输入,在 visual-base 里默认只有 1fps。按照 DeepSeek OCR 的压缩思路其实还可以进一步做有损压缩,像记忆自然衰退一样继续降分辨率,降帧率,视频存储的体积也不会和想象一样夸张。