科学家声称找到煮鸡蛋的完美方法
#科学
传统煮鸡蛋的方法有两种:在 100 摄氏度的沸水中硬煮,但这会导致蛋黄完全凝固;通过真空低温烹调,在 60 到 70 摄氏度下慢慢炖煮一小时,但这会让蛋白不够熟。科学家现在报告了一种被称为“周期性烹饪”的新方法。它不仅让每一颗煮鸡蛋都能达到完美的均匀熟度,还能提升其营养成分。科学家利用计算流体动力学软件模拟出了这种全新的煮蛋过程:将鸡蛋在 100 摄氏度的沸水和 30 摄氏度的冷水中交替浸泡,每两分钟转移一次,总共持续 32 分钟。在这段时间里,蛋白逐渐变得细腻而富有弹性,蛋黄则保持了奶油般的柔软质感。经过处理后蛋黄中的多酚含量显著增加,这是一种被认为对健康非常有益的微量营养素。
Guardian:Scientists crack what they say is the perfect way to boil an egg
科技日报:如何煮出熟度均匀的鸡蛋?
制式仪刀: https://jandan.net/t/5847847
OO: 331 XX: 77
vva: 问这个问题的人根本没明白自己为什么要提升文笔…目的都不知道只比较结果,那还不如原地转世投胎算了。
OO: 124, XX: 4
道格拉斯: 作者的文笔就像厨子的提鲜手段,deepseek就像味精,但是人不可能只喝味精兑水,除非你这个厨子原本就除了提鲜什么都不会
OO: 77, XX: 2
蛋友170386f2c9390: 比你厉害的多一个ai又如何
OO: 45, XX: 0
蛋友16fda9a40e53e: @蛋友170325ffd75f0 早期知乎是为数不多的高质量中文社区了,好在目前他没搞贴吧那种大删除,相当多的优质内容得以保存。知乎用户也流传一句话:“你把知乎当搜索引擎用比当社交媒体用好得多。”
OO: 19, XX: 0
https://suno.com/song/e8448aa6-5463-4fa5-902d-81250501f7ce
Suno 的新模型有点屌
淦,用 deepseek 写文章好快……而且写的比我还好,遇到 deepseek 写不通的地方扔 claude 补强。一下午五千字跑出来了,我只负责给个骨架,一段一段编修,哪里写呲了就换个模型重写,多跑几遍选能用的段落拼在一起。
我到底在干什么(痛苦捂脸
Microsoft deletes official Windows 11 CPU/TPM bypass for unsupported PCs (Score: 150+ in 7 hours)
Link: https://readhacker.news/s/6nyRB
Comments: https://readhacker.news/c/6nyRB
Ratzilla (❄️ Score: 150+ in 4 days)
Link: https://readhacker.news/s/6nh9c
Comments: https://readhacker.news/c/6nh9c
今天:
#Rune 处理了服务器证书管理相关的底层封装,明天接 GUI
#BPIO 把模态框之类的组件又往上封装了一层,各种表单事件跟数据层串了一遍,事件已经跑起来了,还剩一点 token 传递的东西没解决,明天搞
#Blog 把昨天写的文章修了一下,发了自己的博客和少数派
我今天早上写的那篇文章有超过一半都是 AI 推出来的,关于我为什么这么写、以及写完之后我有什么感受,如果你感兴趣可以催稿,我周末写
Читать полностью…AI by Hand Exercises in Excel https://github.com/ImagineAILab/ai-by-hand-excel
Читать полностью…https://liaolibao.taobao.com/category-1336733880.htm
这家看着不错,下次试试
研究人员提出一种超低成本的 AI 训练方法
#人工智能
AI 训练通常成本高昂,金额可能多达千万美元。上周五斯坦福大学、华盛顿大学、艾伦 AI 研究所以及 Contextual AI 的研究人员在预印本平台 arXiv 上发表了论文《s1: Simple test-time scaling》,提出了一种超低成本的 AI 训练方法,在 AI 社区引发了轰动。OpenAI 第一个提出了被称为 inference-time scaling laws(推理时间扩展定律)的方法,本质上指的是大模型在输出答案前如果“思考”更长时间那么就可能获得更高的性能。但无论是 OpenAI 还是 R1 都没有给出具体实现方法。在这篇论文中,研究人员给出了一种简单实现:在进行推理时用“等待”替换“停止思考”,迫使其继续思考进行第二次推理并核查第一次的答案。研究人员使用了一个小模型,将 56K 示例数据集筛选到 1K,这 1K 数据集足以在 32B 模型上实现 o1-preview 的性能,额外的数据不会提高性能。他们使用 16 个 NVIDIA H100 进行训练,每次运行 26 分钟,花了约 6 美元。
Tim Kellogg:S1: The $6 R1 Competitor?
arXiv:2501.19393
https://open.spotify.com/track/3N8IpO4WUzDQ1x5wTaRk3Z?si=803993fb7041416c
Читать полностью…