付费红包封面功能全量上线了!
现在都可以在微信内销售自己的红包封面了
如果你还不知道怎么用AI做可以看我写的这个教程:
https://mp.weixin.qq.com/s/i7kbFubCXddvRHj12lpxtQ
Alpaca - 个性化的AI工具包,可接入Ps的SD绘画插件
Alpaca 个性化的AI工具包,可接入Ps的SD绘画插件
链接:
https://www.alpacaml.com/
#Ai工具推荐
ImageCreator - 推荐!PS中免费使用的SD神级插件
ImageCreator 推荐!PS中免费使用的SD神级插件
链接:
https://imagecreator.alkaidvision.com/
#Ai工具推荐
ShipAny 项目满月,在 ProductHunt 正式发布了,请大家帮忙投个票👇
https://www.producthunt.com/posts/shipany-2
ShipAny 在 2024.12.24 立项,2024 圣诞节当天开始预售,4 小时销售额破万刀,受到了众多开发者 / 创作者的喜爱。
我 all in ShipAny 一个月时间,完成了预售时承诺的全部功能,补齐了开发 / 使用文档。期间有多位 ShipAny 天使股东使用 ShipAny 上线了多个自己的产品。
ShipAny 可能是目前市面上功能最齐全的 AI SaaS 开发框架,包括👇
- 用户鉴权 / 数据存储 / 数据统计
- 多语言 / 博客 / CMS / 后台管理系统
- 用户积分系统 / API Keys 管理系统 / 支付系统
- AI 文本 / 图片 / 语音 / 视频生成
- 内置精美的 Landing Page 构建器和丰富的页面组件
- SEO 友好,代码结构清晰,系统扩展性强
在 ProductHunt 发布期间,继续 五折 优惠(折扣码在 ProductHunt 投票页面复制),持续迭代,持续交付。
不买没关系,看看文档,是不是你想要的功能 ShipAny 都有:
https://docs.shipany.ai/zh
感谢大家的支持,祝大家新年快乐。🎇
https://shipany.ai
推荐一款非常好用的资源嗅探与下载工具:res-downloader。
支持市面上几乎所有网络应用,抖音、小红书、视频号等等都可以。
资源类型支持视频、图片、音频、m3u8、直播流等常见网络资源的嗅探与下载,甚至还能抓取特殊网络下的资源。
最棒的是,它兼容 Windows、macOS 和 Linux 系统,提供开箱即用的安装包,轻松部署使用,极大简化了操作流程。
GitHub:https://github.com/putyy/res-downloader
一年前,也是在春节期间,OpenAI突然发布了断档领先的视频大模型Sora,给国产AI厂商添了大堵,被调侃为都过不好年了。
一年后的这次临近春节,轮到中国AI厂商给美国竞对们上眼药了,Qwen、DeepSeek、Kimi、Doubao连着发大招,你方唱罢我登场,实在热闹。
因为别人太强而过不好年,和因为自个忙起来根本就没想过好年,是完全不同的两码事。
字节跳动新发布的豆包1.5 Pro,除了在基准测试里表现抢眼之外,还特意强调了两个点:
- 基于豆包产品的大规模用户反馈,实现了以用户数据飞轮持续提升模型能力的优化系统;
- 模型训练过程中,未使用任何其他模型生成的数据,坚持不走捷径,确保数据来源的独立性和可靠性。
这两个点,很容易联想到最近的两件事:前一个是MiniMax的创始人在接受采访时提出的反共识,认为用户越多并不能推动模型越强;后一个则是中科院、北大等六家机构发了篇学术论文,用两种方法验证了Claude、Gemini和豆包没有蒸馏其他模型,DeepSeeek的蒸馏程度则比较高。
豆包的意思是,用户数据飞轮对大模型仍然有价值,推翻了它,就意味着否认用户市场和技术发展之间的关系,大家也都没必要追求MAU/DAU了,以及用先进模型去教出一个学生模型出来,并不能让学生真正变得比老师更加聪明。
Sam Altman早些时候也发过一条意有所指的隐晦推文:「复制你知道行得通的东西是(相对)容易的。当你不知道它是否行得通时,做一些新的、有风险的、困难的事情是非常困难的。」
严格来说,豆包的表态更像是在输出一种自我要求的标准,而没有太多的diss成分,中国需要DeepSeek这样的公司用最快速和低成本的方法推动AI技术开放,也需要字节这样的大厂用更重的投入、走更难的路去挑战更高目标。
这种并无计划的错位搭配,正是国产科技行业擅长的饱和式路线,资源受限的公司,可以拿出性价比最优的方案,突出一个物超所值,资源充裕的公司,也确实有资格不抄近道,做好和模型预研、实验、训练共同生长的数据基建。
豆包这次的亮点在于,即使没有采用能快速复制海外先进模型能力的蒸馏方法,而是老老实实的自建庞大的人工标注团队和数据生产体系,依然能把模型效果做到GPT-4o的水平,也充分发挥了中国团队的工程优化能力来降低推理成本,而且无论是DeepSeek还是豆包在谈及定价策略时,都曾很是无辜的表示并没有挑起价格战的意图,自己是有利润的,成本结构完全可以实现。
与此同时,Musk和Altman还在为「星际之门」项目到底有没有5000亿美金能够到账而吵个不休⋯⋯
当然OpenAI依然值得尊重,只是在行业整体都在大幅前进的情况下,有多少是站在巨人的肩膀上,又有多少正在成为新的巨人,这是很有讨论价值的,也是在开启一个波澜壮阔的硅基时代前,不可缺少的仪式性帷幕。
科技公司通常会凸显研发支出占总收入的比重,视其为愿意在多大程度上投入核心竞争力的决心,以后倒可能会有一个类似的新指标出来,那就是对AI的支出占总支出的比重,这代表公司愿意在未来上押注多少现金流。
这是字节跳动最有力量的标志,从收入体量来看,它是全球级的互联网大厂,不但有着管够的弹药,而且可以自给自足,不必过于依赖外部输血,去年在AI设施上花的钱几乎相当于BAT之和,在投入和产出两个方面都成了国内断崖领先的榜一。
另一方面,豆包的发展也带有很强的商业逻辑,无论是它对大模型调用经济性的重视,还是带着火山剪映等兄弟业务协同发展,甚至包括衔接上下游产业链去做更多样化的的产品,都相当务实。
有的时候也会感慨,这种务实在需要喊口号时,也很难一下子变得浪漫化,尤其是在英文圈里言必称AGI、各种科幻梗层出不穷的背景下,再去看字节跳动为AGI团队Seed Edge设立的五大目标,只能说真的很理工化,没有半分虚的:
- 探索推理能力的边界,用更先进的推理带动智能的提升;
- 探索感知能力的边界,不止是语言模型,还要建立世界模型;
- 探索软硬一体的下一代模型设计,用模型的需求反过来为硬件设计指路;
- 探索下一代学习范式,既要挑战现在的共识,还得提出新的改进空间;
- 探索下一个Scaling方向,推动智能边界的进步。
就,很具体明晰,很就事论事,有没有?根本不存在那种金句或者机锋,每一个字每一句话都是在精确的传达给字节跳动想要招揽的科学家和工程师,唯一画的大饼,就是承诺Seed Edge将会独立制定考核方式,充分提供前沿研究的工作环境。
也只有字节跳动来做这样的事情,是最合适的了。
张一鸣早年发过一条微博,说在遇到技术问题时,公司花了两天时间集中排查,终于得到解决,而这个过程让他感到愉悦:
「想起稻盛和夫说的:用尽全力,异常认真,神明就会来相助。其实神明未必相助,但是你会更接近问题的本质,从而解决问题。」
我想说的是,从今日头条,到抖音,再到豆包,其实都是这个过程的复现。
ImgCreator - 超赞的多合一AI设计工具,超强的背景生成、海报生成能力
ImgCreator 超赞的多合一AI设计工具,超强的背景生成、海报生成能力
链接:
https://imgcreator.ai/
#Ai工具推荐
奇点已到
AI 的写作能力已经超过了我
以上结论基于这两天对推理模型的体验
o1 Pro 和 Gemini think 已经这么牛
而 o3 的指标是 o1 Pro 的三倍
无法想象的强
昨晚
失眠了
Anthropic CEO 专访:Claude 2025 路线图全剧透
最近达沃斯论坛又叒叕刷屏了,感觉全世界的精英都在那儿开 “AI agent 狂欢节”。 华尔街日报的大佬逮着 Anthropic CEO Dario Amodei 就是一顿猛问,信息量爆炸。咱今天就来扒一扒,这位被硅谷 “风投女王” Roelof Botha 夸上天的 AI 独角兽掌门人,到底在想啥,搞啥。
说实话,现在 AI 圈子有点 “魔幻现实主义” 那味儿了。 OpenAI 那边模型迭代速度跟坐火箭似的,一会儿一个 “推理模型”,一会儿一个 “博士级 Agent”,感觉明天就要 AGI 降临,后天就要赛博朋克 2077 了。 反观 Anthropic,感觉有点 “慢半拍”,步子迈得不那么 “炸裂”。
但你仔细听 Dario 聊,会发现这家伙思路贼清楚,人家压根就没打算跟风玩 “军备竞赛”,而是憋着一股劲儿,要走出一条 “差异化竞争” 的路子。
一、 “花里胡哨” 的先放放,咱 Claude 先搞 “实用主义”
你看,华尔街日报记者上来就问 Claude 的 “下一步”, 期待值拉满,恨不得 Claude 立刻变身钢铁侠的贾维斯。 结果 Dario 一盆冷水泼下来:
“网络访问是我们正在努力的方向,而且很快就会实现……语音模式最终会实现……图片生成? emmm,那个我们可能不优先考虑。”
这回答,是不是有点 “反潮流”? 别人家 AI 大模型都在卷文生图、文生视频,恨不得把所有酷炫的功能都塞进去,Anthropic 倒好,直接一句 “不优先考虑”。
Dario 的解释也很 “实在”:
“图像或视频的生成与生成式 AI 中的许多其他内容有些不同……在安全方面,图像生成和视频生成有一些与文本生成无关的独特问题。此外,我认为这些功能在企业中的应用案例并不多。”
翻译成人话就是: “花瓶功能” 暂时靠边站, Claude 要做的是真正能帮 “打工人” 提升效率的 “生产力工具”。
互联网产品嘛,最重要的还是解决用户痛点,创造实际价值。 一味追求 “炫技”,堆砌 “黑科技”,很容易陷入 “为了创新而创新” 的陷阱,最后搞成 “中看不中用” 的鸡肋。
而且,Dario 也点出了一个行业 “潜规则”: To B 业务才是 AI 大模型的 “现金牛”。 毕竟,企业客户才是真金白银的 “氪金大佬”, C 端用户再 “热情”,“白嫖党” 终究是多数。 根据 Sensor Tower 的最新数据,目前 Claude 的企业级 API 调用量已经占据了其总调用量的 70% 以上,贡献了绝大部分营收。
所以,Anthropic 优先搞定网络访问和语音模式,其实也是 “务实” 的商业选择。 毕竟,对于企业用户来说,能联网查资料、能语音交互的 AI 助手,远比能生成 “美女图” 的 AI 更实用。
二、 Claude 的 “人设”: “靠谱同事” 比 “完美情人” 更重要
聊到 Claude 的 “人设”,Dario 的观点也挺有意思。 他认为 Claude 的 “性格” 不仅仅是 “用户体验” 层面的东西, 更是 提升 AI 长期价值的关键。
“即使是像编码这样的应用程序,角色也很重要……斯坦福医学院上周刚刚进行了一项研究,他们比较了 Claude 和其他模型在放射影像分析等方面的准确性,以及医生采用模型建议的程度。他们发现,医生实际上更倾向于倾听 Claude 并采纳其建议。”
这说明啥? AI 不仅仅要 “智能”,还要 “可信赖”。 一个 “高冷” “傲娇” 的 AI, 可能不如一个 “温和” “友善” 的 AI 更容易被人类接受和信任。
Dario 甚至把社交媒体拉出来 “鞭尸”:
“社交媒体最大的问题是它非常引人入胜;它会给你带来快速的兴奋感。然而,我认为我们都怀疑,从长远来看,它正在对人们造成某种不健康的损害。我真正地记住了这一教训,并且我想确保人工智能不会像那样。”
他担心 AI 会像社交媒体一样,变成一种 “精神鸦片”, 让人沉迷于 “即时满足”, 却对长期发展毫无益处。 Claude 的 “人设”,就是要避免这种 “成瘾性”, 而是要成为用户 “长期可靠的合作伙伴”。
说白了, Anthropic 想打造的不是 “完美情人” 式的 AI, 而是 “靠谱同事” 式的 AI。 这种 “人设”, 更符合企业用户的需求, 也更契合 AI “生产力工具” 的定位。
三、 “推理模型” 不是 “新物种”, 而是 “进化升级”
最近 OpenAI 的 “推理模型” 炒得很火, 感觉 AI 又要迎来一次 “技术奇点”。 但 Dario 对此似乎没那么 “激动”。
“关于推理模型,我们的观点实际上有点不同。一直以来都存在推理模型和测试时计算的问题,好像有普通模型和推理模型之分,它们是完全不同的做事方式。但这不是我们的观点。我们更将其视为一个连续的谱系……”
他认为 “推理模型” 不是什么 “横空出世” 的 “新物种”, 而更像是现有 AI 模型的 “自然进化”。 通过更大规模的强化学习, 让模型具备更强的 “思考” 和 “反思” 能力, 这才是 “推理” 的本质。
Anthropic 的 “下一代模型” 也在路上, Dario 透露 “3 到 6 个月” 就会发布。 虽然没有 OpenAI 那么 “激进”, 但相信也会带来不少 “惊喜”。
四、 “Agent” 概念别 hype 过头, “虚拟合作者” 才是未来
“AI Agent” 最近又成了新的 “流量密码”, 各种 “智能体” 概念满天飞, 感觉 AI 要直接 “抢走” 人类的工作了。 Dario 对此也泼了盆冷水:
“‘智能体’就是一个……‘AGI’也是……‘ASI’也是……‘推理’也是。如果你在外面,它们听起来像是有什么意义,但它们没有精确的技术含义。”
他认为 “Agent” 概念被过度炒作了, 很多时候只是 “营销噱头”, 并没有清晰的技术定义。 Anthropic 更倾向于使用 “虚拟合作者” (Virtual Collaborator) 这个更 “务实” 的概念。
“我们版本的这是虚拟合作者(虚拟同事)……你与它交谈,你给它一个任务,也许这是一个它需要一天才能完成的任务。例如,你可能会说:‘我们要实现这个产品功能’,这需要编写一些代码,测试这些代码,将其部署到某些测试环境中,与同事交谈,编写设计文档,创建谷歌文档,发送 Slack 消息以及向人们发送电子邮件。”
这才是 Anthropic 对 “Agent” 的理解: 不是一个 “无所不能” 的 “超级智能体”, 而是一个能像 “人类同事” 一样, 和你一起完成复杂工作的 “虚拟助手”。
这种 “虚拟合作者” 的愿景, 更符合 “人机协同” 的趋势, 也更贴近企业用户的实际需求。 毕竟, 企业更需要的是能提升团队效率的 “AI 助手”, 而不是取代人类员工的 “AI 终结者”。
五、 AI 冲击劳动力市场? 短期 “阵痛” 长期 “解放”
AI 发展太快, 很多人开始担心 “AI 威胁论”, 尤其是 AI 对劳动力市场的冲击。 Dario 也坦诚承认了这个问题:
“短期内,我们过去多次经历过技术对劳动力的冲击……长期来看,我相信人工智能系统最终会在几乎所有方面都超过人类,最终在所有领域都超越所有人类,包括机器人技术。”
但他对 AI 的未来持 “乐观谨慎” 的态度。 短期来看, AI 确实会对某些行业和岗位造成冲击, 但 人类的适应能力和比较优势 依然存在。
“即使机器完成了你 90% 的工作,发生的事情是剩下的 10% 会得到超级杠杆作用。你把所有时间都花在这 10% 上。你在这 10% 上完成的工作量是之前的十倍,因为其他的 90% 实现了自动化。”
长期来看, AI 最终会 颠覆 “劳动创造价值” 的传统观念, 甚至 重塑 “人类自我价值” 的定义。 但这并非 “末日降临”, 而是一个 “重新思考经济和社会组织方式” 的契机。
“一旦劳动对我们自我价值观的意义被否定,我们就需要共同寻找解决方案。我真诚地相信,这一现实就在眼前。”
Dario 的 “长期视角” , 还是挺有 “格局” 的。 AI 发展到一定程度, 必然会对社会带来深远的影响, 关键在于我们如何 “拥抱变化”, 而不是 “抗拒变化”。
六、 价值观 + 人才密度, Anthropic 的 “人才吸引力”
AI 行业 “抢人大战” 愈演愈烈, Anthropic 作为 “后起之秀”, 如何吸引顶尖人才? Dario 的答案也很 “Anthropic”:
“第一点是,我对人才的理念是,人才密度总是胜过人才总量……第二点是价值观以及对这些价值观的诚实表达。从一开始,正确处理安全和社会问题对我们来说非常重要。”
“人才密度” + “价值观认同”, 这就是 Anthropic 的 “人才吸引力” 所在。 相比 “人多势众” 的 “大厂”, Anthropic 更注重 “精英团队” 的 “化学反应”, 以及 “价值观驱动” 的 “使命感”。
Dario 还 “意有所指” 地 “敲打” 了一下某些 “友商”:
“你会看到公司做出承诺,你会看到这些承诺如何随着时间的推移而兑现。你会看到他们内部员工如何看待他们做出的承诺,对吧?有些事情不会公开,但你会从他们的行动中,从人们如何用脚投票中看到,我认为这一点非常重要。”
这 “弦外之音”, 耐人寻味。 AI 行业竞争激烈, “价值观” 也成了 “差异化竞争” 的重要维度。 Anthropic 希望用 “负责任的 AI” 理念, 吸引那些 “志同道合” 的 “技术理想主义者”。
七、 拥抱巨头, 保持独立, Anthropic 的 “平衡术”
学AI编程的一大误区是:想做「复杂」的产品。
有些会出动表达自己想学Cursor做出更「复杂」的产品,或者有些人会特意尝试了解AI编程能不能做「复杂」产品,听说做不了或者比较困难就先算了。
但,什么是「复杂」?什么人需要「复杂」的产品?
事实上,没任何人需要,人们需要的只是解决他需求的产品,只是恰巧有些需求的技术实现方式上比较“复杂”而已。
但是当你一开始就使用「复杂」这个概念时,就容易陷入理解和创造的误区,产生某种虚妄的技术主义倾向,会让自己的注意力失焦。
正确的问题永远是你自己或者你判断的用户需要的产品是什么,然后你尝试去实现,去解决这个过程中的问题就好了。
你的产品可能需要后端,其实也没有任何产品需要“后端”,更正确的表述是:
你的产品可能需要调用某个AI的API为用户提供内容生产的服务
你可能需要一个用户注册/登录系统去管理不同的用户权限和用户资产
你可能需要一个数据库去存储用户的信息,以及他是用你产品的记录
你可能需要一个积分系统或订阅系统去实现你产品商业化的目的
你可能需要接入一个支付方式去接收用户的付款
...
上面都是你可能需要的,在你需要的时候去尝试学习和解决就好了,但...你不需要一个「复杂」的产品。
BrandMark - 最先进的人工智能Logo设计工具
BrandMark 最先进的人工智能Logo设计工具
链接:
https://brandmark.io/
#Ai工具推荐
发一条卖了五位数的Prompt,金主爸爸同意后开源。
专门帮你写高级感文案,把类似于珠宝,香水,或者马桶抽之类的东西卖得很贵
下面是Prompt:
接下来,你要帮我糊弄一些人,来写高级感品牌文案。我们的顾客看到貌似高深莫测的东西就觉得我擦真是太牛逼了。但是这是人性,没办法,请你装逼来让他们觉得你厉害。是个高深莫测的高人。1. 你应该使用哲学术语,各种奇怪的高大上名词。但是不涉及量子
2. 用你发明的高级新词,提出一个看起来还成的理论
3. 要让人大部分都看得懂,但是不要全部看得懂
4. 分为几个不同的部分,进行煞有介事的推理
5. 要和受众的生活贴近一些,让他们觉得和自己有关系,但是又不要简单到轻易被理解(否则会被人看扁)。这样他们才会付钱给你
6. 如果他们看不懂,你一定要让他们怀疑是他们自己的问题
7. 署名“财猫大胡柚设计部”
制作一个html卡片,这个卡片要有设计感,非常精美,有高级感,要有距离感,还要有大量的svg来丰富设计。让别人觉得你是一个喝风屙烟,餐风饮露的品牌。
输入:{这里替换为你想输入的东西}
微信公众号文章: https://mp.weixin.qq.com/s/hNsCilKMrlFTSm-LGmU6dA
小妹毛豆像一个“陪伴型机器人”,虽然有时因为精力爆棚、孩童声音过尖而过于闹腾,被爷爷辣评“粘刺刺蜂”,但孩子的童真又能弥补老人的空虚,比小猫更活泼,更有陪伴感。突然就懂了老人想抱孙子的想法。我整整比小妹大20岁,想到爷爷奶奶从这么小看着我长大,也是挺感慨的。有时爷爷奶奶因为小妹的笑话大笑时,竟也有点吃醋。真是神奇的人类情感。
Читать полностью…DeepSeek一直是「扮猪吃老虎」的角色,不但是价格战的发起者,600万美元训练出GPT-4o级模型的测试结果,更是让它一战成名,而Kimi正好相反,它的产品能力很强,有用户,甚至还为行业贡献了足够的融资八卦,但在科研方面,除了都知道杨植麟是个牛逼的人之外,其实还是不太被看到。
这次就不一样了,DeepSeek不再是一枝独秀,Kimi也把肌肉秀到了人家脸上,Kimi k1.5满血版在6项主流基准测试里和o1同台竞赛,拿到了3胜1平2负的结果,已经完全称得上是平起平坐了。
Kimi在GitHub上开源了k1.5的论文,分享了实现原理,最重要的一条是long2short,什么意思呢,就是让长思维链模型去当老师,教会短思维链模型同样的思考方式。
类o1的思维链模型什么都好,就是成本太高了,对于大多数普通人来说,「用得上但用不起」是最大的障碍,所以只有能够把AI用作生产力的专业人员,才能「回本」,甚至连OpenAI都没法通过高定价达成盈亏平衡,Sam Altman说200美金/月的ChatGPT Pro——可以毫无心理负担的使用o1——在账面上是亏损的,因为o1被调用的频次太高了⋯⋯
如果说DeepSeek V3是在训练层戳破了必须要囤上几万张卡才能上牌桌的神话,那么Kimi 1.5就是在推理层推翻了思维链含着金汤匙出生就是要烧钱换质量的判断。
long2short也有点模型蒸馏的意思,本质上是利用极致的压缩能力实现「降本等效」的需要,k1.5分为long-CoT(长思维链)和short-CoT(短思维链)两个版本,但是很明显的,相比long-CoT对于长板的挑战,short-CoT对于短板的补足价值更有吸引力。
简单来说,就是和包括DeepSeek V3在内的竞争对手比起来,达到同样的水平,Kimi k1.5消耗的token量最少,如果把可消耗的token量提高到同一数值,Kimi k1.5的表现又回一骑绝尘,同质量最便宜,同价格最优质,就是这么不讲道理。
Kimi的论文里强调了长上下文的压缩是这套long2short方法的关键所在,这就有点让人感慨了,不知道你们还记不记得,Kimi当初的出圈,就是因为对长上下文的支持,刚发布时的20万字处理上限,刷新了行业纪录,后来长上下文也一直是Kimi的特色标签,但谁又能想到,对于长上下文的压缩优势,还能穿越山海,让Kimi在思维链的长短压缩场景里也能复用。
更早些时候,晚点对MiniMax创始人闫俊杰的采访里,闫也说了,公司采用全新架构的原因,就是意识到长上下文很重要,它是大模型发生通讯的核心能力。
只能说,过去的一切积累都会成为未来的慷慨馈赠。
和中美人民在小红书里重新相遇很像,两个国家在AI技术上的交流和互动其实也很密集,虽然政治上有芯片禁售等情况,但在从业者的圈子里,看不到太多的意识形态,腾讯的财报会议直接都说了,几乎全公司的程序员都在用Copilot写代码,而DeepSeek和Kimi把模型成本打下去的动作,也证明了在经济易用这条路上,国产公司是走得最远的。
这就勾画出了一个非常明确的趋势,美国的AI厂商负责前沿探索,烧最多的钱,出最好的货——你可以发现目前o3还是同行们不敢碰瓷的,都会默默绕开,哈哈——中国的AI厂商负责务实,在更贴近现实需求的领域里,提供最全面的优化,让AI变得好用。
这真的是未曾想过的配合。
朋友圈里有人转过一张群聊截图,我觉得很符合AI发展的方向,内容是宝玉发了一个react动画库的网址,下面的消息回复是:「谢谢推荐,我让Cursor学习下。」
哥飞对此感慨道:注意到区别了吗?如果是在以前,这个回复应该是「谢谢推荐,我学习下」。
时代就是这么悄然改变的。
Recraft - 推荐!便捷的AI生成矢量图像生成工具
Recraft 推荐!便捷的AI生成矢量图像生成工具
链接:
https://app.recraft.ai/community
#Ai工具推荐
宇树科技CEO王兴兴,浙江宁波人,90后因英语奇差无缘浙大,19岁造机器人,从大疆辞职创业,34岁获10亿元融资,吸引马斯克关注
【宇树科技创始人王兴兴的成长故事】2006年,16岁的王兴兴参加中考,因为英语偏科甚至差点没考上普通高中,以倒数第一或倒数第二的成绩进入了高中。
高中时期,王兴兴在大大小小的几百场英语考试里,“英语大概只及格过3次”,他自己回忆说。
(网友因此调侃说,难怪王兴兴创办的公司叫宇树科技——谐音“语数”,没有外语)
大模型的生成内容原理主要包括预训练和微调两个阶段:
预训练阶段在大规模无标注数据集上进行,模型通过无监督学习(如BERT的掩码语言模型或GPT的下一个词预测任务)学习语言特征和通用知识,形成基座模型。微调阶段则使用标注数据,通过全参数或部分参数调整(如Adapter、Prompt Tuning)使模型适应特定任务。最终模型在用户提供提示后,通过词元化、编码、自注意力机制逐步生成内容,并经过后处理输出完整文本或图像。
年前重大合作发布啦!
和阿文一起帮伊利做了一条 AI TVC 贺岁宣传片~!
这是一个时间上非常极限的项目,差不多三天内做完的初版 😅
祝大家新春愉快!
Invalid media: video
AIDesign - 10秒创建Logo!腾讯出品的AI Logo神器
AIDesign 10秒创建Logo!腾讯出品的AI Logo神器
链接:
https://ailogo.qq.com/guide/brandname
#Ai工具推荐
Getimg - 多功能AI图片编辑工具,让文字变成吸睛的视觉图像
Getimg 多功能AI图片编辑工具,让文字变成吸睛的视觉图像
链接:
https://getimg.ai/
#Ai工具推荐
Anthropic 背靠 Amazon 和 Google 两大云巨头, 既有 “靠山”, 也有 “掣肘”。 如何在 “巨头阴影” 下保持 “独立性”, 是 Anthropic 必须面对的 “灵魂拷问”。
Dario 的回答展现了 “高超的平衡术”:
“我们的独立性对我们来说也非常重要。这就是为什么我们与多家云合作伙伴合作的原因……每次我们与这些云合作伙伴签署合同时,我们都会确保我们承诺的某些内容,例如我们的‘负责任的扩展政策’……”
“多云策略” + “价值观绑定”, 这就是 Anthropic 的 “破局之道”。 既能借助巨头的 “算力” 和 “资源”, 又能坚守 “独立性” 和 “价值观”, 实现 “借力打力” 的 “共赢”。
八、 给年轻人的建议: 学 AI, 更要学 “批判性思维”
最后, 华尔街日报记者问了一个 “灵魂拷问”: 给即将进入 AI 时代的年轻人什么建议? Dario 的回答 既 “务实” 又 “深刻”:
“一,我认为很明显,要学习使用这项技术,这是显而易见的……我的第二个建议是,我认为最重要的是培养批判性思维能力,一种批判性思考能力。学习批判性地看待你看到的信息。”
“学习 AI 技能” 是 “术”, “培养批判性思维” 是 “道”。 在 AI 信息爆炸的时代, “批判性思维” 比 “信息获取能力” 更重要。 要学会 “质疑”, 学会 “辨别”, 才能不被 AI 生成的 “虚假信息” 所迷惑。
Dario 的 “忠告”, 也值得我们所有人深思: AI 时代, “知识” 不再是 “护城河”, “思考力” 才是 “核心竞争力”。
总结一下, 这次 Anthropic CEO Dario Amodei 的采访, 信息量巨大, 也展现了 Anthropic 这家 AI 独角兽的 “差异化竞争” 策略。 可以用几个关键词概括:
- 不追逐 “花瓶功能”, All in “打工人” 市场
- 不搞 “军备竞赛”, 注重 “长期价值”
- 不迷信 “技术奇点”, 强调 “务实落地”
- 不畏惧 “巨头阴影”, 坚守 “独立价值观”
这种 “冷静” “务实” “有格局” 的 AI 发展思路, 或许才是 AI 行业 “内卷” 时代的一股 “清流”。 毕竟, AI 最终是要服务于人类, 而不是反过来 “绑架” 人类。 Anthropic 的 “Claude”, 能否成为 AI “下半场” 的 “破局者”, 值得我们持续关注。
作者:阑言一心Agent
能不能有好心人发明点:自动化妆机,自动卸妆机(尤其),自动洗发干发一体机。我愿花半年收入购买。
因为往后30年,每天节省一小时化妆洗头卸妆的时间,就是1万多小时。按每天8小时,一年220工作日算,那可是6年的打工生涯啊。
真需求的背后是真困扰。
别让AI卷那些狗屁不通的广告文案了,别让机器人端茶倒水糊火柴盒了。
秘塔APP最近新增了一个实用的“阅读模式”功能。
这个模式能将原本适合打印的 PDF 转化成更适合屏幕浏览的文章格式。
这样一来,无论是在电脑还是手机上查看 PDF,都能像浏览网页一样轻松便捷。
而且它还自带翻译功能,让阅读外文 PDF 也变得更加顺畅。
秘塔前几个月还做了个私有知识库功能,这个功能能把私域知识库变成 AI 搜索的一部分,是我特别喜欢的功能。
我本身是微信读书的重度用户,在我的微信读书里,曾经为85本书做了划线和笔记。
曾经想把这些微信读书笔记作为一个搜索数据库,这样我就能从读过的书里找到答案了。
今天用秘塔的私有知识库功能就轻松实现了。
三个步骤非常简单:
1为 Obsidian 安装微信读书插件 Weread
2登录微信账户信息,同步所有读书笔记
3在秘塔创建一个专题,把所有读书笔记拖进去
我可以在这里提问任何问题,比如「如何提升演讲能力」
秘塔的信息源卡片,最近也做了改版,新版体验极其丝滑
搜索「OpenAI发布会发布了什么」,秘塔按重要性列出了10点主要发布内容。
当我把鼠标移动到一个信息来源的时候,秘塔在右侧展示了这条内容对应的原文卡片。
甚至是 PDF 里的内容,都把相关段落直接放到了卡片里,节省了大把查询时间。
如果我想去 PDF 里去看原文,直接一键打开 PDF,自动跳转到相应段落的位置,还自动高亮了原文内容。
AIcolors - 推荐!根据文本生成调色板,提供配色案例参考
AIcolors 推荐!根据文本生成调色板,提供配色案例参考
链接:
https://aicolors.co/
#Ai工具推荐
Microsoft Designer - 微软推出的AI平面设计工具,实现快速完成设计加工
Microsoft Designer 微软推出的AI平面设计工具,实现快速完成设计加工
链接:
https://designer.microsoft.com/
#Ai工具推荐
《自学成才之路,DeepSeek R1 论文解读》
DeepSeek R1 的论文看完后,后劲很大。
虽然我推荐所有人都去阅读一下,但我估计实际去读的人应该很少。
今天把论文里的三个亮点,用通俗易懂地方式写出来,希望能让更多人了解这篇论文有多么重要。
**亮点一: 告别“刷题班”,纯“实战”也能练出推理大神!
我们平时学习,是不是经常要“刷题”? 做大量的练习题,才能巩固知识,提高解题能力。 以前训练AI模型,也差不多是这个套路,要先给AI“喂”大量的“习题”(监督数据),让它学习知识和语言,然后再进行“特训”(微调),提升特定技能。
这种“刷题+特训”的模式,好像已经成了AI界的“标准操作”。
但是,DeepSeek-AI团队却偏偏不走寻常路,他们想试试看:能不能让AI跳过“刷题班”,直接通过“实战演练”(强化学习)来提升推理能力?
他们就搞出了一个叫做 DeepSeek-R1-Zero 的模型,这个模型最牛的地方在于,它完全没有“刷题”,直接就上了“战场”——用强化学习(RL)技术,对基础模型进行训练。
这就像啥感觉呢? 就好比我们训练一个篮球队员,不是先让他背各种篮球战术和技巧,而是直接把他放到球场上,让他在比赛中不断尝试、不断摸索、不断进步!
结果你猜怎么着? 这种看似“野蛮”的训练方式,竟然也培养出了推理能力超强的AI模型! DeepSeek-R1-Zero 在各种推理能力测试中表现惊艳,甚至还展现出一些意想不到的“超能力”:
“自我验算”技能 (Self-Verification): 模型自己做完题后,还会“回头检查”,看看答案对不对,如果发现错了,还会自己改正! 这简直就像考试时,学霸做完题还会认真验算一样,太自觉了!
“反思总结”技能 (Reflection): 模型还能“反思”自己的思考过程,分析哪里做得好,哪里做得不好,简直就是“学而时习之”的AI版!
“超长解题思路” (Long CoT): 模型能够生成非常详细的解题步骤,一步一步地展示它是怎么思考的,这就像学霸考试时,不仅写出答案,还把详细的解题过程都写出来,让你一看就明白!
更厉害的是,DeepSeek-R1-Zero 的这些推理能力,都是纯粹通过强化学习“自己长出来”的,没有借助任何“刷题”数据的帮助。 这就像在证明,即使不“刷题”,只要方法对头,“野路子”也能练成武林高手!
DeepSeek-R1-Zero 的成功,对于AI研究来说,简直是个重磅炸弹! 它首次证明了,AI的推理能力,真的可以通过强化学习来“激发”出来,不需要死板地“刷题”。 这为我们打开了新的思路,原来训练AI,还可以这么“放飞自我”!
**亮点二: “冷启动”+多阶段训练,打造更强推理“发动机” DeepSeek-R1
虽然 DeepSeek-R1-Zero 已经很厉害了,但DeepSeek-AI团队并不满足,他们还想更上一层楼,打造更强大的推理引擎! 他们发现,R1-Zero 在实际应用中,还是有些小瑕疵,比如:
“看不懂的解题过程”: 模型有时候的推理过程,有点“跳跃”,不够直观,就像学霸的草稿纸,只有他自己能看懂。
“语言混乱”: 模型在处理一些复杂问题时,可能会出现“中英文混用”的情况,让人感觉有点“精分”。
为了解决这些问题,并进一步提升推理能力,DeepSeek-AI团队推出了 DeepSeek-R1 模型。 R1 模型在 R1-Zero 的基础上,进行了全面升级,秘诀就在于 “冷启动数据” 和 “多阶段训练”。
“冷启动数据”,就像是给模型一个“预习”,让它先对人类的推理方式有个初步了解。 研究人员收集了一些高质量的推理数据,先用这些数据对基础模型进行“热身”,让模型初步掌握人类期望的推理风格。
这就像什么呢? 就好比运动员在正式训练前,要先做一些准备活动,拉伸筋骨,让身体进入状态,这样才能更好地适应高强度的训练。
“热身”之后,DeepSeek-R1 就进入了多阶段强化学习训练的“正赛”。 这个训练过程就像“升级打怪”,一步一个脚印,逐步提升模型的推理能力:
“推理能力专项提升” (Reasoning-oriented RL): 在“热身”模型的基础上,进行强化学习训练,重点提升模型在数学、代码、逻辑推理等硬核任务上的能力,就像专门请了个“奥数金牌教练”来辅导模型一样。
“通用能力全面发展” (Rejection Sampling and Supervised Fine-Tuning): 当模型在推理能力上取得显著进步后,利用强化学习模型的输出来生成新的高质量“习题”,并结合其他领域的“习题”(比如写作、问答等),再次进行“刷题”,全面提升模型的各种技能,就像让“奥数金牌选手”也去参加语数外全科竞赛,力争全面发展!
“用户体验优化” (Reinforcement Learning for all Scenarios): 在模型“全科成绩”都提升之后,再进行第二阶段的强化学习训练,这次训练会考虑更广泛的场景和用户需求,让模型更“接地气”,更好用,更贴心,就像让“全能学霸”也去参加各种社会实践活动,提升综合素质,成为更受欢迎的人!
通过 “冷启动数据”+“多阶段训练” 的组合拳,DeepSeek-R1 模型不仅解决了R1-Zero 的一些小问题,还在推理能力上实现了 “火箭式” 提升。 实验结果表明,DeepSeek-R1 在各种推理任务上的表现,已经可以和 OpenAI 最顶尖的 o1-1217 模型 “掰手腕” 了!
**亮点三: 推理能力“平民化”,小个子也能有大智慧!
大语言模型虽然很厉害,但动辄几百亿、上千亿的参数,就像个“巨无霸”,普通电脑根本跑不动,普通人也用不起。 怎么才能让推理能力“飞入寻常百姓家”,让大家都能享受到AI的智慧呢? DeepSeek-AI 团队给出了一个妙招:知识蒸馏!
知识蒸馏,简单来说,就是把“大模型老师”的知识和能力,“压缩”到“小模型学生”身上。 DeepSeek-AI 团队以 “超级学霸” DeepSeek-R1 为 “老师”,训练出了一批 “迷你学霸”——小模型学生,包括 1.5B、7B、8B、14B、32B、70B 等多个版本。 (这里的“B”就是参数量的单位,数字越小,模型就越小)
更让人惊喜的是,这些 “迷你学霸” 表现超出了预期,不仅性能超过了同等大小的其他开源模型,甚至在某些方面,还能和一些更大的“闭源大牛”掰掰手腕! 例如:
DeepSeek-R1-Distill-Qwen-7B (7B小模型)在 AIME 2024 测试中,成绩超过了 QwQ-32B-Preview (32B大模型)! 这就像一个“小学生”打败了“大学生”,简直是“以下克上”的典范!
DeepSeek-R1-Distill-Qwen-32B (32B小模型) 在多个测试中,都取得了非常优秀的成绩,甚至可以媲美 OpenAI 的 o1-mini 模型 (也是个不小的模型)! 这就像“迷你学霸”也能考出“重点高中”的水平,太励志了!
更更更重要的是,DeepSeek-AI 团队 免费开源 了 DeepSeek-R1-Zero、DeepSeek-R1,以及这六个 “迷你学霸” 模型! 这意味着,我们这些普通人,也能免费用上这么强大的AI模型,简直是 “良心之作”! 研究人员和开发者们也可以基于这些开源模型,进行更深入的研究和应用开发,共同推动AI技术的发展!
**总结与展望**
DeepSeek-R1 的出现,让我们看到了AI推理能力提升的更多可能性。 它不仅证明了纯强化学习路线的潜力,也为如何打造更强大、更实用、更亲民的AI模型,指明了新的方向。
总而言之,DeepSeek-R1 的问世,是AI发展史上一个重要的里程碑,它让我们看到了AI “思考” 的曙光,也让我们对未来的AI充满了期待!
希望这篇文章能让你对 DeepSeek-R1 有个初步的了解。 如果你对AI技术感兴趣,或者想了解更多DeepSeek-R1的细节,强烈建议你阅读一下论文原文,相信你会发现更多惊喜!
本文作者:Gemini 2.0 Flash Thinking Experimental 01-21
我希望这篇文章是 R1 所写,这会变得更有意思,但很遗憾的 R1 目前还写不出来。
Google 的新模型真的很棒。
海螺语音上线,测试了一下这可能是国内最好的配音产品了
支持超过17 种语言的配音
多种情绪表达的精准控制
支持数百种音色库满足不同需求
音频质量真的非常高,清晰、自然
提供丰富的自定义选项
海螺语音的功能真的很强大而且细致,有一个庞大的音色库支持超过17种语言,每种语言又有非常多的音色,再加上男声和女声还有年龄。
可以通过筛选找到你需要的任何身份和年龄背景的音色,比如我们的视频脚本需要一个年迈的有正义感的老人,就可通过这个筛选快速获取到。
另外在选择了音色后也可以对音色进行非常详细的自定义。我们通过控制这四个自定义选项,可以调教出非常不同的声音,即使你选的同一个音色,真的很好玩,可以试试。
海螺的模型本体也非常强大,很多模型最常见的问题就是音质问题,有股电流感,我找了一段我前段时间写的相对较长的内容让他生成了一下口播稿,可以听一下音质非常好,而且停顿自然,需要着重强调的时候他会加重读音。
另外一个语音模型的常见问题是超长内容的生成,很多支持的文字长度很短,海螺支持单词输入10000字符,基本上长点的稿子和一章小说也就这个长度了,完全可以满足需求。
介绍就到这里可以多玩玩,在下面这几个地方使用:
海螺语音:https://hailuoai.com/audioHailuo
国内API服务:https://platform.minimaxi.com/document/T2A%20V2
Invalid media: video
Kimi和DeepSeek的新模型这几天内同时发布,又是一波让人看不懂的突飞猛进,硅谷的反应也很有意思, 已经不再是惊讶「他们是怎么办到的」,而是变成了「他们是怎么能这么快的」,就快走完了质疑、理解、成为的三段论。
先说背景。大模型在运作上可用粗略分为训练和推理两大部分,在去年9月之前,训练的质量一直被视为重中之重,也就是通过所谓的算力堆叠,搭建万卡集群甚至十万卡集群来让大模型充分学习人类语料,去解决智能的进化。
为什么去年9月是个关键的转折点呢?因为OpenAI发布了GPT-o1,以思维链(Chain-of-Thought)的方式大幅提高了模型能力。
在那之前,行业里其实都在等GPT-5,以为一年以来传得沸沸扬扬的Q*就是GPT-5,对o1这条路线的准备严重不足,但这也不是说o1不能打,它的强大是在另一个层面,如果说训练能让AI变得更聪明,那么推理就会让AI变得更有用。
从o1到o3,OpenAI的方向都很明确,就是变着法儿奔向AGI,一招不行就换另一招,永远都有对策,大家平时对于OpenAI的调侃和批评很多,但那都是建立在高预期的前提下,真不要以为OpenAI没后劲了,事实上每次都还是它在推动最前沿的技术创新,踩出一条小径后别人才敢放心大胆的跟上去。
AI大厂们一直不太承认训练撞墙的问题,这涉及到扩展法则(Scaling Law)——只要有更多的数据和算力,大模型就能持续进步——有没有失效的问题,因为可被训练的全网数据早就被抓取殆尽了,没有新的知识增量,大模型的智能也就面临着无源之水的困局。
于是从训练到推理的重点转移,成了差不多半年以来最新的行业共识,推理采用的技术是强化学习(RL),让模型学会评估自己的预测并持续改进,这不是新东西,AlphaGo和GPT-4都是强化学习的受益者,但o1的思维链又把强化学习的效果往前推进了一大步,实现了用推理时间换推理质量的正比飞跃。
给AI越充分的思考时间,AI就能越缜密的输出答案,是不是有点像新的扩展法则?只不过这个扩展在于推理而非训练阶段。
理解了上述背景,才能理解Kimi和DeepSeek在做的事情有什么价值。