以下是过去一段时间全球AI领域的重要动态汇总: AI2发布SOTA多模态模型Molmo 2演示 - merve AI2(Allen Institute for AI)发布了其最新SOTA(State-of-the-Art)多模态模型Molmo 2的演示版本,现已在Hugging Face平台上线。Molmo 2支持多图像输入,展现了在处理复杂多模态数据方面的先进能力,为研究人员和开发者提供了强大的新工具,以探索和构建更加智能的多模态AI应用。该模型的推出有望推动多模态理解和生成领域的发展。 Allen AI推出SAGE-MM模型演示,专注于长视频推理 - merve Allen AI发布了多模态模型SAGE-MM的演示版本,该模型 …
阅读更多Andrej Karpathy 2025 年 LLM 回顾:六大变革 Andrej Karpathy 在其2025年LLM回顾中指出六大变革:**可验证奖励强化学习(RLVR)**成为训练大模型的新范式,算力更多用于强化学习而非预训练,使得模型能自主摸索推理策略;他将大模型智能比喻为“召唤幽灵”,强调其能力分布不均,并对基准测试的信任度降低;Cursor展现了LLM应用层的潜力,将基础模型转化为特定领域专业团队;Claude Code作为首个可信智能体,通过命令行工具在本地运行,改变了AI的交互范式;Vibe Coding使编程大众化,任何人都能通过自然语言创建复杂程序;Nano Banana被认为是大模型的GUI,预示着AI交互 …
阅读更多Redis之父Salvatore Sanfilippo:2025年AI反思八大观点-宝玉 Redis之父Salvatore Sanfilippo发表了对AI的年终反思,包含八项主要观点。他认为,“随机鹦鹉”说法已不再被广泛接受,因为LLM在专业考试中表现出色并展现出内部概念表征。思维链(CoT)被低估,它通过内部表征采样和强化学习来提升推理能力。算力扩张瓶颈因可验证奖励的强化学习而打破,使模型能在特定任务上自我提升。程序员对AI辅助编程的态度从怀疑转向接受,因其高投入产出比。Salvatore对Transformer架构持开放态度,认为它仍有潜力达到AGI。他强调思维链并未改变LLM的本质,而ARC测试从反LLM立场转为支持。最 …
阅读更多Redis 之父 Salvatore Sanfilippo 发表年终 AI 反思:LLM 能力超预期,强化学习开辟新可能 - 宝玉 Redis 创始人 Salvatore Sanfilippo 分享了对 AI 发展的八点深度反思。他指出,随着大语言模型(LLM)在考试中超越人类,并展现内部概念表征,“随机鹦鹉”的说法已不再被广泛接受。思维链(CoT)被视为一个被低估的突破,它通过采样内部表征和强化学习来优化思考过程。Sanfilippo 认为,可验证奖励的强化学习打破了算力扩张瓶颈,使模型能在特定任务上无限自我提升。他还观察到程序员对 AI 辅助编程的态度已转变为普遍接受,且 Transformer 架构仍是主流。值得注意的是,原 …
阅读更多Redis 之父 Salvatore Sanfilippo 的 AI 年终反思 Redis 创始人 Salvatore Sanfilippo 分享了对 AI 发展的八点深度反思。他指出,2025年“随机鹦鹉”的说法已不再被普遍接受,LLM在各项考试中表现卓越并形成内部概念表征。思维链被低估,它通过内部表征采样和强化学习有效提升模型表现。可验证奖励的强化学习打破了算力瓶颈,使模型能无限自我提升。程序员普遍接受AI辅助编程,将其视为“同事”或“独立智能体”。Transformer架构依然是通向AGI的有效路径,且思维链并未改变LLM的本质。此前反LLM的 ARC 测试如今也证明了LLM的抽象推理能力。最后,他警示未来20年AI的根本挑 …
阅读更多Redis 之父 Salvatore Sanfilippo 发布 2025 年终 AI 反思:LLM 能力超预期,强化学习开启新可能 Redis 创始人 Salvatore Sanfilippo 分享了对 2025 年 AI 发展的八点洞察。他指出,大语言模型(LLM)的“随机鹦鹉”说法已过时,模型在各类考试中表现优异并形成内部概念表征。思维链(CoT)被低估,它通过内部表征采样和强化学习来优化推理过程。算力扩张瓶颈被可验证奖励的强化学习打破,使模型能自我提升。程序员对 AI 辅助编程的态度已从怀疑转变为接受,并出现“AI 同事”和“AI 智能体”两种主要使用模式。Sanfilippo认为Transformer架构仍有潜力, …
阅读更多Andrej Karpathy 2025年LLM年度回顾:RLVR、AI智能体、Vibe Coding和LLM GUI成亮点-宝玉 OpenAI联合创始人兼前特斯拉AI总监Andrej Karpathy发布了2025年LLM年度回顾,指出四大变化:训练方法的范式升级,引入“可验证奖励的强化学习”(RLVR),模型通过自我练习在数学、代码等领域提升推理能力,导致算力分配更多转向强化学习;其次,对AI智能本质的理解加深,其“参差不齐的智能”表现为在可验证领域能力飙升,但在常识、创意方面仍存不足,并对基准测试的信任度降低;第三,LLM应用层浮出水面,如Cursor,展示了垂直领域应用通过上下文工程、多模型编排和专业界面实现价值;第 …
阅读更多Andrej Karpathy 2025年度LLM回顾:训练范式升级与AI GUI时代 OpenAI联合创始人Andrej Karpathy发布2025年LLM年度回顾,指出六大变化。训练范式新增“可验证奖励强化学习(RLVR)”,使模型在有标准答案的环境中自发习得推理策略,大幅提升推理能力,并改变算力分配。AI智能展现“参差不齐”特性,基准测试面临挑战。LLM应用层兴起,如Cursor,专注于上下文工程、多模型编排及专业界面。Claude Code展示本地AI智能体潜力,预示AI“住进”电脑。Vibe Coding让非专业人士也能编程,代码变得廉价即用。Google Gemini Nano Banana预示大模型“图形界面时代” …
阅读更多以下是过去一段时间全球AI领域的重要动态: 阿里巴巴Qwen-Image-Layered发布,支持图片分层 阿里巴巴的Qwen-Image-Layered现已正式上线,提供Photoshop级别的原生图片分解能力,并已完全开源。这项强大的图片分层功能预计将催生众多应用场景,显著推动视觉内容创作和处理领域的发展,使得高级图像编辑功能更加普惠并融入AI工作流。 Andrej Karpathy发布2025年LLM年度回顾 OpenAI联合创始人Andrej Karpathy发布了其2025年大型语言模型(LLM)年度回顾,总结了六大关键变革。其中包括:**RLVR(可验证奖励的强化学习)成为新的训练范式,促进LLM自发习得推理策略;AI智 …
阅读更多Andrej Karpathy 发布 2025 年 LLM 年度回顾,揭示六大范式转变 - 宝玉 OpenAI 联合创始人 Andrej Karpathy 发布了其 2025 年大型语言模型(LLM)年度回顾。他指出六大核心变化:RLVR 成为新的训练阶段,让模型通过可验证奖励自主学习推理;LLM 智能展现出**“参差不齐”的特性(Ghosts vs. Animals),在可验证领域表现出色,但常识和创意方面仍显不足,并导致基准测试失效;LLM 应用层浮出水面,以 Cursor 为代表,通过上下文工程、多模型编排和特定界面服务垂直领域;AI 智能体向本地化部署发展,如 Claude Code 在开发者电脑上运行;Vibe …
阅读更多