Andrej Karpathy 2025年LLM年度回顾:RLVR、AI智能体、Vibe Coding和LLM GUI成亮点-宝玉 OpenAI联合创始人兼前特斯拉AI总监Andrej Karpathy发布了2025年LLM年度回顾,指出四大变化:训练方法的范式升级,引入“可验证奖励的强化学习”(RLVR),模型通过自我练习在数学、代码等领域提升推理能力,导致算力分配更多转向强化学习;其次,对AI智能本质的理解加深,其“参差不齐的智能”表现为在可验证领域能力飙升,但在常识、创意方面仍存不足,并对基准测试的信任度降低;第三,LLM应用层浮出水面,如Cursor,展示了垂直领域应用通过上下文工程、多模型编排和专业界面实现价值;第 …
阅读更多Andrej Karpathy 2025年度LLM回顾:训练范式升级与AI GUI时代 OpenAI联合创始人Andrej Karpathy发布2025年LLM年度回顾,指出六大变化。训练范式新增“可验证奖励强化学习(RLVR)”,使模型在有标准答案的环境中自发习得推理策略,大幅提升推理能力,并改变算力分配。AI智能展现“参差不齐”特性,基准测试面临挑战。LLM应用层兴起,如Cursor,专注于上下文工程、多模型编排及专业界面。Claude Code展示本地AI智能体潜力,预示AI“住进”电脑。Vibe Coding让非专业人士也能编程,代码变得廉价即用。Google Gemini Nano Banana预示大模型“图形界面时代” …
阅读更多以下是过去一段时间全球AI领域的重要动态: 阿里巴巴Qwen-Image-Layered发布,支持图片分层 阿里巴巴的Qwen-Image-Layered现已正式上线,提供Photoshop级别的原生图片分解能力,并已完全开源。这项强大的图片分层功能预计将催生众多应用场景,显著推动视觉内容创作和处理领域的发展,使得高级图像编辑功能更加普惠并融入AI工作流。 Andrej Karpathy发布2025年LLM年度回顾 OpenAI联合创始人Andrej Karpathy发布了其2025年大型语言模型(LLM)年度回顾,总结了六大关键变革。其中包括:**RLVR(可验证奖励的强化学习)成为新的训练范式,促进LLM自发习得推理策略;AI智 …
阅读更多Andrej Karpathy 发布 2025 年 LLM 年度回顾,揭示六大范式转变 - 宝玉 OpenAI 联合创始人 Andrej Karpathy 发布了其 2025 年大型语言模型(LLM)年度回顾。他指出六大核心变化:RLVR 成为新的训练阶段,让模型通过可验证奖励自主学习推理;LLM 智能展现出**“参差不齐”的特性(Ghosts vs. Animals),在可验证领域表现出色,但常识和创意方面仍显不足,并导致基准测试失效;LLM 应用层浮出水面,以 Cursor 为代表,通过上下文工程、多模型编排和特定界面服务垂直领域;AI 智能体向本地化部署发展,如 Claude Code 在开发者电脑上运行;Vibe …
阅读更多以下是过去一段时间全球AI领域的动态摘要: Andrej Karpathy 分享了他 2025 年的总结 - 歸藏(guizang.ai) Andrej Karpathy对2025年的AI发展进行了总结,主要涵盖六个方面:RLVR(可验证环境中的强化学习)成为继预训练和微调之后的新训练阶段,推动LLM习得推理策略并吞噬预训练算力。LLM展现出"锯齿状智能",即在可验证领域能力突出但在通用性上参差不齐,导致基准测试失效。Cursor揭示了LLM应用新形态,通过编排多个LLM调用进行上下文工程。Claude Code作为首个成功本地运行的LLM Agent,预示着AI从网站向“生活在电脑上”的精灵转变。Vibe coding将使编程大众 …
阅读更多Alibaba’s Qwen-Image-Layered is LIVE — native image decomposition, fully open-sourced! - merve 阿里巴巴的Qwen团队发布了完全开源的Qwen-Image-Layered模型,该模型提供Photoshop级别的原生图片分层功能。这项强大的技术能够将图片分解为多个层,预计将催生出多种创新应用场景,为图像处理和内容创作带来变革性的潜力。 RT @matanSF: GPT5.2 + Droid is phenomenal for NextJS - Ben Tossell 有报道指出,GPT 5.2与Droid的结合在NextJS开发方面表现“非 …
阅读更多AI智能体与上下文压缩新进展 - Ben Tossell FactoryAI的研究表明,解决长时间运行的AI智能体的关键在于上下文压缩技术。这项研究评估了多种压缩和紧缩策略,旨在优化AI智能体处理和保留长期对话信息的能力。有效的上下文压缩对于构建更强大、更可靠的AI助手至关重要,它能帮助智能体在复杂的任务中维持连贯性和效率,避免信息过载或遗失关键上下文。 阿里巴巴发布Qwen-Image-Layered图像分解模型 - merve 阿里巴巴Qwen团队正式发布了Qwen-Image-Layered,一款完全开源的原生图像分解模型。该模型能够实现Photoshop级别的图像分层功能,为图片处理带来了革命性的新可能。此项技术具有广泛的 …
阅读更多Allen AI 发布视频推理智能体系统-merve Allen AI 近期发布了一款用于视频推理的智能体系统,同时还提供了模型、针对不同训练阶段的数据集以及基准测试集。这一发布将推动视频内容理解和智能决策领域的发展,为研究人员和开发者提供了强大的新工具和资源。 Andrew Ng 剖析LLMs:通用性强但非通向AGI的捷径-Andrew Ng 吴恩达指出,尽管大型语言模型 (LLMs) 表现惊人且具有通用性,但它们并非在短短几年内就能通向通用人工智能 (AGI) 的路径。LLMs 知识的提升是一个碎片化过程,需要通过耗时的数据获取、清洗、去重、复述等数据工程工作,或通过构建大量强化学习模拟环境来反复训练模型。人类在面对较少数据和 …
阅读更多OpenAI GPT-5.2 Codex发布,Agentic Coding能力显著提升-Sam Altman Sam Altman宣布推出GPT-5.2 Codex,该模型专为Agentic Coding和终端使用进行训练,并在OpenAI内部取得了巨大成功。Django框架联合创始人Simon Willison的案例进一步证明了其能力,他仅用8条提示词和GPT-5.2 Codex将一个纯Python库转换成约9000行JavaScript代码,并成功通过9200多个测试用例。这突出显示了AI代理在跨语言“翻译”、自动化测试以及在既定架构下“填空”的优势。Amjad Masad补充指出,编码代理会犯错,因此必须在支持操作可逆的基础 …
阅读更多OpenAI推出GPT-5.2-Codex,Coding Agent能力凸显-Sam Altman OpenAI首席执行官Sam Altman宣布发布GPT-5.2-Codex,该模型专为Agentic编码和终端使用进行训练。Django框架联合创始人Simon Willison利用Codex CLI + GPT-5.2,成功将一个9000行Python库移植到JavaScript,仅使用了约8条提示词。Willison分析称,Coding Agent的“舒适区”在于语言翻译、拥有完整测试集、预设架构,并通过专家操作形成“智能体闭环”,从而高效完成复杂任务。 Google发布FunctionGemma与T5Gemma …
阅读更多