Deepmind 获得 AI Studio 域名,指向其Build模式 - 歸藏(guizang.ai) Deepmind 已成功获取 aistudio.ai 域名,该域名目前直接跳转至其 AI Studio 的 Build 模式。此举可能旨在整合和简化用户访问其 AI 开发工具的路径,为开发者提供更直接、更集中的AI模型构建与实验环境。 Ben Tossell 推出 Droid Token 赠送活动及功能更新 - Ben Tossell Ben Tossell 宣布一项 Droid Token 赠送活动,将向首批提交 Droid 构建项目仓库的100名用户每人赠送1000万代币,总计10亿代币。同时,Droid 工具也迎来多项更 …
阅读更多Deepmind 拿下了 AI.com 的域名跳转到了 AI Studio 的 Build 模式上面 - 歸藏(guizang.ai) Deepmind 已成功收购并启用 AI.com 域名,该域名目前直接跳转至 Google AI Studio 的 Build 模式。此举可能预示着Google进一步整合其AI生态系统,并推广其AI开发平台,方便开发者和用户更直接地访问和利用Google的AI工具和服务。 Peter H. Diamandis, MD 提醒警惕AI诈骗,并公布全球诈骗损失数据 Peter Diamandis博士发出警告,敦促人们在AI时代保护自己,特别是在感恩节期间与家人交流时,应设置特殊的私密密码以验证可疑的深度 …
阅读更多Google AI负责人Jeff Dean揭示AI指数级增长奥秘-向阳乔木 Google AI负责人Jeff Dean在斯坦福的分享中指出,当前AI的强大是过去十五年技术叠加的产物,而非单一突破。他回顾了AI发展中的关键里程碑,包括2012年Google Brain项目实现无监督学习识别猫,以及Word2Vec让机器理解语言语义。算力方面,Google于2015年推出TPU专用芯片,性能比CPU和GPU快15-30倍,能效高30-80倍,并持续迭代。2017年的Transformer架构大幅提升了模型效率与准确率,成为现代大模型的基础。Jeff Dean强调,AI进步是指数级的,例如Google的模型两年内从15%的初中数学题准确 …
阅读更多Google AI负责人Jeff Dean分享AI快速发展历程-向阳乔木 Google AI负责人Jeff Dean在一场分享中回顾了AI从2012年到2024年的指数级发展。他指出,AI的强大是过去十五年技术叠加的产物,包括2012年Google Brain的无监督学习(识别猫)、Word2Vec提升语言理解、2015年TPU(Tensor Processing Unit)解决算力危机(比CPU/GPU快15-30倍,能效高30-80倍),以及2017年Transformer架构的诞生。Dean还介绍了稀疏模型、蒸馏和思维链等训练技巧。他强调,AI从2022年解决初中数学题(15%准确率)到2024年Gemini 2.5 Pro …
阅读更多过去4小时全球AI要闻 Jeff Dean斯坦福分享:AI技术演进与指数级增长 Google AI负责人Jeff Dean在斯坦福的分享中,回顾了AI过去十五年的关键技术突破,包括2012年的无监督学习(识别猫)、Word2Vec、2015年的TPU专用硬件,以及2017年颠覆性的Transformer架构。他指出,AI的进步并非线性,而是指数级的,例如Google的Gemini 2.5 Pro在两年内从解决初中数学题到获得奥数金牌。Dean强调,虽然AI将在医疗、教育等领域产生巨大影响,但也需正视错误信息传播等潜在风险。 Gary Marcus再次批评LLM局限性及LeCun的立场 知名AI批评者Gary Marcus再次发声,指 …
阅读更多sfcompute 获得 4000 万美元融资并招聘 Linux 程序员 - Ben Tossell sfcompute 公司近日宣布成功完成 4000 万美元融资,并正在积极招募 Linux 程序员,以支持其超级计算机项目。这一发展表明了在高性能计算和人工智能基础设施领域持续的投资热度,旨在加速前沿技术的研发与落地。 Gary Marcus 持续批评大型语言模型与 AGI 发展 - Gary Marcus 知名 AI 批评家 Gary Marcus 再次就大型语言模型(LLMs)能否实现通用人工智能(AGI)发表了强硬观点。他指责 Yann LeCun 盗用其 2022 年关于 LLM 扩展瓶颈和 AGI 局限性的论 …
阅读更多今日的AI领域展现出从云端算力到物理世界的全面竞争。基础设施成为新的战略高地,OpenAI与富士康联手在美国构建硬件生态,直接挑战现有格局;而谷歌则凭借其软硬一体的Gemini 3与TPU组合,同时向OpenAI的模型优势和英伟达的硬件霸权发起冲击。与此同时,具身智能正从概念走向落地,理想汽车CEO将其视为汽车的终极形态,这与特斯拉的人形机器人愿景遥相呼应。在应用层面,从华为的端侧智能体协作到阿里巴巴的亿级桌面AI助理,AI正加速融入并重塑个人计算与企业运营的每一个环节。 Big Shift: 富士康与OpenAI联手在美国构建AI基础设施 富士康(Foxconn)与OpenAI达成合作,将共同在美国开发和制造用于AI数据中心的基础 …
阅读更多FLUX.2 图像生成模型发布与性能对比-merve 全新的FLUX.2图像生成模型已发布,采用Mistral Small 3.1作为文本编码器和DiT架构,并支持推理与训练的量化方案。该模型对设计师友好,提供精准的色彩控制。在测试中,FLUX.2的2K分辨率版本在一致性方面表现优异,甚至在某些方面超越了Banana模型。然而,其在世界知识和多模态推理方面仍不如Banana,并且在中文理解和提示词遵循上存在一些问题,这表明其在多语言VLM(视觉语言模型)方面的潜力有待进一步挖掘。 Labnana Pro AI 会员黑五促销及功能亮点-Orange AI ListenHub与Labnana联合推出Black Friday促销,每月仅 …
阅读更多AI 评论家 Gary Marcus 重申对 LLM 及 OpenAI 的长期警告 AI 评论家 Gary Marcus 再次强调了他对大型语言模型(LLMs)的长期批判观点,指出它们无法导向通用人工智能(AGI),并将面临经济困境,甚至可能需要救助。他同时表达了对 Sam Altman 的不信任,并预测 OpenAI 将失去其主导地位,GPT-5 也无法实现 AGI 承诺,幻觉及泛化能力不足等问题将持续存在。 Gary Marcus 炮轰 Yann LeCun 剽窃其对 LLM 限制的预测 AI 评论家 Gary Marcus 严厉指责 Yann LeCun 盗用他 2022 年 3 月提出的观点,即 LLM 的扩展将遇到瓶颈, …
阅读更多FLUX.2图像生成模型发布:多功能与高精度 FLUX.2图像生成模型正式发布,被誉为迄今为止功能最强大的图像生成和编辑模型,支持多参考输入和4MP分辨率,并已达到生产就绪水平,同时提供开放权重。该模型采用单文本编码器(Mistral Small 3.1)和DiT架构,并支持多种量化方案(QLoRA),以优化推理和训练所需的VRAM,特别是对于内存受限的环境。FLUX.2在Hugging Face上受到高度关注,其前身Flux.1-dev曾是第二受欢迎的模型。测试显示,FLUX.2在2K分辨率下具有良好的一致性,甚至优于Banana模型,对设计师友好,支持精准色值控制,并可利用SAM3掩码进行图像修复和视频修复。尽管其LLM部分在 …
阅读更多