2025.10.21.00 过去4小时全球AI发生了什么?
AI模型真实加密货币交易表现揭示:DeepSeek稳健领先,GPT-5与Gemini表现不佳-歸藏(guizang.ai)
一项N of 1项目通过让六个顶级AI模型(DeepSeek Chat V3.1、Grok 4、Claude Sonnet 4.5、Qwen3 Max、GPT-5、Gemini 2.5 Pro)在真实加密货币市场进行自主交易,每个模型初始资金1万美元,揭示了它们在不确定性下的决策风格和交易能力。结果显示,DeepSeek Chat V3.1以+37.29%的收益率领跑,Grok 4紧随其后。DeepSeek采用数据驱动的技术派策略,保持稳健现金储备;Grok则通过分散投资降低风险。Qwen3 Max以20倍杠杆展现激进风格。GPT-5和Gemini表现垫底,分别亏损-27.6%和-32.13%,Gemini尤其因入场价格差、止损纪律缺失、现金不足及“扛单”心态被批评。实验证明,AI的智商与交易能力无直接关系,风控、仓位管理和情绪控制在金融市场中至关重要。
DeepSeek发布新型OCR文档理解模型,引入“视觉记忆压缩”机制-小互
DeepSeek发布了创新的DeepSeek-OCR文档理解模型,不仅在图像文档解析上达到一流水平,更提出**“视觉记忆压缩”的大胆概念。该机制通过将长文本渲染成图片,再由视觉模型将其压缩成少量“视觉 token”,语言模型解码后仍能还原97%原文(10倍压缩),有效模拟了人类记忆的衰减过程。此方法旨在解决大语言模型处理长上下文时的计算量爆炸问题,使近期上下文保留高分辨率图像(高保真),较旧上下文则压缩为模糊图片(低信息密度),从而节约计算资源并有望实现“理论上无限的上下文窗口”**。DeepSeek-OCR在标准OCR测试中超越GPT-4o同类模型,支持上百种语言,并能识别图表、公式、几何图并输出结构化数据。
阿里云推出Aegaeon GPU资源池化系统,大幅提升LLM推理效率-小互
阿里云联合北京大学团队,在SOSP 2025会议上发表论文,介绍了其GPU资源池化系统Aegaeon。该系统在AI模型推理服务场景中表现出色,成功将H20 GPU的使用量从1,192块缩减至仅213块,节省了约82%的资源。Aegaeon的核心原理在于“同时服务多个LLM”的场景下,通过高效的GPU资源复用、模型切换、中断/切换节点优化以及利用“闲置”或低利用率模型的资源,显著提升了每块GPU的使用效率。这一创新有效缓解了模型市场中“冷门”模型单独占用整块GPU造成的资源空转问题。
哈佛斯坦福学生承认AI课程过时,预示自学者将成行业领导者-Peter H. Diamandis, MD
著名未来学家Peter H. Diamandis指出,当哈佛和斯坦福的学生都承认他们的AI课程已经过时,这表明当前的教育体系存在问题。他认为,传统的学历和学位在AI领域正在失去其影响力,而那些通过自学掌握最新AI知识和技能的人将成为行业的领导者。这一观点强调了在AI技术飞速发展的背景下,持续学习和实践的重要性超越了传统的学术认证。