-
DeepSeek V4发布:百万token上下文开源,国产芯片适配
DeepSeek V4“迟到”半年,但发布后的好评如潮还在如潮。 中外热搜上了一整圈,科技媒体的版面今天都让给了它,OpenAI也成了它的陪衬。 大家惊叹于DeepSeek在有限条件下作出重大突破的创造力,也佩服其在2026年,还能坚定选择开源路线的决心。 可以说,一时间信息多的有些超载,但多归多,主线就两条。 第一条,百万token上下文全面开源,KV c…
-
谷歌Decoupled DiLoCo:弹性预训练新突破,容错分布式训练实现零停机
弹性 AI 预训练已经推进到了下一个前沿!没有意外:来自谷歌。 据介绍,他们提出的 Decoupled DiLoCo 是一种革命性的分布式训练技术,能够利用全球各地的异构硬件进行训练,并且即使当硬件发生故障时,系统也不会停止运行! 这项重磅研究成果引发了广泛关注,论文 Leads 作者之一的 Arthur Douillard 在 X 上的分享推文获得了超 2…
-
兔展智能UniWorld-V2.5发布:中文排版与信息图生成对齐GPT-Image-2
这两天,大家伙朋友圈是不是被GPT-Image-2 刷屏了? 文字渲染精准、高密度的信息图,复杂布局和美学UI一次到位,真实感爆棚。 连社交媒体截图、高考试卷都能近乎一比一还原,这完全颠覆了曾经以往的文生图模型,彻底解决了文字、信息图这些长期以来的痛点问题。 大家看完的第一反应,几乎都是:设计师真要失业了…… 而就在刚刚,兔展智能 甩出一张王炸:UniWor…
-
一个人就是一个团队:Kimi K2.6 Agent集群深度测评,自动产出97页研报和全栈可视化
一个人就是一个团队的时代,来了吗? “群体智能”这个词,我见过太多产品拿来当营销词用。打开一看,就是一个模型套了个壳,换个 UI,然后告诉你这是“多智能体协作”。 既然是 Kimi 声称“Agent集群”可以调度那么多 Agent 并行完成任务,那咱们就给“AI团队”上点压力: 测试一:模拟券商公司产出全球AI算力产业研究报告(用时~1.25小时) 模拟券商…
-
人形机器人半马超越人类,具身智能路线之争白热化
近日,人形机器人第一次在真正意义上,“超越” 了人类。 2026 北京亦庄人形机器人半程马拉松赛上,荣耀人形机器人 “闪电” 凭借 50 分 26 秒(净用时)的成绩,获得此次比赛冠军,并大幅领先目前人类男子半程马拉松世界的最新纪录是 57 分 20 秒。 与此同时,宇树 H1(2023 年改版)则自主跑完 1.9 公里多弯道赛程,用时 4 分 13 秒,按…
-
AI上车深水区:从ChatBot到整车智能体,阶跃星辰与千里科技给出新答案
AI上车深水区:从ChatBot到整车智能体,阶跃星辰与千里科技给出新答案 AI 上车不缺口号,缺的是一条从模型到量产的完整通路。 今天在北京车展上爆火的极氪8X,有网友放出了一段新车演示视频,用户坐在车里说了一句「带我去接孩子放学,顺便找一家麦当劳,5 点前我要到学校」。 接下来发生的事情,和你过去对「智能汽车」的认知完全不同。车辆自主规划路线,启动智能驾…
-
会聊天的AI小猫入驻桌面,SentiCat实测:写报告做PPT,国产自研能力亮眼
这么可爱的AI小猫,现在住我电脑桌面上了! 能陪聊,能干活,还能提供情绪价值。 上班累了就找她摸摸鱼,真的感觉心都化了…… 这个抱着AI小猫的女孩叫SUSU,她们都来自AI初创公司SentiPulse思维光谱自主研发的AI Agent产品——SentiCat。 SentiCat拥有三大核心能力:办公自动化、深度研究、代码开发。不管是写报告、做PPT,还是帮你…
-
谷歌DeepMind发布Vision Banana:图像生成预训练统一视觉感知任务
谷歌DeepMind以Nano Banana Pro为底座,最新发布通用多模态视觉大模型Vision Banana —— 何恺明、谢赛宁 参与,证明图像生成预训练,可以成为通用视觉学习的统一范式 。 一个通用模型,零样本迁移下,击败SAM 3、Depth Anything 3等专用模型,分割、深度、法线核心任务刷新多项SOTA。 就像LLM用文本生成统一所有…
-
DeepSeek-V4预览版发布:百万上下文、Agent能力领先,同步开源
刚刚,DeepSeek 在官方公众号发文宣布,全新系列模型 DeepSeek-V4 的预览版本正式上线,并同步开源! DeepSeek-V4 拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能三大维度上均实现了国内与开源领域的领先。 秉承 DeepSeek 一贯的开放精神,本次发布的模型按大小分为两个版本,欢迎开发者、研究者和企业用户前往体验和下…
-
夜间第一人称视觉AI集体失明?EgoNight基准揭示大模型夜晚理解力大幅下降
人类在夜里走路,即便光线昏暗也能认出熟人、避开障碍。 但AI的第一人称视觉模型到了晚上基本等于“瞎了”。 昏暗光照、反光、噪声、运动模糊,再加上佩戴式设备的抖动和遮挡…让视觉理解这道题,夜间难度直接翻倍。 来自INSAIT、华东师范大学、港科大(广州)、南开大学、复旦大学等机构的研究者提出EgoNight 基准,系统聚焦夜间第一人称视觉理解 这一长期被忽视的…
