AI产业动态

  • MeepleLM:首个基于MDA框架与玩家画像的大模型桌游虚拟评测系统

    MeepleLM团队 投稿 量子位 | 公众号 QbitAI 大模型桌游体验官 来了!不仅能快速给出评价与建议,还能模拟不同类型玩家的体验差异。 近期,来自盛大东京研究院、上海创智学院、南开大学、上海人工智能实验室的研究团队联合提出了MeepleLM ,这是首个能模拟真实玩家视角,并基于动态游戏体验给出建设性批评的虚拟试玩模型。 为了减轻AI评价的“悬浮感”…

    2026年2月12日
    10400
  • GLM-5:开源AI新标杆,24小时自主编程打造GBA模拟器

    GLM-5:开源AI新标杆,24小时自主编程打造GBA模拟器 当看到GLM-5正式发布后的能力,才惊觉前几天神秘模型Pony Alpha的热度还是有点保守了。 因为这一次,GLM-5直接把开源AI也拽进了长任务时代。 瞧,GLM-5直接身兼数职,自己连续跑代码超过24小时,完成700次工具调用、800次上下文切换之后…… 它直接用JavaScript,从零手…

    2026年2月12日
    13200
  • 国产AI大模型GLM-5横空出世:开源对标Claude Opus,10分钟傻瓜化部署Agent任务

    前两天,海外科技社区仿佛集体化身侦探,陷入了一场热烈的猜谜游戏。 这一切源于一个名为 Pony Alpha 的匿名模型,它没有任何发布会,也没有任何公司认领,却凭借几个简单的 API 接口和惊艳的生成质量,在各大评测榜单上横空出世,迅速引爆了 X(原 Twitter)和 Reddit 等技术社区。 全球模型聚合平台 OpenRouter 于 2月6日首次公开…

    2026年2月12日
    26100
  • GLM-5震撼发布:744B参数开源巨兽,长程智能体与复杂系统工程新标杆

    GLM-5正式发布,其定位直指Claude,专注于解决复杂的系统工程与长程智能体任务。模型参数规模从GLM-4.5的355B(32B活跃)大幅跃升至744B(40B活跃),预训练数据量也从23T token扩充至28.5T token。 在技术层面,GLM-5采用了GlmMoeDsa架构,直接集成了来自DeepSeek的DSA稀疏注意力与MTP多标记预测技术…

    2026年2月12日
    13700
  • 全国首部具身智能数据闭环标准启动,破解AI自主进化核心瓶颈

    “十五五”规划建议明确将具身智能列为六大未来产业之一,工信部亦将培育壮大具身智能等未来产业纳入2026年核心重点工作;北京、上海、杭州等多地同步跟进,专项政策密集出台、创新中心与产业联盟接连落地。国家战略与地方行动协同发力,共同推动具身智能从实验室示范迈向规模化产业落地新阶段。 数据闭环是具身智能区别于传统AI,实现自主学习和持续进化的核心命脉。 它推动企业…

    2026年2月12日
    15400
  • 高通QuoKA:无需训练、硬件无关,88% KV缩减实现5倍推理加速,革新LLM预填充效率

    关键词:大语言模型、稀疏注意力、分块预填充、KV 选择、推理加速 无需训练、不依赖特定硬件,仅用 12% 的 KV 对就能实现接近全注意力的效果——这就是 Qualcomm AI Research 带来的全新稀疏注意力算法。 近年来,随着大型语言模型(LLM)的广泛应用,其推理效率逐渐成为制约落地的重要因素。尤其是在预填充阶段——即模型需要一次性处理整个输入…

    2026年2月11日
    9100
  • 自进化Agent突破量化因子挖掘瓶颈:QuantaAlpha框架实现27.75%年化收益

    上财团队 投稿 量子位 | 公众号 QbitAI 在量化金融的底层,Alpha因子本质上是一段可执行的代码逻辑,它们试图将嘈杂的市场数据映射为精准的交易信号。然而,长期以来,自动化因子挖掘始终被困在“两难”的夹缝中:传统的遗传规划 (Genetic Programming,GP) 虽然擅长在海量空间中进行进化搜索,但其本质是“盲目的随机变异”。 它们在回测中…

    2026年2月11日
    31600
  • 智谱开源GLM-OCR模型评测:0.9B参数如何拳打GPT5.2,脚踢Gemini-3-Pro?

    GLM-OCR 模型评测:0.9B 参数下的文本识别与表格解析实战 OCR(光学字符识别)技术正持续演进。近期,智谱 AI 开源了其轻量级模型「GLM-OCR」,尽管参数量仅为 0.9B,但据称在 OmniDocBench V1.5 等基准测试中表现不俗,尤其在处理手写体、代码文档、印章及复杂表格等场景时展现出竞争力。 官方数据显示,该模型在多类文档的识别任…

    2026年2月11日
    29700
  • 突破百万上下文:面壁智能SALA混合注意力架构引领端侧大模型新纪元

    最强的大模型,已经把scaling卷到了一个新维度:百万级上下文 。 几天前,Claude Opus 4.6发布,让人第一次真切感受到了百万上下文的涌现能力——单次吃进50万字中文内容、实现跨文档法律分析、多轮Agent规划…… 而这股scaling的风,也很快吹到了端侧。 面壁智能发布了首次大规模训练的稀疏与线性混合注意力模型。这套新注意力架构,不仅解决了…

    2026年2月11日
    10000
  • LangChain创始人深度解析:AI智能体沙盒架构的两种核心模式与安全实践

    AI智能体需要执行代码、安装软件包、访问文件,这些操作必须在与主机系统隔离的工作空间中进行,以防止访问敏感凭证、文件或网络资源。沙盒提供了这种必要的隔离。 LangChain创始人Harrison Chase近期分析了AI智能体与沙盒集成的架构问题,指出目前存在两种核心架构模式:智能体在沙盒内运行,或者智能体在外部运行、将沙盒作为工具调用。 模式一:智能体在…

    2026年2月11日
    24100