TrafficVLM:高德鹰眼系统如何用AI视觉模型实现超视距预警,守护春运出行安全

一凡 发自 凹非寺

量子位 | 公众号 QbitAI

准备回家过年了吗?

今年春运流量再创新高,官方预计40天内人员流动量将达95亿人次,其中多数人仍然选择自驾出行,占比达到了8成,人次超过70亿

如果你也是自驾回家的一员,可能会发现今年春运有点不一样,因为AI含量更高了。现在,AI不仅在加持你的出行,甚至在关键时刻真的能救命

有的AI在算命,有的AI在救命

今年是AI味儿最浓的一年,我们习惯了用AI学知识、写代码、辅导孩子作业,甚至算命……但AI啥时候能救命了?

有人第一次产生“AI能救命”的认知,是因为一起事故。 2024年5月1日,广东梅大高速茶阳路段发生塌方。事故发生时,有车主提前刹车,逃出生天。

据其事后讲述,他会提前刹车,正是因为在到达事发路段前,车上的高德导航突然发出语音警告“前方有车辆急刹”,所以他才赶紧刹车,躲过一劫。

类似的用户当时还有很多。据了解,梅大高速茶阳路段发生塌方灾害时,高德首次急刹预警发出的时间是5月1日凌晨2:00左右,提醒后方车辆注意前车急刹,安全驾驶。“当晚半小时内,我们共检测到多个速度骤降的急刹,并通过语音播报提醒了后方用户。”高德工作人员当时表示。

TrafficVLM:高德鹰眼系统如何用AI视觉模型实现超视距预警,守护春运出行安全

当事车主在相关报道下的留言

高德展现出的预警能力,也在此后得到行业认可。按照国务院安委会办公室、应急管理部工作部署,中国安全生产科学研究院联合高德开发了“鹰眼守护”预警系统(以下简称“鹰眼系统”)。

鹰眼系统,顾名思义就是系统具有鹰的视野,超越人类视距。用户不需要特殊操作,只要打开高德导航,就能自动开启鹰眼系统,实时感知到交通全局变化。

这种感知能力超越了人类视距,可比人更早识别到24类潜在风险,包括重大异常事件、前方急刹车、夜间货车和弯道超车等。监测到风险后,系统会秒级发送预警,让司机比过去多出数秒时间做出反应,降低了发生事故的概率,并且用的人越多,系统预测风险就越准。

TrafficVLM:高德鹰眼系统如何用AI视觉模型实现超视距预警,守护春运出行安全

最近系统为保障春运,又进一步升级,核心是三个字:全、广、快

首先是鹰眼系统看得更全。一方面新增了天气预警,会提前向用户预警异常天气,频率达到分钟级。另一方面,在遇到特殊路段,比如连续急转弯、长下坡和事故高发地等高风险路段时,鹰眼系统也会结合天气提前预警。

值得一提的是,在异常天气和特殊路段等条件下,系统还针对货车特性,优化了其刹车预警阈值,给货车司机留出更多反应时间。

其次,鹰眼系统覆盖范围更广,不挑手机和车机,全路网、全场景都能用。不管你是骑摩托、开小车或者开货车,亦或是搭乘网约车、顺风车,也不论你行驶在高速、国道还是乡间小路,鹰眼系统都给你提供支持。

最后,救援也更快了。据了解高德已在江苏率先上线了“鹰眼报警”功能,实现“事故检测-事故报警-后车预警-事故救援”闭环,6秒内自动完成事故检测并触发报警,该功能后续也会推广到全国。

总结来看,鹰眼系统让咱们的出行更安全了。因为很多事故,其实往往源自司机反应不过来,而现在有了一颗眼观全局的“鹰眼”,能提供超视距服务,更早识别不同场景的风险,并迅速提醒司机,给司机留出了更多时间来应对风险,这显然从源头就降低了事故概率。

这是如何实现的?

能救命的TrafficVLM

鹰眼系统的核心是TrafficVLM模型,其以Qwen-VL为底座打造,后训练数据来自现实世界。

为了获取训练数据,高德技术团队构建了交通孪生还原能力,在任何地区和尺度下,都能将真实世界的实时交通数据,映射为数字世界的动态孪生视频流,生产出海量交通视频用来训练TrafficVLM。

TrafficVLM:高德鹰眼系统如何用AI视觉模型实现超视距预警,守护春运出行安全

演唱会前后鸟巢的交通流量变化,图源:高德技术

TrafficVLM不仅从交通视频中学到了交通规律,还获得了理解交通“语义”的能力,适配了地图和交通孪生还原这种特殊的视觉模态。

在此基础上,高德还用复杂交通分析任务对TrafficVLM进行了针对性训练,最终让TrafficVLM获得了通用建模能力,小到一个路口的通行情况,大到城市级的交通规律,TrafficVLM都能建模。

TrafficVLM:高德鹰眼系统如何用AI视觉模型实现超视距预警,守护春运出行安全

图片由AI生成

训练完成后,TrafficVLM具体怎么落地?接下来举个例子说明TrafficVLM的应用过程。

比如用户正在开车,前方3公里位置的左侧车道突然发生事故,造成拥堵。此时身处车流的用户看不到这么远,但是TrafficVLM加持的鹰眼系统感知到了该位置车流速度突然变慢,同时大量车辆往右并线,系统据此推理分析,发现该路段异常,并预测拥堵路段将很快蔓延到用户所在位置。

于是系统就做出决策,语音提醒用户往右边变道,注意避让紧急车辆,并在导航界面呈现车流动态和现场图片。

这等于说TrafficVLM给用户开了“天眼”,作为底座支撑鹰眼系统,把安全平等普惠地带给了每一个人,这已经得到了数据验证。

出行安全的Scaling Law

据了解,截止2026年2月1日,鹰眼系统累计已预警112亿次,平均每天预警8800万次;其中多车异常预警超14.7万次。以国家交通大动脉G2京沪高速为例,高德大数据显示,“鹰眼守护”系统上线后,2025年国庆期间日均万车事故数同比去年下降约10%。

也同样是在去年国庆期间,另一条高速在早上发生了一起撞车事故,系统很快向后车预警,22分钟内预警超220次,覆盖范围达500米,至少帮助超200名车主避险

这些真实的数据和事件都在表明,高德鹰眼系统正在实现出行安全的Scaling Law,这是技术Scaling Law在出行领域的映射。

技术Scaling Law认为,模型有更多参数,同步投入更多算力和数据,模型的性能上限就更高,能满足用户更多的需求。

现在,技术Scaling Law通过鹰眼系统落地到出行领域。用鹰眼系统的人越多,提供的数据量就越大,预警就越准确、越及时,系统能力就更强,用户体验也更好。 根据QuestMobile的最新数据,高德2025年10月的月活用户数已达9.96亿

这不仅是对Scaling Law的另一种验证,而且正在带来社会价值方面的影响。

这是由一个个驾驶员共同实现的Scaling Law,我们每个人都是交通网络的一份子,现在打开高德就能参与其中,获取“鹰眼”加持,收到风险预警,在这个过程中我们既守护了自己,也帮助了他人。

都准备回家过年了吧?

过年自驾回家,熟悉的道路也记得打开导航,让回家的路,顺一点快一点,AI一点安全一点。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/20670

(0)
上一篇 2026年2月7日 上午11:51
下一篇 2026年2月7日 上午11:56

相关推荐

  • AI赋能卫星星座:北航团队发布AEOS-Bench基准与AEOS-Former模型,开启空天智能调度新纪元

    随着全球卫星星座规模的急剧扩张,从SpaceX的Starlink到我国的“千帆”星座,卫星网络正从科幻概念演变为数字经济时代的关键基础设施。这些运行在距地数百公里轨道上的卫星群,默默支撑着遥感监测、全球通信、精准导航、气象预测等核心领域。然而,星座规模的扩大带来了前所未有的调度挑战:如何在几分钟的观测窗口内,协调数十颗卫星执行上百项任务,同时应对地震救援、海…

    2025年12月13日
    25000
  • HyperBookLM:开源研究助手,用Web Agent构建NotebookLM替代方案

    当下的研究流程常常是混乱的。 你需要在多个标签页中打开博客链接,将 PDF 下载到本地,而笔记则散落在 Notion 或 Google Docs 等不同工具里。现有的 AI 工具通常一次只能处理一个信息来源。Google 的 NotebookLM 在一定程度上缓解了这个问题,但它是一个封闭、受限且对开发者不友好的系统。 这正是 HyperBookLM 的价值…

    2026年1月18日
    42600
  • AI泡沫破裂后的科技人才迁徙:从行业震荡到创新扩散的深度剖析

    近期,《Nature》杂志发表的一篇深度文章引发了科技界的广泛关注,文章聚焦于一个核心问题:若当前的人工智能(AI)泡沫破裂,OpenAI、谷歌等头部AI公司的顶尖科学家将流向何方?这一议题不仅关乎科技人才的职业路径,更触及AI技术发展的底层逻辑与未来走向。本文将从经济规模、行业影响、人才流动趋势及创新扩散效应四个维度,对这一现象进行系统性分析。 首先,从经…

    2025年11月23日
    24200
  • 模块化教学+智能选动作:UC伯克利破解人形机器人全身协同难题

    UC伯克利团队提出人形机器人全身协同新方案 在家庭厨房自主使用洗碗机,或在办公室边移动边擦拭白板,这些对人类而言稀松平常的场景,对人形机器人来说却是需要协调全身数十个关节的“高难度挑战”。 近日,加州大学伯克利分校的研究团队在arXiv上发表了题为《Coordinated Humanoid Manipulation with Choice Policies》…

    2026年1月18日
    23600
  • RoboOmni:全模态端到端操作大模型开启机器人主动服务新时代

    复旦大学、上海创智学院与新加坡国立大学联合推出的全模态端到端操作大模型RoboOmni,标志着机器人交互范式从被动执行向主动服务的根本性转变。该模型通过统一视觉、文本、听觉与动作模态,实现了动作生成与语音交互的协同控制,并开源了140K条语音-视觉-文字“情境指令”真机操作数据集,为具身智能领域提供了重要的技术突破和数据资源。 在传统机器人交互中,系统通常依…

    2025年11月11日
    29300