京东AI解法:开源JoyAI-LLM Flash降本增效,数字人性能超SOTA,具身智能覆盖百品牌
AI技术加速迭代,但成本效率与性能的平衡、产业落地“最后一公里”的打通,仍是行业面临的共性挑战。3月24日,京东公布了其AI研发应用的部分阶段性进展,提出了针对上述难题的解决方案。
01 开源大模型JoyAI-LLM Flash,大幅降低AI使用门槛
在模型能力层面,京东首次开源了基础大模型JoyAI-LLM Flash的Instruct版本。该模型创新性地引入了基于“纤维丛”理论的FiberPO强化学习方法,实现了技术突破。在19个权威基准测试中,该模型表现优异,在同等参数规模下达到了行业一梯队水平。
JoyAI-LLM Flash模型具备高效响应、轻量化部署和高精确度的核心优势,能够精准适配代码开发、智能体搭建、终端应用等多个领域。其设计旨在为开发者与中小企业提供高性价比的模型底座,从而大幅降低AI技术的使用门槛。
02 京东云智能体解决方案,token调用量周增长455%
针对智能体应用背后高昂的token成本问题,京东云基于JoyAI大模型,通过开源OpenClaw架构,推出了轻量云主机一键部署、一体机、云上SaaS版等多种产品形态,覆盖从个人开发者到中大型企业的多样化需求。通过自研云原生推理框架优化推理成本,并推出CodingPlan大模型套餐包,持续降低使用成本。
据统计,京东云相关智能体系列产品上线后,近一周的token调用量环比增长高达455%。

03 京东数字人JoyStreamer,性能超越国际SOTA水平
京东数字人JoyStreamer实现了核心技术突破,通过三大创新技术解决了行业内在的音视频不同步、多模态控制不协调、长视频身份失真等技术痛点,其性能超越国际SOTA水平,核心指标达到商用级,可适配电商直播、文旅讲解、新闻主播等20多个行业场景。
- 双教师DMD后训练技术:无需额外增加训练数据,即可让数字人精准响应复杂指令、完成复杂动作。
- 动态CFG调制策略:从根源上解决数字人“手脚动作与面部表情不协调、口型和声音对不上”等多维度控制冲突。
- 历史帧+伪最后一帧结构:可稳定生成30秒以上的长视频,全程保障数字人形象不变形、动作不卡顿,满足直播、长视频等商业场景需求。
依托京东JoyAI大模型与上述技术突破,JoyStreamer推出了「自由态数字人」,针对家电家居、时尚服饰等五大行业进行精准适配。该数字人打破了传统数字人动作僵硬、姿态固定的局限,支持自然走动、灵活摆姿,镜头跟随与出画入画流畅,即使在脸部遮挡情况下也能保持高保真质感。
04 JoyInside与上百品牌深度合作,为万物装上AI大脑
在具身智能领域,京东依托其多场景智能交互沉淀与JoyAI大模型能力,推出了JoyInside附身智能方案,旨在为智能家电、机器人等设备植入“高情商大脑”。
JoyInside具备超拟人对话、全年龄段适配、言行高度协调等优势。目前,该方案已与近百个家电家居品牌、超过40个机器人与AI玩具品牌展开深度合作,覆盖多元场景。
此外,京东打造了JoyInside一站式开发平台,旨在实现AI硬件从创意到量产的全闭环赋能。京东将于近期举办“AI终端新物种”创新大赛,面向全球开发者、硬件厂商及AI创新团队,征集基于JoyInside交互的AI硬件创新方案。优秀项目将获得从创意孵化到产品包销的全链路支持。

05 构建具身数据采集中心,破解行业“数据荒”
真实场景数据匮乏是当前具身智能领域的一大痛点,制约了模型训练与产业落地。为从源头解决“数据荒”,京东发挥其零售、物流、工业等场景丰富的优势,正在建设全球规模最大、场景最全的具身智能数据采集中心。
该数据采集行动将发动京东内部超过10万名员工,以及外部各行业人员,计划在未来一年内积累500万小时人类真实场景视频数据,两年内超过1000万小时,并同步采集机器人本体数据,以推动具身智能产业从算法仿真迈向真实数据驱动。

上述进展是京东AI研发应用成果的一部分。目前,京东已推动JoyAI大模型在零售、物流、健康、工业等多个场景迅速落地。未来,京东表示将继续以“AI基建+模型能力+场景落地”的组合策略,与行业伙伴携手推动AI与产业的深度融合。
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/27393


