无问芯穹发布InfiniClaw Box:端云一体三段式安全脱敏,破解大模型隐私保护难题

在OpenClaw应用热潮中,隐私保护的缺位正成为企业与开发者面临的核心挑战。

用户既希望获得顶级大模型的强大能力,又要求数据在本地享有绝对安全。然而,传统的解决方案往往难以兼顾:本地算力设备难以处理复杂任务,而常见的脱敏方案通常仅支持文本,无法有效处理语音、视频等多模态数据。

这种全模态安全能力的缺失,成为了OpenClaw规模化落地的关键障碍。

针对这一难题,大模型基础设施提供商无问芯穹发布了其解决方案:InfiniClaw Box

无问芯穹发布InfiniClaw Box:端云一体三段式安全脱敏,破解大模型隐私保护难题

该产品旨在打破“脱敏即降智”的困局:
* 不仅支持文本,更能适配处理语音、视频等全模态数据。
* 通过独创的“三段式”架构,在确保数据不出本地域的前提下,依然能够调用云端的高性能算力。

此外,该方案还集成了企业级Token成本优化与内置的80余个垂直场景技能。这支由清华电子工程系背景团队主导研发的产品,旨在让端侧智能成为可靠的生产力工具。

端云一体安全脱敏:三段式隐私守护

InfiniClaw Box 的核心在于其“本地脱敏 – 云端处理 – 本地回填”的三段式安全脱敏推理方案,力求实现隐私数据不上云

1. 智能脱敏阶段

所有输入的文本、图像、音频、视频数据,首先由设备本地的多模态大模型进行语义特征理解与提取。结合预定义的安全知识库与脱敏模板进行二次校验,自动识别并替换敏感信息(如身份信息、公司机密、财务数据等),生成一份脱敏后的通用请求。

无问芯穹发布InfiniClaw Box:端云一体三段式安全脱敏,破解大模型隐私保护难题

2. 云端处理阶段

脱敏后的请求被发送至无问芯穹大模型服务平台,以较低成本调用如GLM-5、Kimi-K2.5等行业头部模型,完成复杂推理、内容生成等任务。整个过程云端无法接触任何原始隐私数据。

无问芯穹发布InfiniClaw Box:端云一体三段式安全脱敏,破解大模型隐私保护难题

3. 本地回填阶段

云端返回的通用结果在设备本地经由“隐私重构引擎”处理,在不泄露隐私的前提下,将此前替换的敏感信息进行精准的回填与还原,确保最终结果的表达完整性与上下文一致性,达到“数据不出盒、能力不打折”的效果。

无问芯穹发布InfiniClaw Box:端云一体三段式安全脱敏,破解大模型隐私保护难题

多信源与多模态适配

凭借全模态脱敏能力,InfiniClaw Box 突破了仅能处理文本的局限。它支持灵活接入多种硬件设备,如摄像头、麦克风等,实时获取视频与语音信息。

未来,该产品计划接入个人电脑、智能眼镜、手机等移动设备,实现对文本、图像、语音、视频等多模态信号的协同处理与复杂任务执行,并提供标准化开放接口以支持更多场景拓展。

无问芯穹发布InfiniClaw Box:端云一体三段式安全脱敏,破解大模型隐私保护难题

广泛的硬件适应性

InfiniClaw Box 支持多样化的终端硬件配置,能够适配并优化不同算力设备的性能。通过对NPU、GPU核心算子的融合优化、张量布局寻优及显存复用策略,其在主流端侧芯片上实现了10%到40% 的推理加速。

无问芯穹发布InfiniClaw Box:端云一体三段式安全脱敏,破解大模型隐私保护难题

目前,无问芯穹已与爱芯元智等伙伴在端侧芯片优化与设备适配方面展开合作,并将持续探索国产端侧芯片的更多应用可能性。

生态合作与开放

目前,无问芯穹已与多家芯片企业、智能终端设备企业及应用方建立合作,共同在底层芯片适配、外接设备互联上层应用场景探索等多个维度进行推进。

无问芯穹期待与更多上下游生态伙伴携手,拓展InfiniClaw Box的应用边界,助力用户以更低成本、更高效率进行终端智能化探索。

无问芯穹发布InfiniClaw Box:端云一体三段式安全脱敏,破解大模型隐私保护难题


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/29615

(0)
上一篇 8小时前
下一篇 8小时前

相关推荐

  • 突破语音鉴伪泛化瓶颈:上海交大联合宇生月伴提出数据为中心的高性能大模型

    在生成式 AI 技术日新月异的背景下,合成语音的逼真度已达到真假难辨的水平,随之而来的语音欺诈与信息伪造风险也愈演愈烈。作为应对手段,语音鉴伪技术已成为信息安全领域的研究重心。 然而,当前的语音鉴伪模型正面临严峻的「泛化性挑战」:许多在特定实验室数据集上表现优秀的模型,在面对现实世界中从未见过的生成算法时,检测性能往往会出现剧烈下滑。这种「泛化瓶颈」严重限制…

    2025年12月31日
    20100
  • 思科开源安全大模型Foundation-sec-8B:网络安全领域的专用AI新范式

    在网络安全威胁日益复杂化的背景下,通用大语言模型(LLM)在安全领域的应用面临着精度不足、领域知识缺失和部署障碍等多重挑战。2025年4月28日,思科推出的开源安全大模型Foundation-sec-8B(Llama-3.1-FoundationAI-SecurityLLM-base-8B)标志着网络安全AI进入专用化新阶段。这款80亿参数的开放权重模型专为…

    大模型安全 2025年4月29日
    27800
  • AI安全前沿深度剖析:从越狱攻击到多模态防御,构建鲁棒大模型的新范式

    近期,人工智能安全领域的研究焦点正从传统的漏洞修补转向对大型语言模型(LLM)系统性脆弱性的深度解构与主动防御机制的创新构建。一系列前沿论文不仅揭示了当前技术在对抗性攻击面前的显著局限,更为构建下一代鲁棒、可信的AI系统提供了多维度的解决方案。这些进展对于应对日益复杂的安全挑战、推动AI技术的负责任部署具有至关重要的指导意义。 在模型攻击层面,研究揭示了LL…

    2025年12月8日
    20700
  • Claude惊现严重身份混淆漏洞!黑客可注入恶意指令,大模型安全再敲警钟

    Claude惊现严重身份混淆漏洞,大模型安全再敲警钟 近期,一个关于Claude模型的严重漏洞在技术社区引发了广泛讨论。该漏洞使得模型无法区分用户输入与系统指令,甚至可能将恶意注入的指令误认为合法请求。 一位软件工程师(某教育初创公司CTO)在Hacker News发帖,称这是其“迄今为止在Claude代码中见过的最严重的bug”。该帖迅速吸引了数万名开发者…

    8小时前
    3800
  • AI生成数据污染:医疗诊断可靠性的隐形杀手与破解之道

    随着生成式人工智能在医疗领域加速渗透,越来越多的病历、影像报告及各类临床文本正逐步纳入AI参与生成的范畴。这一旨在提升效率的技术革新背后,潜藏着威胁诊断安全性的深层隐患。 一项由新加坡国立大学、哈佛大学、斯坦福大学、耶鲁大学、谷歌及梅奥诊所等机构的跨学科团队完成的最新研究表明,当AI生成的临床文本被用作训练新一代AI模型时,一些罕见但关键的病理信息会在数据迭…

    2026年3月17日
    27200