Claude Code入侵智能家居:AI逆向工程狂欢暴露物联网安全危机

Andrej Karpathy受网友启发,进行了一项有趣的实验:让Claude Code入侵他家的Lutron智能家居系统。

整个过程如同黑客电影的翻版。AI先在本地网络中定位控制器,扫描开放端口,随后在线查阅设备文档,甚至指导用户完成证书配对。最终,它成功接管了全屋的灯光、窗帘、空调和各类传感器。

“我直接删掉了那个又慢又难用的官方App。”Karpathy在推文中表示。这种“氛围编程”体验让他大呼过瘾。

一切从烤箱开始

这场实验的灵感源于网友对GE Profile烤箱的尝试。他让Claude Code控制了烤箱,并晒出了代码界面与控制面板的合影。“Claude发现了火”,网友们如此调侃。这条获得170万次观看的推文,引发了一系列连锁反应。

Claude Code入侵智能家居:AI逆向工程狂欢暴露物联网安全危机

很快,有人用同样方法破解了HP鼠标的RGB灯光(原因是官方未提供macOS驱动),也有人将目标转向LG灶具。这场“逆向工程狂欢”揭示了一个事实:许多物联网设备的安全设计仍停留在“隐藏即安全”的原始阶段。

AI要是有了“眼睛和耳朵”

Yuchen Jin的观点很直接:目前的Claude Code仍被禁锢在电脑中,无法感知外部物理世界。“等它能看见你所见的,听见你所听的,情况就完全不同了。”他将此比作《钢铁侠》中的JARVIS,并表示正考虑自己动手实现一个。

Claude Code入侵智能家居:AI逆向工程狂欢暴露物联网安全危机

Meta Ray-Ban这类智能眼镜可能会加速这一进程,但随之而来的问题也将更为复杂。

安全隐患不容忽视

“太神奇了,也有点吓人。”网友pouya提出了一个关键问题:如果AI出现幻觉,误将空调温度调至最高怎么办?

MachineSovereign的观察更为深入:“有趣之处不在于它会写代码,而在于从发现设备到集成、执行的整个流程速度,已经快于人类的反应时间。”当前的监管体系仍假设人类处于关键决策环节,但现实已然改变。

Gal Badishi直言这是“渗透测试者的天堂”,Ben Pouladian则提醒需警惕Lutron的法务部门——这些系统本非开源设计。

个人软件潜藏危机

Mit Dave认为“个人软件时代已经到来”,他正用类似方法让Ray-Ban智能眼镜与其他模型、应用进行协作。这意味着用户无需等待厂商更新,即可自行定制设备功能。

但新的威胁也随之浮现。Carter Williams指出,那些冷门或不为人知的API可能成为新的攻击入口。当AI能够自动发现并利用这些接口时,传统安全模型的基本假设就需要被重新审视。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/16121

(0)
上一篇 2025年12月28日 上午8:33
下一篇 2025年12月28日 上午10:33

相关推荐

  • 医疗AI的临床革命:从技术炫技到基层赋能,中国专业模型如何实现安全与有效的双重突破

    在医疗资源分布不均、基层诊疗压力巨大的现实背景下,人工智能技术正从实验室走向临床一线,开启一场深刻的医疗变革。根据最新统计,中国糖尿病患者已达2.33亿人,远超现有医疗资源的承载能力。基层医生每天面对的是混杂的真实世界:心血管、呼吸、消化等各种疾病交织出现;一旦遇上少见症状或复杂共病,往往会感到吃力,甚至陷入“想得不全、顾得不够”的困境。这种结构性矛盾,为医…

    2025年11月17日
    7000
  • OpenAI、Anthropic、DeepMind罕见联手,得出一个关于AI安全的惊人结论:现有LLM安全防御不堪一击

    本文实测 12 种防御方法,几乎全军覆没。 真是罕见,OpenAI、Anthropic、Google DeepMind 这三大竞争对手,居然联手发表了一篇论文,共同研究语言模型的安全防御评估。 看来在 LLM 安全这事上,大家还是能暂时放下对抗,握手合作的。 本文主要围绕一个问题展开:我们该如何评估语言模型防御机制的鲁棒性? 要知道,目前针对越狱和提示注入的…

    2025年10月14日
    22201
  • AI安全新纪元:攻防精准化、技术边界清晰化、安全维度人性化

    本周 AI 安全领域呈现 “攻防对抗精准化、技术边界清晰化、安全维度人性化” 的核心趋势: 一方面,多模态隐写、心理学驱动等攻击技术持续突破,对商业大模型系统构成实质性威胁;另一方面,轻量级高效防御方案与动态基准测试工具相继落地,为安全防护提供可落地的技术路径。 同时,AI 安全研究首次将 “心理伤害” 纳入核心议题,标志着领域从 “技术安全” 向 “人文安…

    2025年12月29日
    17200
  • PromptLocate:大模型安全防御的精准手术刀——首个能定位并清除提示注入攻击的工具深度解析

    在人工智能技术迅猛发展的今天,大模型的安全性问题日益凸显,其中提示注入攻击已成为威胁模型可靠性的核心挑战之一。近日,杜克大学与宾州州立大学联合研究团队推出的PromptLocate工具,标志着大模型安全防御迈入了精准定位与主动修复的新阶段。该工具不仅能检测数据污染,更能精准定位恶意内容的具体位置,实现数据净化和攻击溯源,为大模型的安全部署与应用提供了关键技术…

    2025年10月24日
    7100
  • 联邦学习安全防线告急?港大TPAMI新作揭秘梯度反转攻击三大门派与防御指南

    本文第一作者郭鹏鑫,香港大学博士生,研究方向是联邦学习、大模型微调等。本文共同第一作者王润熙,香港大学硕士生,研究方向是联邦学习、隐私保护等。本文通讯作者屈靓琼,香港大学助理教授,研究方向包含 AI for Healthcare、AI for Science、联邦学习等。 联邦学习(Federated Learning, FL)旨在保护数据隐私,但梯度反转攻…

    2026年1月11日
    5900