Claude Code入侵智能家居:AI逆向工程狂欢暴露物联网安全危机

Andrej Karpathy受网友启发,进行了一项有趣的实验:让Claude Code入侵他家的Lutron智能家居系统。

整个过程如同黑客电影的翻版。AI先在本地网络中定位控制器,扫描开放端口,随后在线查阅设备文档,甚至指导用户完成证书配对。最终,它成功接管了全屋的灯光、窗帘、空调和各类传感器。

“我直接删掉了那个又慢又难用的官方App。”Karpathy在推文中表示。这种“氛围编程”体验让他大呼过瘾。

一切从烤箱开始

这场实验的灵感源于网友对GE Profile烤箱的尝试。他让Claude Code控制了烤箱,并晒出了代码界面与控制面板的合影。“Claude发现了火”,网友们如此调侃。这条获得170万次观看的推文,引发了一系列连锁反应。

Claude Code入侵智能家居:AI逆向工程狂欢暴露物联网安全危机

很快,有人用同样方法破解了HP鼠标的RGB灯光(原因是官方未提供macOS驱动),也有人将目标转向LG灶具。这场“逆向工程狂欢”揭示了一个事实:许多物联网设备的安全设计仍停留在“隐藏即安全”的原始阶段。

AI要是有了“眼睛和耳朵”

Yuchen Jin的观点很直接:目前的Claude Code仍被禁锢在电脑中,无法感知外部物理世界。“等它能看见你所见的,听见你所听的,情况就完全不同了。”他将此比作《钢铁侠》中的JARVIS,并表示正考虑自己动手实现一个。

Claude Code入侵智能家居:AI逆向工程狂欢暴露物联网安全危机

Meta Ray-Ban这类智能眼镜可能会加速这一进程,但随之而来的问题也将更为复杂。

安全隐患不容忽视

“太神奇了,也有点吓人。”网友pouya提出了一个关键问题:如果AI出现幻觉,误将空调温度调至最高怎么办?

MachineSovereign的观察更为深入:“有趣之处不在于它会写代码,而在于从发现设备到集成、执行的整个流程速度,已经快于人类的反应时间。”当前的监管体系仍假设人类处于关键决策环节,但现实已然改变。

Gal Badishi直言这是“渗透测试者的天堂”,Ben Pouladian则提醒需警惕Lutron的法务部门——这些系统本非开源设计。

个人软件潜藏危机

Mit Dave认为“个人软件时代已经到来”,他正用类似方法让Ray-Ban智能眼镜与其他模型、应用进行协作。这意味着用户无需等待厂商更新,即可自行定制设备功能。

但新的威胁也随之浮现。Carter Williams指出,那些冷门或不为人知的API可能成为新的攻击入口。当AI能够自动发现并利用这些接口时,传统安全模型的基本假设就需要被重新审视。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/16121

(0)
上一篇 2025年12月28日 上午8:33
下一篇 2025年12月28日 上午10:33

相关推荐

  • OpenClaw安全挑战引关注:AI智能体部署需警惕新型攻击,360发布国内首份安全指南

    近日,开源AI智能体OpenClaw(网友戏称为“赛博龙虾”)迅速走红网络。随着应用热度持续攀升,部署OpenClaw正成为新的趋势。 该工具通过整合通信软件与大语言模型,能够在用户电脑上自主执行文件管理、邮件收发、数据处理等复杂任务,展现出强大的自动化能力。与此同时,智能体能够直接调用系统资源并自主执行指令,这也带来了新的安全挑战。 工业和信息化部网络安全…

    5天前
    12100
  • OpenAI、Anthropic、DeepMind罕见联手,得出一个关于AI安全的惊人结论:现有LLM安全防御不堪一击

    本文实测 12 种防御方法,几乎全军覆没。 真是罕见,OpenAI、Anthropic、Google DeepMind 这三大竞争对手,居然联手发表了一篇论文,共同研究语言模型的安全防御评估。 看来在 LLM 安全这事上,大家还是能暂时放下对抗,握手合作的。 本文主要围绕一个问题展开:我们该如何评估语言模型防御机制的鲁棒性? 要知道,目前针对越狱和提示注入的…

    2025年10月14日
    30501
  • 技术竞争与安全危机:OpenAI在Gemini 3冲击下的双重困境

    在人工智能领域快速演进的2025年,OpenAI正面临前所未有的双重挑战。一方面,技术竞争的激烈程度达到新高;另一方面,激进组织的安全威胁将理论争议转化为现实危机。这一系列事件不仅反映了AI行业的技术迭代速度,更揭示了技术发展与社会安全之间的复杂张力。 技术层面的竞争首先体现在模型性能的对比上。Google发布的Gemini 3模型确实在多个基准测试中展现出…

    2025年11月23日
    16300
  • AI安全前沿突破:从零样本检测到供应链风险量化,四大技术路径重塑防御范式

    本周AI安全领域迎来关键进展,研究焦点覆盖对抗攻击防御、内容真实性检测、软件供应链安全及隐私保护四大核心方向。其中,提示注入防御实现零误报突破、AI生成文本检测进入零样本时代、LLM代码生成风险首次量化、RAG系统隐私威胁模型形式化等成果,标志着AI安全正从被动响应转向主动防御的新阶段。 在提示注入攻击防护领域,LLMZ+提出的上下文白名单机制实现了范式级突…

    2025年9月26日
    16600
  • AI安全攻防新纪元:从隐形越狱到自动化渗透的四大前沿突破

    随着生成式AI与智能体技术的深度融合,人工智能安全领域正经历一场静默的革命。攻击手段已从早期可见的提示注入,悄然演变为利用不可见字符渗透的隐形威胁;而防御体系也从单一防火墙模式,升级为覆盖模型全生命周期的立体防护框架。本周,我们聚焦四项具有里程碑意义的领域研究,它们分别在大模型推理能力滥用、自动化渗透测试、蜜罐防御创新及后门攻击分类体系方面取得了关键突破,不…

    2025年10月14日
    16300