Anthropic
-
Claude Opus 4.6震撼发布:专为长时程Agent任务而生,百万token上下文实现76%检索准确率
凌晨2点,硅谷的两家AI巨头再次展开激烈竞争。由于Claude Opus 4.6发布较早,业界的解读和用户的测试体验也更为丰富。结合Anthropic官方信息及相关测评,Opus 4.6在长上下文信息定位、基于信息的推理能力以及专家级复杂推理方面,表现令人印象深刻。 长期使用Claude的Boris用四个词概括Opus 4.6:更具自主性、更智能、运行时间更…
-
Agent Skills 终极指南:从零到精通
开篇思考 Claude Skills 的价值仍然被严重低估。 一个设计精良的 Skill,其所能赋予的智能能力足以媲美甚至超越一个完整的 AI 产品。最关键的是:任何人都可以开发自己的 Skill,无需任何技术背景。 以我开发的 Article-Copilot 为例,仅凭一个 Skill,我便构建了一个能够处理从素材整理到实际写作全流程的 Agent 应用。…
-
Claude宪法2.0:从规则清单到价值权衡,Anthropic如何重新定义AI的行为边界
Anthropic发布了一份长达57页的《Claude宪法》,研究员Amanda Askell将其称为Claude的“灵魂文档”,旨在为Claude定义核心行为准则。 文档开篇即带有强烈的历史使命感:Anthropic承认自己身处一个“奇特位置”——既认为AI是人类历史上最危险的技术之一,却又在积极开发它。其核心逻辑在于,既然强大的AI终将出现,不如让重视安…
-
AI巨头的商业分岔:OpenAI的规模扩张与Anthropic的利润深耕
2025年的AI产业格局正在经历一场深刻的结构性分化。OpenAI与Anthropic这两家源自同一技术血脉的公司,正沿着截然不同的商业路径向前推进——前者致力于构建面向大众的AI生态系统,后者则专注于企业级市场的利润深耕。这种分化不仅反映了AI技术商业化进程中的战略选择差异,更预示着整个行业将从技术驱动转向商业可持续性驱动的关键转折。 从技术同源到商业分道…
-
OpenAI、Anthropic、DeepMind罕见联手,得出一个关于AI安全的惊人结论:现有LLM安全防御不堪一击
本文实测 12 种防御方法,几乎全军覆没。 真是罕见,OpenAI、Anthropic、Google DeepMind 这三大竞争对手,居然联手发表了一篇论文,共同研究语言模型的安全防御评估。 看来在 LLM 安全这事上,大家还是能暂时放下对抗,握手合作的。 本文主要围绕一个问题展开:我们该如何评估语言模型防御机制的鲁棒性? 要知道,目前针对越狱和提示注入的…