Anthropic
-
Claude宪法2.0:从规则清单到价值权衡,Anthropic如何重新定义AI的行为边界
Anthropic发布了一份长达57页的《Claude宪法》,研究员Amanda Askell将其称为Claude的“灵魂文档”,旨在为Claude定义核心行为准则。 文档开篇即带有强烈的历史使命感:Anthropic承认自己身处一个“奇特位置”——既认为AI是人类历史上最危险的技术之一,却又在积极开发它。其核心逻辑在于,既然强大的AI终将出现,不如让重视安…
-
AI巨头的商业分岔:OpenAI的规模扩张与Anthropic的利润深耕
2025年的AI产业格局正在经历一场深刻的结构性分化。OpenAI与Anthropic这两家源自同一技术血脉的公司,正沿着截然不同的商业路径向前推进——前者致力于构建面向大众的AI生态系统,后者则专注于企业级市场的利润深耕。这种分化不仅反映了AI技术商业化进程中的战略选择差异,更预示着整个行业将从技术驱动转向商业可持续性驱动的关键转折。 从技术同源到商业分道…
-
OpenAI、Anthropic、DeepMind罕见联手,得出一个关于AI安全的惊人结论:现有LLM安全防御不堪一击
本文实测 12 种防御方法,几乎全军覆没。 真是罕见,OpenAI、Anthropic、Google DeepMind 这三大竞争对手,居然联手发表了一篇论文,共同研究语言模型的安全防御评估。 看来在 LLM 安全这事上,大家还是能暂时放下对抗,握手合作的。 本文主要围绕一个问题展开:我们该如何评估语言模型防御机制的鲁棒性? 要知道,目前针对越狱和提示注入的…