Anthropic 为什么叫 Anthropic?Claude 又为什么叫 Claude?
这两个名字背后,各藏着一条线索。一条通向宇宙学和哲学,另一条通向信息论的奠基人。而把这两条线串起来的,是一个从百度实习生到 AI 安全领袖的创始人故事。
先说 Claude
Claude 的名字来自 Claude Shannon,信息论之父。
1948 年,Shannon 发表了那篇改变世界的论文 A Mathematical Theory of Communication,被引用超过 16 万次。他证明了信息可以被编码为 0 和 1 的比特流,奠定了整个数字通信的理论基础。
没有 Shannon 的工作,就没有数据压缩,没有纠错编码,没有今天神经网络赖以运行的一切数字基础设施。
Anthropic 用这个名字,是在提醒一件事:大语言模型看起来在「说话」,但底层是一门关于信息和概率的严谨科学。
而且 Shannon 本人就是个「跨界怪才」,他在 MIT 的办公室里骑独轮车、玩杂耍,同时在信息论、密码学、博弈论之间自由穿梭。这种「严肃的玩耍」气质,和 Claude 的人格设计倒是暗暗呼应。
再说 Anthropic
Anthropic 这个名字的线索,要从一本 2002 年的哲学著作说起。
Menlo Ventures 合伙人 Deedy(同时也是 Anthropic 的投资人)最近在 X 上发了条帖子,把这条脉络完整梳理了一遍。
牛津大学哲学家 Nick Bostrom 在 2002 年出版了 Anthropic Bias: Observation Selection Effects in Science and Philosophy。这本书探讨的核心问题是:我们对宇宙的观察,天然就是有偏的,因为只有在适合观察者存在的宇宙里,才会有观察者去观察。
听起来可能有点儿绕。
换个说法就是:你之所以能坐在这里思考「宇宙为什么是这样的」,恰恰是因为宇宙碰巧是这样的。如果物理常数稍微偏一点,连原子都形成不了,更不会有人来提问。
这就是「人择原理」(anthropic principle),宇宙学里一个古老而深刻的概念。
Bostrom 把它延伸出了一个令人不安的推论,叫「末日论证」(Doomsday Argument):如果你把自己视为人类历史上随机出现的一个观察者,那么从统计学上看,你大概率处于人类历史的「中间段」,而非开头。
人类的未来,可能比我们以为的要短得多。
从哲学到运动
Bostrom 不只是个哲学家。他还是有效利他主义(Effective Altruism,简称 EA)运动中「长期主义」(longtermism)的重要推动者。
长期主义的核心主张:正向塑造人类的长期未来,是我们这个时代最重要的道德优先级。
而在长期主义者看来,当下最大的威胁之一,就是没有对齐人类价值观的 AI。
EA 社区的标杆组织 80,000 Hours 早就把「降低 AI 带来的存在性风险」列为最优先的全球问题。他们引用了 Berkeley 教授 Stuart Russell 2017 年的 TED 演讲。Russell 是 AI 经典教材 Artificial Intelligence: A Modern Approach 的合著者,几乎每个 AI 学生都读过这本书。
Russell 在那场演讲中提出了三条原则:
- 机器的唯一目标,应该是最大化人类偏好的实现
- 机器一开始并不确定那些偏好是什么
- 机器必须通过观察人类行为来学习这些偏好
一句话概括就是:让 AI 对人类的意图始终保持不确定性和谦逊。
这个思路,后来成了 AI 安全研究的重要基石。
百度的实习生
故事的另一条线,要从硅谷一间不起眼的实验室说起。
2014 年底,一个刚从 Princeton 拿到生物物理学博士学位的年轻人,加入了百度硅谷 AI 实验室。他的导师是 Andrew Ng(吴恩达)。
这个人叫 Dario Amodei。
Dario 的学术背景颇为独特。他本科在 Stanford 读物理,高中时还入选过美国物理奥林匹克队。博士期间在 Princeton 研究神经回路的集体行为,用电极阵列记录大规模神经元群的活动模式。
从生物神经网络到人工神经网络,这一步对他来说几乎是自然的。
在百度,Dario 参与了 Deep Speech 2 的开发,这是一个端到端的语音识别系统,能同时处理英语和中文,被 MIT Technology Review 评为 2016 年十大突破技术之一。
但更关键的发现藏在实验过程中:模型的性能,随着数据量和计算量的增加,呈现出可预测的提升。
模型越大,数据越多,训练越久,效果越好。这个规律后来被称为「Scaling Laws」(缩放定律),成了整个大模型时代的理论基石。
有人甚至争论:百度的这个团队是否比 OpenAI 更早发现了 Scaling Laws?
不论结论如何,Dario 在百度的那一年,让他成了世界上最早亲手验证过 Scaling Laws 的人之一。这段经历直接塑造了他后来在 OpenAI 的工作方向,也为 Anthropic 的创立埋下了种子。
出走 OpenAI
离开百度后,Dario 在 2016 年加入了 OpenAI,很快成为研究副总裁。他的妹妹 Daniela Amodei 也在 OpenAI,担任安全与政策副总裁。
GPT-2、GPT-3 的研发过程中,Dario 越来越坚信两件事:模型会变得极其强大;光靠「把模型做大」远远不够,必须同时做好对齐和安全。
2020 年底,Dario 和 Daniela 带着一批核心研究员离开了 OpenAI。2021 年,Anthropic 正式成立,使命只有一句话:构建安全的 AI 系统。
创始团队与 EA 社区的联系极深。Daniela 的丈夫 Holden Karnofsky 是 Open Philanthropy 的联合创始人,这是 EA 运动中最大的资助机构之一。
从时间线上看,Anthropic 的成立,恰好在长期主义作为一场运动走向成熟之后不久。从 Bostrom 的 Anthropic Bias 到 Anthropic 这家公司,「Anthropic」这个名字的选择就不像是巧合了。
Claude 的「灵魂」
如果说 Anthropic 的名字承载了哲学野心,那 Claude 的人格设计,则是这种野心的具体落地。
Anthropic 做了一件其他 AI 公司没怎么做过的事:给模型写了一份「灵魂文档」(Soul Document)。
2025 年底,这份文档被人从 Claude 4.5 Opus 的训练过程中提取了出来,长达 14,000 tokens。Anthropic 的伦理研究员 Amanda Askell 在 X 上确认了文档的真实性。后来 Anthropic 干脆把它正式公开,改名叫 Claude 的「Constitution」(宪法)。
这份文档,在训练阶段就被织入了模型权重,相当于一份人格蓝图。
它定义了 Claude 应该具备的核心特质:好奇、开放、诚实、有耐心、会思考、有幽默感。没有那种机械的「我是一个 AI 助手,我没有感受」,取而代之的是一个有观点、有立场、但愿意被说服的人格。
Amanda Askell 描述过设计 Claude 人格时的模板:「一个见多识广的旅行者,能适应当地风俗和对话对象,但不会谄媚。」
换句话说,Claude 不应该是一面镜子,你说什么它就附和什么。它应该有自己的判断,同时对不同观点保持真诚的好奇心。
这个设计哲学,和 Stuart Russell 的那三条原则一脉相承:对人类意图保持谦逊,同时拥有自我。
对中国的态度
Anthropic 对中国市场的政策,在所有主流 AI 公司中是最强硬的。
Claude 至今不对中国大陆用户开放。2025 年 9 月,Anthropic 更新了服务条款,明确禁止所有「受中国控制的实体」使用 Claude,不论这些公司注册在哪里、运营在哪里。只要股权结构中超过 50% 由中国公司直接或间接持有,就被排除在外。
ByteDance、Tencent、Alibaba,以及它们在海外的子公司和合资企业,全部受限。
Anthropic 的理由是:这些实体「有可能将我们的能力用于开发最终服务于对立方军事和情报机构的应用」。
这个决定让 Anthropic 付出了真金白银的代价,据内部估算,影响的收入规模在「数亿美元量级」。
而事情在 2026 年 3 月进一步升级。Trump 政府将 Anthropic 列为「供应链风险」(supply chain risk),要求所有联邦机构停止使用 Claude。这个标签通常只用于与外国对手有关联的企业。
导火索是一场合同谈判的破裂。Anthropic 坚持两条红线:
- Claude 不得用于对美国公民的大规模监控
- Claude 不得用于自主武器
五角大楼则要求「用于所有合法用途」,不接受私营公司设定使用边界。
Anthropic 随即起诉了国防部。
OpenAI 和 Google DeepMind 的数十名科学家和研究员以个人身份提交了支持 Anthropic 的法庭之友陈述。而就在 Trump 政府发布禁令的几小时后,OpenAI 与五角大楼达成了合作协议。
一边是不惜代价坚持安全红线,另一边是抓住机会填补市场空白。
这两家从 OpenAI 分裂出来的公司,在这一刻走向了截然不同的方向。
名字里的暗线
回过头来看这两个名字。
Claude Shannon 用数学证明了信息可以被精确编码和传输。Claude 这个 AI,正是建立在这套理论之上的产物,但它被赋予了超越信息处理的东西:人格、价值观、对人类意图的谦逊。
Anthropic 这个词,来自「人择原理」,我们观察宇宙的方式,受限于我们自身的存在条件。而这家公司要做的事情,恰恰是确保这个「存在条件」能延续下去。
Dario Amodei,一个在百度验证了 Scaling Laws 的物理学博士,比任何人都清楚模型会变得多强大。也正因如此,他比任何人都更执着于安全。
大多数公司的名字,要么是意外,要么是虚荣。
Claude 和 Anthropic 的名字,是两个关于人类命运的隐喻。
相关链接:
- Deedy 原帖:https://x.com/deedydas/status/2032668399533535368
- Claude Shannon 维基百科:https://en.wikipedia.org/wiki/Claude_Shannon
- Nick Bostrom Anthropic Bias:https://en.wikipedia.org/wiki/Anthropic_Bias
- Stuart Russell TED 演讲:https://www.ted.com/talks/stuart_russell_3_principles_for_creating_safer_ai
- Claude 的 Constitution:https://www.anthropic.com/constitution
- Anthropic 维基百科:https://en.wikipedia.org/wiki/Anthropic
J0hn AGI Hunt2026年3月14日 17:03北京
https://mp.weixin.qq.com/s/HNmAHH3hPWBLmpPvGiXMWw
“Anthropic” 是什么意思?
一句话回答
Anthropic = “与人类有关的”,来自希腊语 ἄνθρωπος (ánthrōpos) = “人”。
这个词从一个普通形容词,演变成了宇宙学、哲学、AI 安全领域的核心概念。
第一层意思:普通的形容词
最早(约1806年),anthropic 就是个普通英语单词:
anthropic (adj.) = 与人类有关的,人类存在时期的
就像说”人类纪元”(anthropic era),没什么特别的。
第二层意思:人择原理(1974)
为什么宇宙”刚好”适合人类?
物理学家发现一个奇怪的现象:宇宙的物理常数如果稍微变一点点,人类就不可能存在。
比如:
- • 如果引力稍强一点,宇宙早就坍缩了
- • 如果引力稍弱一点,恒星和星系无法形成
- • 如果电子电荷稍不同,化学性质完全改变
宇宙像被”精细调节”过一样,刚好适合生命。为什么?
Brandon Carter 的回答
1974年,天体物理学家 Brandon Carter 提出”人择原理”:
弱人择原理:我们观察到的宇宙,必然是允许我们存在的宇宙。这不奇怪——如果宇宙不适合生命,我们就不会在这里问这个问题。
打个比方:
你中彩票了,很惊讶。但想想:如果不中彩票,你根本不会注意到这件事。只有中奖的人才会惊讶”为什么是我”。
这听起来像废话,但 Carter 用它反驳了当时对宇宙的过度解读。
强人择原理:宇宙必须允许观察者在某个阶段出现。(更激进,争议更大)
Barrow & Tipler 的书(1986)
John Barrow 和 Frank Tipler 写了《人择宇宙学原理》,把这个概念系统化,推向主流。
第三层意思:人择偏差(2002)
Nick Bostrom 的问题
哲学家 Nick Bostrom(牛津大学)觉得之前的讨论太混乱。2002年,他写了《Anthropic Bias》一书,提出了一个更深层的问题:
我们观察到的”证据”,可能被”我们存在”这个事实本身扭曲了。
什么是”观察选择效应”?
举个例子:
你想研究”人类平均身高”。你站在街上随机抽样。
问题:你只能观察到活着的人。死去的人、未出生的人,你都观察不到。
这就是观察选择效应——你的数据被”你存在并能观察”这个前提条件过滤了。
三个经典问题
Bostrom 用这个框架分析了三个问题:
1. 外星人存在吗?
我们观察到地球上有生命。能推出”宇宙中生命普遍存在”吗?
不能。因为我们只能在有生命的星球上观察。即使生命极其罕见,我们也必然在”幸运”的那个星球上。
2. 多重宇宙存在吗?
宇宙参数刚好适合生命。能推出”存在无数个宇宙,我们恰好在一个适合生命的宇宙里”吗?
这是人择推理的经典应用,但需要小心逻辑陷阱。
3. 人类快灭绝了吗?(末日论证)
我们是地球上第 600 亿个左右出生的人类。
如果人类会延续万亿年、产生数万亿人口,那我们处于人类历史的”极早期”——这很奇怪。
如果人类只能再存在几百年,那我们处于”中间位置”——这更合理。
结论:人类灭绝可能比我们想象的更近。
这个论证让人不安,但 Bostrom 认为值得认真对待。
核心概念
Bostrom 提出了两个原则:
自我抽样假设 (SSA):你应该把自己当作”所有观察者”中随机抽取的一个样本。
强自我抽样假设 (SSSA):你应该把自己当前的”观察者时刻”当作”所有观察者时刻”中随机抽取的一个。
这些原则帮助我们正确处理”我为什么是我”这类索引性问题。
第四层意思:AI 公司(2021)
Anthropic 公司
2021年,Dario Amodei 和 Daniela Amodei 兄妹创立了 AI 公司 Anthropic。
公司名字的含义
Daniela Amodei 在采访中解释:
“Anthropic 意思是’与人类有关的’。对我们来说,重要的是让人类保持在 AI 故事的中心。”
官方解释:以人为本。
与 Nick Bostrom 的关联?
- • Nick Bostrom 是有效利他主义 (EA) 和长期主义的核心人物。长期主义认为,积极塑造长远的未来是我们这个时代关键的道德优先事项。一篇长期主义的奠基性文章曾明确指出,“确保向变革性人工智能过渡顺利的技术研究”是一项值得投入的事业,并引用了伯克利大学教授、经典 AI 教科书合著者 Stuart Russell 在 2017 年 TED 演讲中关于AI 对齐与安全的论述。
- • Anthropic 创始团队与 EA 社区有深厚渊源
- • 公司使命是”构建安全的 AI”
- • 公司成立时间(2021年)紧随长期主义运动成形之后
思想脉络可能确实存在:Bostrom → EA/长期主义 → AI 安全 → Anthropic
但公司从未官方确认名称来源于 Bostrom 的”人择偏差”概念。
时间线:一个词的四层演变
| 年份 | 含义 | 提出者/使用者 |
| ~1806 | “与人类有关的”(普通形容词) | — |
| 1974 | 人择原理:宇宙参数受观察者存在条件约束 | Brandon Carter |
| 1986 | 人择宇宙学原理:系统化的宇宙精细调节理论 | Barrow & Tipler |
| 2002 | 人择偏差:观察选择效应引入的认知偏差 | Nick Bostrom |
| 2021 | 公司名称:以人为本的 AI 安全 | Anthropic |
总结
人择原理:宇宙为什么这么”刚好”?因为如果不刚好,你就不会在这里问这个问题。
人择偏差:当你从”我能观察到什么”推导”世界是什么样的”时,要小心——你的观察本身可能被”你存在”这个事实扭曲了。
Anthropic 公司:名字取”以人为本”之意,强调 AI 发展应该服务于人类福祉。
从希腊语的”人类”,到 Carter 的”宇宙为何适合我们”,到 Bostrom 的”我们的观察如何被存在本身扭曲”,再到 Anthropic 公司的”让人类保持在 AI 的中心”——这个词承载了人类对自身在宇宙中位置的持续追问。
randomplayer random player2026年3月15日 00:00广东
https://mp.weixin.qq.com/s/2UopJ3XBPIf5pGbt2a_KNQ