Skip to content
Published:阅读时间: 13 min read | 字数: 3414

Amanda Askell 学了一辈子哲学

牛津哲学硕士,纽约大学博士,研究方向是”无穷伦理学”——一个大多数人听到名字就会皱眉的领域。如果放在五年前,这份简历在硅谷大概只能换来一句礼貌的”我们暂时没有匹配的岗位”

但今天,她是Anthropic最核心的员工之一。她的工作是给AI模型Claude写”宪法”——据报道长达数万字的文件,用亚里士多德的德性伦理学,教一个机器什么时候该诚实、什么时候该克制、怎么在没有标准答案的灰色地带做出判断

一个哲学博士,成了硅谷最紧缺的人才

这不是孤例。Anthropic的联合创始人Daniela Amodei本科学的英文文学。Palantir的CEO亚历克斯·卡普学的是哲学和社会理论,在法兰克福大学师从哈贝马斯拿的博士。DeepMind的联合创始人穆斯塔法·苏莱曼曾在牛津学哲学和神学(后辍学创业)。硅谷甚至出现了一个新岗位——“首席讲故事官”(Chief Storyteller),据报道年薪30万美元

国内也一样。据猎聘2026年Q1报告,文科社科类岗位同比增长172%。字节、腾讯、阿里开出AI叙事设计师、AI伦理合规专家等新岗位,80%不要求工科背景,优先中文、哲学、历史、社会学

周鸿祎说:AI需要文科生来解决社会问题

问题来了——为什么?

不是”为什么文科生有价值”这种鸡汤式的问题。而是:AI产业内部到底发生了什么结构性变化,让一群本来不在这个牌桌上的人,突然被请上了桌?

这篇文章要做的就是拆这个”为什么”。一层一层拆

第一层:代码不值钱了

最表面的原因,也是最容易理解的一个

2024年之前,科技行业的稀缺资源是”会写代码的人”。但AI编程工具——GitHub Copilot、Cursor、Claude Code——正在把这件事变得不再稀缺

不是说程序员不重要了。而是”基础编码能力”从一种需要多年训练才能掌握的专业技能,变成了一种工具操作。就像Excel没有消灭会计,但”会用Excel”不再是一个值得写在简历上的竞争力

据猎聘同一份报告,传统纯编程岗位的招聘量在2026年Q1下降了约21%

这是供需的第一次反转:技术能力的供给在AI工具的帮助下暴涨,而需求没有同步增长。价格自然下跌

但这只解释了”为什么程序员没那么吃香了”,不能解释”为什么文科生突然吃香了”。供给侧的变化不会自动把需求转移到另一个群体身上

要解释那一步,需要看更深一层

第二层:AI撞上了一堵它自己砌不了的墙

AI现在可以写代码、画图、做PPT、写邮件、翻译、做数据分析。但有一类事情,它做得很糟糕,而且越聪明越糟糕——

判断什么该做、什么不该做

但这里有一个容易被忽略的地方:AI的问题其实不是”判断错了”。它经常判断对。真正的问题是——当它判断错的时候,没有人知道它为什么错了,也没有办法追溯错误的来源

一个AI可以写出一封完美的道歉信。但它不知道什么时候该道歉、什么时候不该道歉。它可以生成一个政治笑话,但分不清这个笑话是幽默还是冒犯。它能模仿任何人的写作风格,但不理解为什么模仿某些人是致敬而模仿另一些人是侮辱

而且,当它搞错了——把一句讽刺当成了攻击、把一个合理的诉求当成了违规——没有一个可以被审计的”判断过程”来解释为什么。它不是做了一个错误的决定,它根本就没有”做决定”的过程。只有输入和输出,中间是一个黑箱

这才是问题的核心:不是AI缺少判断力,是AI缺少可被追责的判断力

Amanda Askell在接受Fast Company采访时说过,她用的是亚里士多德的德性伦理学而不是硬编码规则,原因正在于此——道德判断不是”遇到A做B”的规则匹配,而是在模糊地带凭”品格”做取舍。你可以给AI一万条规则,但现实世界总会出现第一万零一种情况。这时候你需要的不是一个更大的规则表,而是一个有判断力的”人”——一个可以站出来说”我做了这个判断,理由是这些”的人

这就是文科训练的核心产出——不是任何一种具体技能,而是在没有标准答案的情况下做出合理判断、并且能够为这个判断负责的能力

中文系训练你分辨讽刺和冒犯。哲学系训练你在两个都有道理的选项之间做取舍。社会学系训练你理解一个行为在不同文化语境下意味着不同的事

这些能力以前没有市场价格。不是因为它们不值钱,而是因为以前没有买家

AI就是那个买家。或者更准确地说——AI的不可追责性,创造了那个买家

第三层:不是”AI需要文科生”,是”AI的买家需要文科生”

但如果你以为故事到这里就结束了——“AI不擅长判断→需要文科生来帮忙”——那就太简单了

再往下挖一层,会发现驱动这件事的力量不是技术需求,而是监管和商业压力

2024年以来,全球主要市场的AI监管都在收紧。欧盟的AI法案、中国的生成式AI管理办法、美国各州的AI透明度法案——所有这些监管的核心要求可以概括为一句话:你的AI必须对它的行为负责,而”负责”需要有人类可以理解和审计的判断依据

牛津大学的一项研究直接指出:社会必须”找到能承受相应惩罚和道德压力的人类”来为AI决策负责

换句话说,AI不是因为”想变好”才需要文科生,而是因为如果不变好,产品上不了线、过不了审、可能被罚款

对齐(Alignment)——教AI分辨对错——不是一种情怀投资。它是一项合规成本

Amanda Askell写的那份宪法,不仅仅是哲学的美丽实践,也是Anthropic向监管机构和客户展示”我们的AI是可控的”的核心资产

还记得苏打吗?那个985硕士,时薪30到60块给AI逐条打分。她做的事看起来很基础,但从合规角度看,她的每一次打分都在生产一样东西:可审计的人类判断记录。当监管问”你的AI为什么做出这个决定”时,公司需要拿出证据说”因为人类评估员认为这是合理的”。苏打就是那个证据的生产者

当对齐从”技术理想”变成”商业刚需”,文科生的判断力就从”nice to have”变成了”must have”。这是需求侧发生的结构性变化:不是大厂突然欣赏文科了,是大厂不得不为AI的行为后果买保险,而文科生的判断力就是那张保险单

第四层:为什么是现在?

如果判断力一直都重要,为什么偏偏是2025-2026年集中爆发?

因为AI刚好走到了一个特定的技术阶段

在这个阶段,AI”足够聪明”到可以在大多数场景下自主运行——不需要人类逐行审核它的每一个输出。但又”不够聪明”到能自己判断什么该做什么不该做——它需要人类提前教它

这个窗口期很特殊。AI既强大到需要被管教,又笨拙到只能靠人来管教。 这就创造了一个对”人类判断力”的集中需求

技术上,这个阶段的主流方法叫RLHF(Reinforcement Learning from Human Feedback)——用人类的反馈来训练AI的行为。简单说就是让人一条一条地告诉AI:这个回答好,那个回答不好,这种情况该拒绝,那种情况可以回答

Amanda Askell做的是这件事的高端版本——不是逐条打分,而是写出整体的价值观框架。苏打——那个985硕士——做的是这件事的基础版本——逐条打分,时薪30到60块

所以”为什么是现在”的答案是:AI技术刚好处于一个需要大量人类判断力输入的中间阶段。不早不晚,窗口期打开了

第五层:窗口会关上吗?

到了这一层,就不得不面对一个更深的问题

大厂今天愿意付月薪3万买文科生的判断力。但这个判断力一旦被编码进AI系统,会发生什么?

AI对齐领域正在探索从大量依赖人类反馈(RLHF),转向更自动化的方法——用AI来监督AI(Constitutional AI),用合成数据替代人工标注。这不是确定的未来,但它是一个可观测的趋势

据36氪报道,苹果2024年撤并了圣迭戈的Siri数据标注团队(121人)。特斯拉裁了200名视频标注员。xAI在2024年9月裁了500名数据标注员。据报道,成熟的文本模型已能替代大部分人工标注

这揭示了一个结构性的张力:大厂今天对文科生判断力的需求,很大程度上是为了”教会AI”。而教会的意思是——教完之后可能就不需要老师了

但这并不意味着所有文科生都会被淘汰。关键在于你做的是哪种工作

Amanda Askell做的事——在价值观层面为AI制定整体框架——这件事可能长期存在。因为社会的价值观在变,新的伦理困境不断出现,总需要有人去判断AI还没见过的灰色地带

苏打做的事——逐条给AI打分——这件事的自动化替代风险就高得多。因为一旦AI从足够多的打分数据中学到了”好坏”的模式,它可以自己给自己打分

区别在于:你是在提供不可替代的判断框架,还是在提供可被学习的打分数据?

回到那个最初的问题

大厂月薪3万抢文科生,到底在抢什么?

拆到这里,答案有五层——

表面上,是技术岗贬值后的劳动力市场调整

往下一层,是AI撞上了”价值判断”这堵自己砌不了的墙,需要人类来帮忙

再往下,是监管和商业压力把”对齐”从理想主义变成了合规刚需,文科生的判断力第一次有了明确的买家

再往下,是AI技术恰好处于一个特殊的中间阶段——强到需要管教,弱到只能靠人来管教——窗口期打开了

最深处,是一个关于”人的判断力”的根本性问题:它是一种永远稀缺的能力,还是一种正在被采集的资源?

Amanda Askell 用亚里士多德的德性伦理学写了AI宪法。这份工作的深刻之处在于:它赌的是人类的道德判断不能被简化为规则——所以需要用”品格”而不是”条目”来训练AI

但如果有一天AI从这份宪法里学到了足够多的”品格模式”,能在新情境中自己做出”足够好”的判断呢?

Amanda Askell还会被需要吗?

我不知道。但我知道的是——这个问题本身,就是为什么大厂今天愿意出月薪3万找一个哲学系毕业生的原因

因为到目前为止,只有人类能回答这种问题