昨晚,AI新贵Anthropic (后文简称为 A 社)并没有发布Claude新模型,而是推出了一个看起来特别「无聊」的东西:The Anthropic Institute(Anthropic研究院,简称 TAI)。
相较于2026年流行的Harness Engineering(驾驭工程)而言,TAI要解决的问题更加宏大。按照 Anthropic 公布的研究议程(anthropic-institute-agenda),TAI重点关注四个方向:经济扩散、威胁与韧性、实际应用中的 AI 系统,以及 AI 驱动的研发。TAI还面向全球发布“英雄帖”,招募研究员一起工作来解决以上这些问题。
(图片来源:X@Anthropic 官方)
也就是说,A社(Anthropic简称)成立了一个内部组织,主要研究人类如何与AI相处:
可能很多读者会觉得这不过是个常规的AI企业的动作,但雷科技认为这可能是 A 社近期最值得关注的一次动作。TAI对AI产业以及人类的积极影响,如同谷歌当年提出「不作恶」的这一价值信条之于互联网产业一般。所以雷科技AGI才说,这是一次不亚于重大模型升级的「发布」。
TAI 的首要研究方向是Economic Diffusion(经济扩散)。
回顾人类历史上的前三次工业革命,无论是珍妮纺纱机、轰鸣的蒸汽机,还是后来的电力和流水线,它们替代的本质上都是极其廉价且重复的体力劳动。然而,AI 掀起的第四次工业革命截然不同,它直接进入了人类最引以为傲的脑力工作区。
而 TAI 指出的核心矛盾便是:工具升级了,打工人的处境反而变得更差了。
在研究文案中 ,TAI 提到,如果未来 3 个人借助大模型,能干完过去 300 人的活儿,这个公司到底会变成什么样?
设计师用 AI 能一键搞定最繁琐的图层和素材,程序员用AI 能Vibe Coding……假定AI能提高75%的工作效率,但这不会让人类工作制从8小时(甚至996)压缩到2小时,相反,人类可能需要多干五倍的活。
TAI 在意的就是「有了 AI,你的工作量就得翻几倍」的新逻辑。为了量化这一情况,TAI 给出了一个新名词The Anthropic Economic Index(Anthropic 经济指数)。A 社表示它们并不会只发布一些没什么人关注的学术论文,而是打算把这套真实数据扒出来,明明白白地告诉人类:AI 到底在哪几个行业里悄悄取代了原本属于人类的岗位?那些初出茅庐的新人们是否会出道即被「淘汰」?
(图片来源:AI 生成)
不仅如此,TAI 还把这笔账算到了现实世界中。我们都知道大模型是一只永远不会饱腹的「吞金兽」,我们每一次利用 AI 生成文字、图片、视频甚至是一次简单的询问都会烧掉大量Token,Token底层是算力,算力底层是芯片、存储、电力,如果再深究一层还有碳排放、资本等等。资源永远是有限的,当社会将海量资源都倾斜给 AI 时,别的行业一定会受到波及。
2026年,大家最显著的感受是:AI导致的内存与存储短缺直接导致了消费电子普遍涨价,甚至手机厂商也被迫降低了新机推出的意愿。但与此同时,所有手机厂商都寄望于用AI来重塑产品逻辑,延长手机产品生命周期,OpenAI的原生AI手机也已被提上日程。当每个人受益于AI时,更多产业在被AI深刻影响,好的,坏的都有。
而TAI 要用「经济指数」,把AI对经济的影响,从抽象的感知量化成数据模型:只有将问题搞清楚了,才有可能解决问题。
如果说丢饭碗是钝刀子割肉,那么AI 对人类大脑思考思维的转变,就是直接伤害。
最先遭殃的,必然是互联网。你不难发现,如今的互联网正在变成一座「屎山」,以前搜旅游攻略能轻松找到不少踩坑避雷的攻略帖,如今却全是 AI 看似制作精美、排版美观但全是一本正经瞎编的废话。
更要命的是,AI将灰色产业的门槛也降到了零:用 AI 换脸造黄谣、克隆亲人声音搞电信诈骗,骗子只是烧掉一些Token就能毁掉普通人的生活。
TAI 还关注到了更深一层的危机:AI 在不知不觉间让人类变得越来越「傻」。
此前曾有中国用户在野外看到不认识的野生菌,随手拍张照发给AI问「这玩意儿能吃吗」,AI 一本正经地把剧毒蘑菇鉴定成「可食用的美味口蘑」;还有小朋友拿着一个老鼠夹问 AI 这是什么,AI 煞有介事地分析说这是一个「方方正正、带有金属结构的废弃卡丁车小玩具」,结果孩子好奇上手一摸,手指被死死夹住。
这些新闻听起来像地狱笑话,但它揭示了一个现象:AI 最大的特点根本不是聪明,而是「迷之自信」。AI 永远无法做到 100% 准确,Google Gemini最新模型大约能做到91%的事实准确度已是高水平。但不少用户却在使用 AI 的过程中潜移默化中放弃了思考,习惯性地把一切决定权都「外包」给了一串代码。
对此,TAI 甩出了一个引人深思的问题:当全社会很大一部分人,都在向仅有的那么两三个大模型寻求建议时,人类群体的思考模式和解决问题的方法,会发生怎样可怕的「同质化」?你以为在用 AI工具提高生产效率和认知水平,实际上是在「外包大脑」。换句话说,如果所有人都开始依赖AI,很有可能会让人类丧失自主思考能力,让全人类的脑子变成同一个模子里刻出来的复制品。
TAI 还提出了一个新的概念:双重用途(Dual-use capabilities),官方的解释是:如果一个 AI 模型在生物学上的能力变强了,那它不仅能用来研发新药,它同样能用来制造极其致命的生物武器;如果一个 AI 写代码的能力很出色,那它不仅是个好程序员,它同时也成了一个能轻易黑进国家内网的黑客。
(图片来源:Anthropic 官方)
当这种带有「双重用途」的怪物,大规模接入自动驾驶汽车的大脑、接入工厂的重型机械臂、甚至被接入安防系统和无人机群时,会惹出多大的祸?在手机里,AI会弹出一句「对不起,我做错了」;但在现实里,识别偏差一秒,就是实打实的安全生产事故。
更别说大模型几个礼拜就能迭代一波,但人类去修改一条法规、但人类修改法律、完善保险都是按「年」来算的。这中间空出的时间,就是防御力最低的「裸奔期」。当各种由 AI 引发灾难发生时,如今的社会根本没这个「韧性」去承担。
为了解决这个问题,TAI成立了Frontier Red Team(前沿红队)。这帮人的任务很简单也很抽象:每天变着法子去攻击和引诱自己开发出的AI 智能体,以便摸清这玩意儿在现实世界中到底会带来多大的破坏力,为的就是要在社会这套老旧系统彻底崩溃之前,强行拉起一道防线。
以前,主导AI进化速度的是人类程序员,但如今高级大模型能自己翻论文、写代码,可能在不久的将来就能自己研发新一代大模型,当 AI 自我套娃的速度越来越快,技术的进化马上就要甩开人类的认知。
(图片来源:AI 生成)
为了应对这个随时可能到来的奇点,TAI 提出了一个新的概念:开展针对智能爆炸的Fire drill scenarios(消防演习)。
简单来说 TAI 准备拉着顶尖实验室的高管以及各国政府来一次沙盘推演:他们要在「智能爆炸」真正发生之前,提前测试人类到底有没有能力踩下刹车。
在这个全行业都在闭眼狂奔的节骨眼上,回过头来看 Anthropic 设立 TAI 的这波操作,确实让人有些「肃然起敬」。
隔壁的 OpenAI 每天登上热榜的的不是高管离职内斗,就是跟马斯克的烂账官司。还有许多 AI 公司业绩惨淡,却一边想法设法“刷榜单”,一边四处融资圈钱,靠着虚高的估值吸纳着社会资本。A社TAI要讨论的话题业界一直都在讨论,但大多数AI巨头的态度却是“管它呢,先发展再说”。在这种极度浮躁的氛围里,A 社却来了一脚刹车,把这些见不得光的烂摊子堂而皇之地摆到了台面上,表明了对AI的新态度:一边发展,一边治理。
A社也不是慈善机构,它不是圣母心爆发,而是在下一盘很高明的商业棋。如今那些手握大权的金主和政府,早就被 AI 引发的各种翻车事故搞怕了:买个模型回去,跑分高一点低一点无所谓,最怕的是它突然发疯惹出大祸,届时根本无法收场。而A 社用 TAI 给自己凹了一个「正常人」的人设,让用户放心,让世界信任。
(图片来源:AI 生成)
在TAI这篇文章最后其还明确提到:TAI 所有的研究成果和早期预警,都将直接输入给 Anthropic 的一个核心机构——Long-Term Benefit Trust(长期利益信托)。这个LTBT的使命就是死死盯住公司的商业决策,确保 Anthropic 的每一次动作,都是为了全人类的长期利益,而不是追求短期的财报利润。
这跟当年谷歌那句名震江湖的「不作恶」一模一样:通过 TAI,A 社在告诉全世界,当同行都在比谁飙车快时,我们不仅跑得快,我们还在研究怎么刹停。
指望科技巨头自己监督自己,确实有点扯淡,但在现在这个所有人都蒙着眼把油门焊死狂奔的年代,能有一个头部玩家主动成立 TAI 这样的研究院,拿真金白银去搞经济指数、去推演智能爆炸、去研究人类脑子的退化,这本身就值得说道说道了。所以雷科技在开篇就表示,TAI 的发布要比 A 社直接发布一个新模型更重要。
在Anthropic研究所(TAI),我们将利用前沿实验室所能获取的信息,研究人工智能对世界的影响,并将我们的研究成果与公众分享。在这里,我们将分享驱动我们研究议程的问题。
我们的研究议程主要集中在以下四个领域:
在《人工智能安全核心观点》一文中,我们指出,开展有效的安全研究需要与前沿人工智能系统密切接触。同样的道理也适用于开展关于人工智能对安全、经济和社会影响的有效研究。
在 Anthropic,我们已经初步看到软件工程等工作正在发生根本性变革。我们正目睹 Anthropic 内部经济结构开始转变,我们构建的系统也面临着新的威胁,人工智能的早期迹象正在加速人工智能自身的研发进程。为了充分发挥人工智能进步的益处,我们希望尽可能多地分享这些信息。我们正在研究这些动态变化将如何影响外部世界,以及公众如何能够帮助引导这些变革。
在 TAI,我们将从前沿实验室的角度研究人工智能在现实世界中的影响,然后公布这些研究结果,以帮助外部组织、政府和公众更好地就人工智能发展做出决策。
我们将分享研究成果、数据和工具,以便个人研究人员和机构更轻松地开展这些研究课题。具体而言,我们将分享:
TAI 将影响 Anthropic 的决策。 这可能表现为该公司与外界分享一些它原本不会分享的数据(例如经济指数),或者以不同的方式发布技术(例如网络威胁分析,这些分析为“玻璃之翼”项目等计划提供了数据支持)。
我们预期,TAI研究所开展的研究工作将日益成为Anthropic长期利益信托基金(LTBT)的重要参考依据。LTBT的使命是确保Anthropic持续优化其行动,以造福人类的长远利益。我们与LTBT以及Anthropic各部门的员工共同制定了这项研究计划。
这是一份动态的议程,而非一成不变的。我们将随着证据的积累不断完善这些问题,并且预计会出现一些今天尚未涵盖的新问题。我们欢迎大家对这份议程提出反馈意见,并将根据我们通过讨论获得的信息对其进行修订。
如果您有兴趣帮助我们解答这些问题,我们欢迎您申请成为Anthropic研究员。该研究员项目为期四个月,由TAI团队成员指导,您将有机会研究一个或多个相关问题。您可以在这里了解更多信息并申请下一期项目。
最后更新日期:2026年5月7日
经济扩散
了解日益强大的人工智能系统的部署如何改变经济至关重要。我们还需要开发必要的经济数据和预测能力,以便选择能够造福公众的人工智能部署方式。
为了解答本研究这一支柱中提出的问题,我们将进一步完善《人类经济指数》中的数据。我们还将探索其他方法,以改进我们关于强大的人工智能如何影响社会的模型,无论这种影响是导致失业、前所未有的经济增长,还是其他方面。
人工智能的应用与扩散
生产力和经济增长
广泛的劳动力市场影响
工作和工作场所的未来
威胁与韧性
人工智能系统往往能够同时提升多种能力,包括两用能力。例如,生物学能力提升的人工智能系统也更容易制造生物武器。计算机编程能力强的人工智能系统也更容易入侵计算机系统。如果我们能够更好地理解人工智能系统可能加剧的威胁,社会就能更容易地应对这种变化的威胁形势。
我们提出这些问题,旨在帮助建立合作伙伴关系,以增强世界应对变革性人工智能的能力,并建立针对可能出现的新威胁的预警系统。其中许多问题将指导我们前沿红队的研究议程。
评估风险和两用能力:
制定风险缓解措施:
用于监视的情报能力
实际应用中的人工智能系统
人与组织和人工智能系统的互动将成为社会变革的重要源泉。了解人工智能系统可能如何改变与其互动的人和机构,是我们社会影响团队的核心研究领域。为了研究这些变化,我们正在改进现有工具并开发新工具来开展研究,涵盖了从提高平台可观测性的软件到用于进行大规模定性调查的工具等各个方面。
人工智能对个人和社会的影响:
识别人工智能带来的重大影响:
理解和管理人工智能模型:
人工智能驱动的研发
随着人工智能系统功能日益强大,科学家们正利用它们开展越来越多的研究。这意味着越来越多的科学研究在越来越少的人工干预下,以自主或半自主的方式进行。在人工智能研究领域,功能日益强大的系统可能被用于开发自身的后续版本。我们有时将这种模式称为“人工智能驱动的人工智能研发”。
人工智能驱动的人工智能研发或许是打造更智能、更强大的系统的“自然红利”。正如编码能力的进步催生了军民两用的网络能力,科学能力的进步可能催生军民两用生物能力一样,复杂技术工作的进步也可能自然而然地产生能够自我开发人工智能系统的人工智能系统。
人工智能驱动的人工智能研发本身蕴含着巨大的潜在风险。政策制定者在评估可采取的措施时,至关重要的是要了解人工智能发展速度的变化趋势,以及人工智能研究是否会开始产生复利效应。
人工智能用于人工智能研发
人工智能在研发领域的应用——即人工智能驱动的其他领域的研究:
本文来自微信公众号“价值研究所”(ID:jiazhiyanjiusuo),作者:定西


