禅世界论坛

<- 社交账号登录。或禅世界会员登录【论坛使用帮助】
Meta AI华人科学家田渊栋:“AI...
 
Notifications
Clear all

Meta AI华人科学家田渊栋:“AI没有上限,现在只摸到了智能的边”

3
1 Users
0 Reactions
172 查看
Many
 Many
(@many)
Illustrious Member Admin Registered
已加入: 9 年 前
帖子: 12334
Topic starter  

Meta AI华人科学家田渊栋:“AI没有上限,现在只摸到了智能的边”

2025年07月24日 07:12 

 

  AI的发展就像一场洪水,如果说每个人的职业技能是高低不等的山峰,洪水来了,那些较低的山峰就会被淹没。关键是发掘自己的独特性,利用AI去做自己想做的事。

Meta AI Research(FAIR)研究科学家总监 田渊栋。来源:受访者供图

  在写下30万字的《破晓之钟》之前,田渊栋正在美国卡内基隆大学机器人(17.3700.311.82%)研究所攻读博士学位。科研生活的艰辛和苦闷激发了他的创作欲。在这本非常硬核的长篇科幻小说《破晓之钟》里,他说书中的人物“大师兄”研究员某种程度上有他自己的影子。

  “一开始非常渴望做出震惊世界的科研成果,但入校后才发现,原来全世界最聪明的人都在做科研,你能力不够。”他在书里展现了科研工作者的“痴”,对科研痴迷,也对人性困境的痴迷。

  出生于上海的田渊栋从上海交通大学研究生毕业后,2013年在美国卡内基隆大学机器人研究所获博士学位,后加入Meta GenAI担任研究科学家。如今他已是AI领域的重要华人研究者、科幻作家。

  但对于他来说,AI研究员这一身份是他赖以生存的土壤,而脑子里那些“不靠谱”的想法则靠科幻文学来表达,他说自己在理性和感性之间找到了一条平衡之道。

  在和澎湃科技(www.thepaper.cn)长达近两个小时的专访中,这位思维活跃的AI研究员坦诚地表达自己对AI未来走向的看法:乐观和担忧并存。作为AI研究员,他对AI未来的发展非常乐观,但作为一名依然关注社会发展的科幻作家,他又有些担忧。

  AI的发展现在看下来似乎没有上限,他的想法和有“人工智能教父”之称的杰弗里·辛顿(Geoffrey Hinton)一样。辛顿曾在一场深度专访时表达对人工智能技术发展的担忧,他的观点是,AI替代的是认知劳动,当一个社会中的“普通的智力”不再具有价值时,绝大多数依赖脑力劳动的工作岗位将被颠覆。

  在田渊栋看来,“AI的发展就像一场洪水,如果说每个人的职业技能是高低不等的山峰,洪水来了,那些较低的山峰就会被淹没。”

  不过,他认为也不用太过担忧,现在大模型的算法效率并不高,对于使用者来说,目前“我们只是摸到了智能的边。”很多时候,我们可以利用AI去探索真正想做的事情。“你平日的生活可以是码农,但你可以利用AI成为一名作家或音乐家。”他建议,我们应该转换成更偏向于科学家的思维,即一个人一生中只要做出一两件让大家惊叹的事情就足够了。

  在科幻小说的世界里,他从第一性原理出发,去思考人类未来在人工智能时代的可能性,我们在浩瀚无垠的未来世界里,如何自处?又如何审视Ta所做的决定?在现实生活里,他作为AI研究员,也从未停止对大模型背后的机制思考和追问。

 

  田渊栋的科幻小说《破晓之钟》

  【以下是澎湃科技专访内容】

  “现在大模型的算法效率并不高”

  澎湃科技:你是Meta GenAI的研究科学家,很好奇你现在的工作状态和对当前大模型的看法?

  田渊栋:我们研究组整体也专注在大模型的研发上,我们的目的希望把大模型做得更好,整体工作氛围比较紧张。

  从技术来看,现阶段大模型整体还是很受限,因为我们最终希望大模型能够对语言能有所理解,语言意味着模型能力的上限。我认为,大模型的智能程度需要比人有更深刻的洞察和见解,即“Insight”,这部分目前模型还没有做得特别好。

  大模型需要海量数据(15.0800.191.28%)(维权),这些数据量可能是人类一生阅读量的千倍或者万倍。我们曾经计算过,一个人即使不眠不休地阅读100年所能接触到的文本量大约在1000亿词汇量级,而目前训练AI模型需要的Token(词元)在10万亿量级,所以人与机器在获取信息量上存在巨大的差异。

  但人类拥有敏锐的洞察,对问题的理解深入方式是计算机无法比拟的。对于科学研究或攀登人类智慧高峰这种方向来说,大模型的数据学习效率非常低。一个优秀的专家可能只需通过研究一两个新颖的课题,就能发现其中重要的洞察点,思考如何改进。但大模型目前尚无法做到这一点。

  我认为最本质的原因还是现在大模型的训练算法不是特别高效。所以说我们现在还只是“摸到了智能的边”。我们在各种试错的方案过程中找到了神经网络的范式,这个框架能够比较好地对世界数据进行建模,能够产生类似智能的内容,但是否能达到人类的效率,目前尚不清楚。

  澎湃科技:业界也有科学家质疑过Scaling Law(尺度定律)的训练路径。你怎么看?

  田渊栋:现在看下来,AI没有上限。我的观点是,虽然通过 Scaling Law确实能带来大模型性能上的提升,但这种提升所需的时间和代价是巨大的。Scaling Law的横轴是指数级的,而纵轴是线性的,这意味着,为了获得线性的性能提升,我们需要投入大约十倍的各种资源。如果缺乏足够的数据、算力我们迟早会因为资源获取能力受限而停滞不前,最终可能导致所有人被卡在这一瓶颈上。

  所以我们不应该仅仅依赖 Scaling Law 来实现强大的功能。相反,我们应该更多地依赖对模型本质的理解,或者对算法进行本质上的修改,从而在更优的成本下达成目标。这确实是一条更具挑战性的研究路线,但可以通过各种深入研究来解决。

  澎湃科技:大模型现在已经展现出它比较强的推理能力,还有哪些问题是你想继续深入研究的?

  田渊栋:还是在实现智能上。如果大模型是一种实现智能的解决方案,但这个解决方案是人类摸索出来的,背后究竟为什么而生?又或者是通过怎样的方式?数据本身又是怎样的结构能让大模型有这么好的效果?这正是我想持续深入研究的问题,比如神经网络和生物学习怎样运转有效果?这或许是很核心的问题,属于百年之内不一定成功,但我可以去尝试的问题。

  我认为,在这个环境下,大家今后可能会更倾向于深度思考。例如之前我们谈论的公平和正义问题,在研究领域已经有很多相关的讨论,比如著名的“不可能三角”理论,现在很容易得到的思想和观念,AI已经学习和掌握了。

  澎湃科技:现在AI应用出现大爆发,国内也是如此,这些爆发性的应用往往是由少数人组成的小团队完成的。

  田渊栋:我认为这确实是一个趋势,在 AI 时代,许多执行层面的工作已被 AI 取代,我甚至不需要招聘人手。AI 能完成大部分代码工作,你只需要稍作修改。不过,这也需要具备几个关键要素。

  一方面,很多执行层面的工作,其实内容高度重复且容错性较强。高度重复意味着有大量数据可用,容错性强说明即便大模型有诸如幻觉这样比较难解决的问题,其结果仍然可以发布,也可以通过让人站“最后一班岗”来解决。

  另一方面,大模型的发展速度很快,并且在这个领域里大家已经开始达成了共识,从“等第一个吃螃蟹的人”到“再不加入就晚了”,这种思维转变可能会在极短的时间内完成。如果主事的人开始有这样的转变,那这种趋势的发展是必然的。

  现在的模型能力已经比较强了,能够完成很多任务;此外,模型调用的价格比较低,未来,模型的API价格每年继续成倍下降都非常有可能的。

  澎湃科技:你观察到中国团队和美国团队在大模型竞争中有怎样的差异?

  田渊栋:中国团队的优势在于,执行非常快,因为执行快一直是中国团队的优势,大家也不怕加班;短板可能在于,方向上可能不够有创新性,短期内可能会一拥而上,出现反常识的东西其实很难。在硅谷,总会有一两个人想跳出来说,“不对,他想要做点别的”,这可能是中美文化比较大的区别。

  “AI会像一场洪水”

  澎湃科技:你现在对AI未来的发展态度是怎样的?乐观还是有担忧的地方?

  田渊栋:作为AI研究者,我当然持乐观态度。

  我一直在强调,AI 会像一场洪水。如果说每个人的技能是高低不等的山峰,洪水来了,那些较低的山峰就会被淹没。这意味着,你原本赖以谋生的技能可能会被 AI 取代,导致很多人难以找到新的工作,比如一些基础的行政/助理类/还有基础写代码工作。

  这种情况正在发生,并且很快会波及所有人,因为 AI 的普及速度非常快。最关键的是,每个人能否找到自己真正想做的,并且与众不同的事情,也就是发掘自己的独特性。

  怎么挖掘自己的独特性?关键在于,利用 AI 去做你想做的事情。当大家开始使用 AI 后,你可能会发现以前每天需要花费 8 小时以上才能完成的工作,现在只需要 1 小时就能搞定。AI 实际上给了我们更多尝试的时间,你可以利用这些时间去探索你真正热爱的事物。比如平日工作是码农,也可以利用 AI 工具成为一名作家或音乐家。我认为这是未来发展的趋势。

  澎湃科技:我们需要和AI竞争吗?

  田渊栋:在执行层面,人类已经没有必要与 AI 竞争,因为你没办法超越它。

  很多时候,我们应该转换成更偏向于科学家的思维:比如一个人一生中只要做出一件让大家惊叹的事情就足够了,为此对生活做什么样的安排,各人随意。比如说我个人还是相对比较“卷”的,严格意义上说,我没有娱乐时间,会一直去思考一些有意思的事情。

  澎湃科技:未来,我们和工作的关系是不是也会发生变化?

  田渊栋:未来,工作可能不再仅仅只是一个“工作”。过去,薪资水平往往与工作量挂钩,譬如加班多、工作量大就能获得更多报酬。但未来,工作量可能不再那么重要,因为重复性的工作AI就能完成。取而代之的,是你的智力或创造力。比如,你发表了一篇开创性的文章,或者创作了一幅极具价值的画作,人们会为此付费。

  现在很多公司的考核体系往往是滞后时代发展的,关于绩效考核,我大胆预测未来一定会改变。

  很多变化已经在硅谷发生了。比如,在硅谷,裁员现象开始出现,原本计算机专业毕业生非常“吃香”,工作机会众多,但现在这种强劲的上升趋势已不复存在,反而有所下滑。因为大型科技公司发现,通过精简人员和增加工具(AI)的使用,效率可能会更高。所以,整个行业都在发生变化。

  澎湃科技:如果我们每个人都想拥有自己的AI bot,你有什么建议?

  田渊栋:我认为最好的方式,是大家都能学会自己写代码。现在已经到了人人都能写代码的阶段了,每个人都可以尝试自己写一段代码。AI可以帮你写代码。如果你学会了如何与AI协作编写代码,你就能做很多事情。通过这种为自己制造工具的方式,未来你会有无限的可能。

  我觉得这是一个非常有趣的尝试。当然,如果暂时无法自己写代码,也可以依赖各种第三方软件。现在有很多小公司开发了这类工具,它们可以完成很多任务,比如各种插件,或者像ChatGPT、Manus这类平台,你可以通过与它们互动,慢慢地掌握如何有效地利用它们。

  澎湃科技:我看你在个人总结中提到你的女儿,未来你会严格控制她使用手机和电子设备的频率吗?作为父亲,你会担心她沉迷吗?

  田渊栋:她目前很喜欢和人交流,而且没有沉迷手机,但我肯定还是会担心,特别是在 AI 和机器人普及后,“它们”会无条件顺从孩子,提供一个高度安全且保护性的环境。然而,作为一个成熟的人,孩子必须学会面对不确定性,应对负面评价甚至伤害性言论,并懂得如何处理这些情况,这很难。如果孩子从小就多与人互动,多接触真实环境,他们自然会建立起这种适应能力。

  澎湃科技:为什么现在会出现和AI恋爱、AI虚拟陪伴?

  田渊栋:因为人们知道AI已经被调教成不会背叛你的角色,而且说话也非常友善。

  “靠谱的想法做科研,不靠谱的想法写小说”

  澎湃科技:你写的《破晓之钟》这本书里有各类科研人员困境的描写,这是基于你自己的科研经历吗?

  田渊栋:这本书里提到了很多科研人员的困境。比如,书中的大师兄研究员,他是一个代表科研人员典型困境的角色。他非常渴望做出震惊世界的科研成果,但他能力不够。

  很多博士生都曾经历过这种“科研折磨”,第一年信誓旦旦要拿诺奖,第五年博士毕业可能找不到工作。大家最初都抱着崇高的理想去做科研事业,但后来发现找不到路,或者没有办法承受科研事业的各种折磨之苦。

  我也是这段路程中的过来人。因为全世界最聪明的人都在做科研,除非天赋异禀,不然你不可能一上手就比别人更厉害,只能靠自己一点一滴去积累。

  每个人的出发点和个性导致他们最终走的那条路是不一样的。在写作时我也会带入自己观察自己,好高骛远的心态我当初也有过,只是后面慢慢变得更实际,找到了脚踏实地的方法。

  我现在也找到了一种平衡之道,靠谱的想法做科研,不靠谱的想法写进小说。

  澎湃科技:写科幻小说会担心技术发展太快,写的技术过时了吗?

  田渊栋:我个人并不担忧,这其实是科技发展的必由之路。过去,科幻作品往往能超前现实一两百年,但现在,如果你不及时动笔写,这本书就没用了现在你也会有自己的写作工具让你的速度变快,我觉得最重要的是是否能持续探索出有意思的新范式,把你自己的思路和想法完全呈现给读者。

  澎湃科技:科研人员跨界写科幻小说,有哪些职业病?

  田渊栋:科研人员在写小说时,往往热衷对某些科学机理的阐释,比如《破晓之钟》这本书里面总会有几段专门解释事物是如何产生的。这或许是科研人员的职业病。

  我经历过科研,也在Meta担任过管理者,所以书里面自然会有处理人际关系和“政治”关系的讨论。理工科的人相对比较现实,因为他们处理的是现实世界中的问题,所以后期我也反思过,《破晓之钟》可能缺少一部分浪漫主义色彩,浪漫的成分不够。

  澎湃科技:你现在会用AI写小说吗?

  田渊栋:我有尝试用Gemini2.5 Flash/Pro 写,效果还不错,当然很多地方仍有待改进。比如AI写得有点俗气,最麻烦的地方在于,AI没有办法立意。

  我在创作的过程中,那些有意思的高潮段落或者人物性格的发展,我会坚持自己来写,这些内容可能是我过去的经历,或者是我对于生活的观察,这是“人的部分”,当我核心部分构思成熟后,那些次要人物的行为和互动,这部分工作是AI可以完成的。

  澎湃科技:AI时代,大家想看的是什么?

  田渊栋:这是一个很好的问题,我觉得应该是现在快节奏了,大家只关注跟生活息息相关、让自己过得更好的内容。另外一种内容是让自己爽。

  澎湃科技:听说你现在已经开始构思你的第二部小说了,你想继续探讨的核心问题是什么?

  田渊栋:第二部小说在情节上会继续向前推进。第一部《破晓之钟》主要讲述外星人来到地球时正处于人工智能时代。从这个角度看,既然我们人类已达到如此高的智能水平,这些超越人类的外星智能,他们对地球到底有何企图?他们的需求是什么?来到这里的目的又是什么?这个问题在不同时代会有不同的答案。

  比如在过去机械文明时代,人们可能会觉得外星人是殖民者,会来占领土地、奴役人类。但在信息时代,我们人类对世界的认知已上升到新的台阶。在这种情况下,如果有比我们更强大的外星文明降临,他们到底会想要什么?这是一个问题。

  另一个问题是,在科幻世界里,对于已经实现了永生和“所见即所得”的人类,他们的社会形态会是怎样的?大家想要通过什么样的方式生活?



   
引用
Many
 Many
(@many)
Illustrious Member Admin Registered
已加入: 9 年 前
帖子: 12334
Topic starter  
田渊栋的年终总结:离开Meta后的去向以及关于AI的思考
 

 

这份年终总结里,田渊栋也透露今后的就业方向,去当一家新初创公司的联合创始人,但其他具体细节暂不公开,“希望能安静地忙一段时间。”田渊栋说。

田渊栋也表示,在这个AI能力极其充沛的时代,巨大的便利往往伴随着巨大的陷阱。唾手可得的便利,会让许多人逐渐失去思考的动力,久而久之丧失原创能力,

个人如何保持原创力?

田渊栋认为,从战术上,我们需要学会不停地审视AI的答案,挑它的毛病,并找到它无法解决的新问题。从战略上来看,无论主动还是被动,每个人都将面临从“员工”角色向“老板”或“创始人”角色的转变。如果心中有一个坚定的目标,并愿意动用一切手段(包括将大模型作为核心工具)去达成它,那么主动思考就是自然而然的结果。目标越远大,触发的主动思考就越多,激发的潜力就越大。

——以下是田渊栋的2025年终总结(略有删减)

在2025年1月底被要求加入Llama4救火的时候,作为一直以来做强化学习的人,我事先画了一个2x2的回报矩阵(reward matrix),计算了一下以下四种可能(虽然在那时,因为来自上面的巨大压力,不同意是几乎不可能的):

田渊栋画的2x2的回报矩阵(reward matrix)

 

当时想的是我们去帮忙的话,即便最后项目未能成功,也至少尽力而为,问心无愧。不过遗憾的是,最后发生的是没在计算之内的第五种可能,这也让我对这个社会的复杂性有了更为深刻的认识。

尽管如此,在这几个月的努力过程中,我们还是在强化学习训练的核心问题上有一些探索,比如说训练稳定性,训推互动,模型架构设计,和预训练/中期训练的互动,长思维链的算法,数据生成的方式,后训练框架的设计等等。这个经验本身是很重要的,对我的研究思路也带来了不小的转变。

另外其实我也想过在公司十年多了,总有一天要离开,总不见得老死在公司里吧,但总是因为各种经济上和家庭上的原因还是要待下去。最近一两年的说话和做事方式,都是抱着一种“公司快把我开了吧”的心态,反而越来越放开。2023年年末我休第一个长假的时候,其实几乎差点要走了,但最后没签字还是选择待在公司继续,所以说真要做出离开的决定也不容易。现在Meta帮我做了也挺好。

这次波折和今年一年的起起落落,也为接下来的小说创作提供了非常多的新素材。所谓“仕途不幸诗家幸,赋到沧桑句便工”,生活太平淡,人生就不一定有乐趣了。还记得2021年年头上的时候,因为在年末工作总结里面写了几句关于”为啥paper都没中“的反思,喜提Meet Most(相当于被点名谈话),有一种突然不及格的懵逼感。但想了想与其到处抱怨世道不公,不如就在大家面前装成自己刚刚升职吧,结果半年后果然升了职,而那篇21年头上无人问津的工作,在2021年7月份中了ICML Best paper honorable mention(ICML 最佳论文荣誉提名),成为一篇表征学习中还比较有名的文章。

10月22日之后的一段时间,基本上我的各种通信方式都处于挤爆的状态,每天无数的消息和邮件,还有各种远程会议或者见面的邀请,实在是忙不过来了。一直到几周之后才渐渐恢复正常。这两个月非常感谢大家的关心和热情。如果那时有什么消息我没有及时回复,请见谅。

虽然最后有不少offer,大家能想到的知名公司也都联系过我,但最后还是决定趁自己还年轻,去当一家新初创公司的联合创始人,细节暂时不公开,先安静地忙活一阵吧。

一些研究的方向

2025年的主要方向,一个是大模型推理,另一个是打开模型的黑箱。

自从2024年末我们的连续隐空间推理(coconut,COLM’25)工作公开之后,25年在这个研究方向上掀起了一股热潮。大家探索如何在强化学习和预训练中使用这个想法,如何提高它的训练和计算的效率,等等。虽然我们组随后就被拉去llama干活,没能再继续花很大力气往下挖,但这个让我觉得非常欣慰。尽管如此,我们还是在上半年发了一篇理论分析(Reasoning by Superposition,NeurIPS‘25)的文章,展示连续隐空间推理有优势的地方究竟在哪里,获得了不少关注。

另外是如何提高大模型的推理效率。我们的Token Assorted(ICLR’25)的工作,先通过VQVAE学出隐空间的离散token,再将所得的离散token和text token混在一起进行后训练,减少了推理代价的同时提高了性能。我们的DeepConf通过检测每个生成token的自信程度,来决定某条推理路径是否要被提前中止,这样推理所用的token减少了很多,但在majority vote的场景下性能反而更好。ThreadWeaver则是通过制造并行推理的思维链,并在其上做后训练,来加快推理速度。另外我们也在dLLM上用RL训练推理模型(Sandwiched Policy Gradient),也有在小模型上学习推理的尝试(MobileLLM-R1)。

在可解释性方面,Grokking(顿悟)这个方向我大概两年前就在关注了。因为之前我做表征学习(representation learning)的分析,虽然能分析出学习的动力学过程,看到模型出现表征塌缩的原因,但究竟学出什么样的表征,它们和输入数据的结构有什么关系,能达到什么样的泛化能力,还是个谜团,而通过分析Grokking这个特征涌现的现象,从记忆到泛化的突变过程,正好能解开这个谜团。一开始确实非常难做没有头绪,2024年先做了一篇COGS,但只能在特例上进行分析,我不是很满意。在一年多的迷茫之后,在和GPT5大量互动之后,最近的这篇可证明的Scaling Laws的文章应该说有比较大的突破,能分析出之前的线性结构(NTK)看不到的东西,并把特征涌现的训练动力学大概讲清楚了。虽然说分析的样例还是比较特殊,但至少打开了一扇新的窗口。

2025年年末的这篇《未被选择的道路》(The path not taken)我很喜欢,对于强化学习(RL)和监督微调(SFT)的行为为何会如此不一致,在权重的层面给出了一个初步的答案。SFT造成过拟合和灾难性遗忘(catastrophic forgetting),其表层原因是训练数据不够on-policy,而深层原因是权重的主分量直接被外来数据大幅修改,导致“根基”不稳,模型效果大降。而RL则因为用on-policy的数据进行训练,权重的主分量不变,改变的只是次要分量,反而能避免灾难性遗忘的问题,而改变的权重其分布也会较为稀疏(特别在bf16的量化下)。

关于可解释性的信念

很多人觉得可解释性,或者“AI如何工作得那么好”这个问题不重要,但我却觉得很重要。试想之后的两种场景:场景一:如果我们仅仅通过Scaling就达到了AGI乃至ASI,全体人类的劳动价值都降为零,AI作为一个巨大的黑盒子帮我们解决了所有问题,那如何让AI作为一个超级智能,一直行善,不欺骗不以隐秘的方式作恶,就是当务之急,要解决这个问题就要做可解释性。场景二:如果Scaling这条路最终失效,人类在指数增长的资源需求面前败下阵来,必须得要寻求其他的方案,那我们就不得不去思考“模型为什么有效,什么东西会让它失效”,在这样的思考链条之下,我们就必须回归研究,可解释性就是目所能及的另一条路了。

在这两种情况下,最终都需要可解释性来救场。就算最终AI是个全知全能全善的神,以人类好奇和探索的天性,必然还是会去研究AI为什么能做得好。毕竟“黑盒”就意味着猜疑链的诞生,在大模型技术爆炸,开始达到甚至超过人类平均水平的今天,《三体》中“黑暗森林”的规则,也许会以另一种方式呈现出来。

目前打开训练好模型的黑箱,去找到电路(circuit),还是处于比较初步的阶段。可解释性真正的难点,在于从第一性原理,即从模型架构、梯度下降及数据本身的固有结构出发,解释为什么模型会收敛出这些解耦、稀疏、低秩、模块化、可组合的特征与回路,为什么会有大量不同的解释,这些涌现出来的结构和模型训练的哪些超参数相关,如何相关,等等。等到我们能从梯度下降的方程里,直接推导出大模型特征涌现的必然性,可解释性才算真正从生物式的证据收集走向物理式的原理推导,最终反过来指导实践,为下一代人工智能的模型设计开辟道路。对比四百年前的物理学,我们现在有很多AI版的第谷(收集数据),一些AI版的开普勒(提出假说),但还没有AI版的牛顿(发现原理)。

等到那一天来临的时候,我相信,世界一定会天翻地覆。

未来会是什么样子

抛开前公司里每三个月一次的组织架构重组不谈,2025年一年的变化本身已经很大。2025年年初的Deepseek-R1的发布,现在想来几乎已经算是20世纪的事情了。带思维链的推理模型的巨大成功,让强化学习(RL)又回到了AI的主流视野之中,也带动了AI for Coding及AI Agent的发展,而后两者让大模型有了大规模落地,大幅度提高生产力的切实可能。

以前做项目,招人是很重要的一环,但现在脑中的第一个问题是“还需不需要人?”几个Codex进程一开,给它们下各种指令,它们就可以24小时不间断干活,速度远超任何人类,而且随便PUA永远听话毫无怨言。和AI工作,我最担心的是工作量有没有给够,有没有用完每天的剩余token数目。这也是为什么各家都在试验让AI Agent做几个小时连续不断的工作,看AI的能力上界在哪里。因为人的注意力永远是最昂贵的,人要休息,要度假,要允许有走神、睡觉和做其他事情的时间。减少人的介入,让AI自己找到答案,干几个小时活之后再回来看看最好。

这每个月交给OpenAI的20块钱,一定要榨干它的价值啊。

我突然意识到,就因为这20块钱,我已经成为“每个毛孔里都滴着血”的肮脏资本家。我能这么想,全世界最聪明和最富有的头脑,也一定会这么想。

所以请大家丢掉幻想,准备战斗吧。

在帮忙赶工Llama4期间,我经常在加州时区晚上12点接到东部时区的组员消息,在伦敦的朋友们更是永不下线,熬夜折腾到凌晨四五点是寻常事,但大模型越来越强,辛勤劳动最终达到的结果,是看到大模型达到甚至超越我们日常做事的水准。

这应该说是一种陷入囚徒困境之后的无奈。

人类社会的“费米能级”

如果以后以AI为中心,那还需要人吗?

 

如果考虑劳动力的投入-回报模型,传统思维会告诉你,工作经验积累越多,人的能力越强,回报也越大,是个单调上升的曲线。这就是为什么大厂有职级,职级随年限晋升,越老越香。但现在的情况已经不同了。职级已经没有意义,过去的经验也没有意义,人的价值从按照“本人产出的劳动数量及质量”来评估,变成了是否能提高AI的能力,人加AI要大于AI本身的产出,这样才行。

这样就让投入-回报曲线从一个单调递增曲线变成了一个先是全零,再在一定阈值之后增长的曲线(也即soft-thresholding的曲线)。一开始人的能力是比不过AI的,而AI的供给只会越来越便宜,所以在很长一段成长期内,人本身是没有价值的。只有在人的能力强到一定程度之后,能够做到辅助AI变强,才开始变得有价值起来。

并且,在跨越阈值之后,厉害的人对AI的加成,会高于普通人很多,因为普通人只会对AI的一两条具体产出花时间修修补补,而厉害的人在看了一些AI存在的问题之后,能提出较为系统性和普遍性的解决方案,结合手上的各类资源(GPU和数据等),可以进一步让AI变得更强,而这种效应随着AI的广泛部署,会被几何级数地放大。“一骑当千”这种小说笔法,将很快变成现实。

在这样一个非常两极分化的投入-回报模型之下,如果把人+所有个人能获取的AI当成一个智能体,整体来看,它的能力分布会和电子能级在材料里的分布很像:低于或达到某个水准线的智能体遍地都是,求着客户给它干活,以证明自己还是有用的;而高于这个水准线的智能体则指数级地变少,获取和使用它非常花钱,还常常排不到。

这个水准线,就是AI洪水的高度,就是人类社会的“费米能级”。低于费米能级的职业,可能在一夜之间就被颠覆掉,就像一场洪水或者地震一样,前一天还是岁月静好,后一天整个行业被端掉了。

随着时间变化,这条水准线还会一直往上走。其进展的速度,和它能获取到的,比它更强的数据量成正比。如果大模型的训练过程没有特别大的进展,那和自动驾驶无人车一样,越往上走,有用的数据是越来越少的,进展也会越慢,最顶尖的那部分人,还能在很长时间内保有自己的护城河。如果训练过程有突破,比如说找到新的合成数据手段,乃至新的训练算法,那就不好说了。

当然以上的判断是假设有无限的GPU和能源的供给,并没有考虑到各种资源短缺的情况。能源短缺,芯片产能短缺,内存短缺,整个地球能否满足人类日益疯狂增长的AI需求还是个未知数,这方面深究下去,或许可以做一篇论文出来。

遍地神灯时代的独立和主动思考

那么,接下来会怎么样呢?

未来的世界,或许不再是传统故事里描绘的那样——人们为了争夺稀缺的武功秘籍,或是千辛万苦寻找唯一的阿拉丁神灯、集齐七颗龙珠而展开冒险。相反,这将是一个“遍地神灯”的时代。每一个AI智能体都像是一个神灯,它们能力超群,渴望着实现别人的愿望,以此来证明自己的价值。

在这种环境下,真正稀缺的不再是实现愿望的能力,而是“愿望”本身,以及将愿望化为现实的那份坚持。

然而,在这个AI能力极其充沛的时代,巨大的便利往往伴随着巨大的陷阱。大模型提供了极其廉价的思考结果,在当前信息交互尚不充分的市场中,这些结果甚至可以直接用来交差并获取经济价值(例如那些一眼就能看出的“AI味”文案)。这种唾手可得的便利,会让许多人逐渐失去思考的动力,久而久之丧失原创能力,思想被生成式内容和推荐系统所绑架和同化。这就是新时代对“懒人”的定义:不再是因为体力上的懒惰,而是精神上没有空闲去思考,没有能力去构思独特的东西。

最终变成一具空壳,连许愿的能力都失去了。

那我们该如何保持独立思考?如何不被AI同化?

战术上来说,我们需要学会不停地审视AI的答案,挑它的毛病,并找到它无法解决的新问题。未来的新价值将来源于三个方面:(1)新的数据发现;(2)对问题全新的深入理解;(3)新的路径,包括可行的创新方案及其结果。利用信息不对称来套利只是暂时的。随着模型越来越强,社会对AI的认知越来越清晰,这种机会将迅速消失。如果仅仅满足于完成上级交代的任务,陷入“应付完就行”的状态,那么在AI泛滥的今天,这种职位极易被取代。

AI时代生存指南 来源:田渊栋的知乎账号

 

就拿AI Coding来说,用多了,我会觉得它虽然可以很快弄出一个可以跑的代码库满足需求,但随着代码越来越长,它贡献的代码也就越来越不如人意,还是需要人来做大的设计规划。如何调教它让它更快达成自己的长远目的,这会成为人类独有价值的一部分。如果只是盲目地命令它做这个做那个,而不自己去思考如何做才能和它配合做得更好,那就会和大部分人一样停留在应用层面,而无法理解得更深入,就更不用说独一无二了。

战略上来说,无论主动还是被动,每个人都将面临从“员工”角色向“老板”或“创始人”角色的转变。这种转变的核心在于“目标感”。如果心中有一个坚定的目标,并愿意动用一切手段(包括将大模型作为核心工具)去达成它,那么主动思考就是自然而然的结果。目标越远大,触发的主动思考就越多,激发的潜力就越大。

因此,如果将来的孩子立志要去土卫六开演唱会,或者想在黑洞边缘探险,千万不要打压这样看似荒诞的志向。因为这份宏大的愿望,或许正是他们一辈子充满前进动力,主动思考的根本源泉,也是让他们始终屹立于“费米能级”之上的关键。



   
回复引用
Many
 Many
(@many)
Illustrious Member Admin Registered
已加入: 9 年 前
帖子: 12334
Topic starter  

年终总结就是打工人的损失函数(Loss Function)

干AI这行的都知道损失函数,神经元网络模型训练,根据输入数据X算出预测结果Y_Pred,和实际的结果Y的对比方式,这个方式就是损失函数Loss,也就是说:

 

Loss越大,越痛

Loss可以判断模型是准还是不准,因为Loss越大,表示Y_Pred和Y之间的差距越大。

损失函数(Loss Function)

对应于人生,也就是现实和预想差距越大,越痛苦。

田渊栋展示了可以用年终总结判断人生决策是准还是不准,也展示了预想和现实的差距带来的剧痛。

在年终总结中,田渊栋说到自己被要求给Llama4救火的时候,还花了一个2x2回报矩阵,呵呵,不愧是做AI的专业人士,思维方式非常符合机器学习的脉络。

其实,所有活人(除非是植物人)都是根据回报预期来决策的,只不过大部分行动只是潜意识行为,田渊栋只不过把这种决策过程更明显清晰地表示出来而已。

我想,田渊栋现在也意识到,这样的回报矩阵虽然明显清晰,但是容易只陷入只枚举自己预测到的结果,即便结果未知,那也是『已知的未知』(Known Unknown),而现实世界有很多的『不可知的未知』(Unknonwn Unknown)。

这就让他撞上了,最后的结果是Unknown Unkoown,回报矩阵知外的第五种可能,第五种可能是啥,看他那一小节的标题就知道了——被裁了。

没想到自己一腔热血,最后还要被当成替罪羊。

对田渊栋来说,他本来对2025有预期Y_Pred,而实际结果Y和Y_Pred的偏差很大,这个Loss函数结果也很大,当Loss较小,模型这轮训练只需要微调;当Loss很大,模型这轮训练的权重修改就应该大一些了。

Loss越痛,改变越大。

现在田渊栋从打工人改为自主创业,就是发现Loss函数很大,人生路线要做重大调整。

不过,我觉得还有一个人需要好好修正一下自己的Loss函数。

谁最应该修正自己的Loss函数?

这个人就是田渊栋以前的老板、Meta的CEO马克扎克伯格。

对马扎来说,其实过去几年应该遭受了不少Y_Pred和Y之间差距的重击。

几年前押重注到元宇宙,甚至公司名都从Facebook改成Meta,结果元宇宙黄了,这事可不能只怪时运不济,而是鲁莽的赌博,但凡算一下支持元宇宙世界的电量就知道距离真正元宇宙元年还早。

大模型起步得晚,好歹搞出Llama算是Meta这几年难得的高光时刻,但是起个大早赶个晚集,顶着第一开源大模型的帽子出道,现在开源大模型领域却被中国大模型统治。

如果说Llama没搞好,只能怪技术团队执行得不好,不能怪马扎领导得好,那么,几次AI方面的收购就看得出马扎没从Loss中学到什么。

收购Scale.AI是图个啥?看不懂,数据标注并没有给Meta带来AI的优势,也没让Meta能卡其他竞争对手的脖子,图个啥?

让Alex Wang管理整个AI部门,依据是什么?Alex Wang肯定属于顶级聪明的人,但是聪明不能取代经验,他的经验是管理数据标注的血汗工厂,真能管理好一群技术精英吗?

收购Manus是图个啥?当然,得要恭喜Manus,毕竟对一个创业团队来说被高价收购是好事,但是,从Meta角度来看,Manus对Meta的AI布局有什么意义?Manus没有自身自己的模型,也没有任何技术和商业壁垒,甚至只支持Meta竞争对手Anthropic的模型,Meta收进来干啥?

过去几年,Meta有这么多Y_Pred和Y的巨大差异,马扎就是没从Loss总学到什么。

当然,最让人不理解的就是马扎对Meta的AI部门的『整顿』,去年田渊栋在X上就发帖透露:

真正应该负责解决问题的人并不是被裁员的人

这句话细思极恐,有一些人不应该承担责任的被裁了,而那些真正应该负责人的人却还留下了,也就是说,有问题的人还在,以前踩的坑,将来还要继续踩

对于马克扎克伯格,焦虑的心情可以理解,毕竟Meta的AI部门一个高管的年薪比DeepSeek训练一个模型的成本还要高,结果这帮货愣是搞不出一个像样的模型出来。

那就清理高层啊,而不是清理技术人员。

公司执行出问题,99%的原因都在组织管理能力上,而不是基层员工的技能上

也许马克扎克伯格对Loss的感知没问题,但是他根据Loss调整的方法错了,他错误认为是现有技术人员不行,而没意识到(或者不敢承认)是管理组织上出了问题,所以,他就一边裁人,一边超高薪去OpenAI挖人;不相信现有人员的能力,而相信外来的后起之秀能拯救Meta AI。

我只能说这就是——饮鸩止渴。

写在最后

正好新的一年开始,看田渊栋的2025总结,让我就想到现实世界和AI世界其实还是很相似,都可以利用Loss函数来评估自己是否要做人生调整。

有一些Loss是预期中的,但是也完全有可能Loss是预料之外的,没关系,人生就是一个学习和尝试的过程。

和机器学习不同,机器学习的Loss Function往往是固定的,但人是活的,人的Loss Function就应该是动态调整的,灵活永远是人类的优势

希望大家在新的一年里,都能根据前一年的Loss找到更好的方向。



   
回复引用
Share:

【声明】:禅世界论坛尊重言论自由,任何人可讨论佛法、政经、生活和科技等话题。言论发表前请根据常识和法规自审。论坛管理员和版主有权删除任何不当内容。使用本论坛即表示接受【禅世界论坛规则】【论坛使用帮助】。 【禅世界免责声明】


【Chanworld.org】2017.06.06-2021.04.30-2025.04.10-MG-RM