| <- 社交账号登录。或禅世界会员登录。【论坛使用帮助】 |
马四维:人工智识分子与社会
————大模型时代的人工智识分子与人类的前途
托马斯·索维尔(Thomas Sowell)在《知识分子与社会》(Intellectuals and Society)里,有一句非常抓人的定义:知识分子是“以观念为主要工作成果的人”。他们靠生产思想、话语、论证谋生,而不必直接为观念在现实世界里的后果负责。在生成式人工智能爆发的当下,这个定义突然多了一层含义。已经出现了一种新的“观念生产者”——不是教授、作家、评论员,而是大模型,是全天候写作、编码、翻译、分析的人工系统。它们和人类知识分子(Human Intellectuals)勾连在一起,形成一个混合的、半人半机的“人工智识分子”群体(Artificial Intellectuals)。
在很多办公室里,这个群体已经悄悄接管了写邮件、做方案、起草合同、写代码的大量工作。律师、会计、程序员、咨询顾问、媒体编辑,都在和它们“协作”,也在被它们取代。麦肯锡在一份报告里估算,大模型可以影响到全球数亿知识工作者的日常任务结构,对高收入白领的冲击甚至比对蓝领更大。这一变化不只是技术新闻里的数字问题。它会冲击整套“知识分子与社会”的旧结构。索维尔批评的那些毛病——脱离后果的观念、缺乏约束的影响力、话语和权力之间的暗通——在人工智识分子身上会不会被放大?还是会被重新排布?这个问题,和未来几十年对中国文化、政治、经济的理解,都纠缠在一起。
人类知识分子 vs. 人工智识分子
索维尔在书里反复强调一点:现代社会把大量权威交到了“观念工作者”手里。外交政策、城市规划、教育改革、司法理念,背后都站着一批作报告、写社论、写学术论文的人。他们的成果是文字,是理念,是框架,而不是具体的桥梁、工厂、公司。
在索维尔看来,这群人有几个结构性的问题:他们对观念的“美感”和自洽性,比对后果的可检验性更敏感。他们的主要反馈来自同行评价和媒体声望,而不是政策效果本身。他们常常用“道德优越感”覆盖不确定性,把复杂问题说成简单的对错。
这种批评在冷战、在反越战运动、在种族议题上,都有具体例子。索维尔的主要担心其实很朴素:当一群不用为后果买单的人,却掌握了塑造舆论和政策的巨大权力时,社会会走向偏斜。
按照索维尔的定义,人类知识分子有三个核心特征:主要工作是处理符号和观念,而不是直接动手做实物。成果形式是文本、理论、叙事、图像、代码。影响力主要通过媒体、教育、出版、政策网络扩散。
今天,这个逻辑很容易延伸到大模型。因为它们也是“以观念为成果”的生产者,而且生产速度远超任何一个人。人工智识分子——以大模型为代表的智能系统——在这三个点上几乎完全符合:它们不修桥、不种地,只处理语言、图像和结构化数据。它们的成果是文章、合同草案、法律分析、市场报告、代码片段。它们通过搜索引擎、办公软件、社交平台集成,迅速进入公共空间。
所以在知识生产的意义上,人工智识分子已经是“同类”。但相似之处到这里就变成分叉。至少有四个关键差异:
第一,责任主体不同。人类知识分子至少在理论上要为自己的观点负责,哪怕只是名誉风险。人工智识分子本身没有人格,它的“责任”被重新分配给模型开发者、平台公司、监管机构,以及那个按下回车键的人。这种责任的拆散,让“谁该为观念后果负责”变得更模糊。
第二,经验来源不同。人类知识分子有个人经验,有情绪,有偏见,也有成长和反思。人工智识分子的经验来自训练数据——书籍、新闻、网页、代码库、社交媒体。它在统计意义上“综合了世界”,却没有亲身的疼痛和损失。
第三,规模和速度不同。一个人一天能写几篇文章?一个大模型一天能生成多少文本?这种规模差距,意味着人工智识分子可以在短时间里向社会投放前所未有的观念量。信息环境会更像一条洪水,而不是一条河。
第四,嵌入方式不同。人类知识分子分布在大学、媒体、智库、出版社。人工智识分子则嵌在各类平台的底层。它们通过 API 进入政府办公系统、银行风控、律所工作流、媒体写作平台。它们不像一个个具体的人,而像一层看不见的“知识基础设施”。
这几条差异,让“人工智识分子与社会”的问题,比索维尔当年的问题更棘手:不止是“观念生产者的权力过大”,而是“观念生产能力本身被技术放大,并且与责任和经验剥离”。这种硅基生命体的能力放大和人工智识分子与社会责任的剥离,已经对社会造成巨大冲击。
从“创造性破坏”到“破坏性创造”
过去二十年里,自动化主要冲击的是制造业和部分服务业。流水线工人、柜台售票员、超市收银员,都是第一批承受压力的人。
生成式 AI 出现后,风向明显变了。麦肯锡、普华永道、德勤等机构的研究都在强调一点:大模型对“非体力、以文本和符号为主”的工作冲击更大。律师可以用模型起草合同、整理案例。会计可以让模型先做账目归类和风险扫描。记者可以用模型写快讯、整理数据。程序员可以用模型写样板代码、查 bug。
这类“AI+人”的工作形态,被很多人类学者和科技评论者称为“半人马模式”(centaur model):人和机器像半人半马那样组合,人负责直觉判断、伦理底线、复杂协商;机器负责大规模检索、语言组织、模式识别。
在这种模式里,传统意义的人类知识分子——学术界、媒体界、智库界的专业人士——也在被拆开。研究的“文献整理”和“初稿撰写”,可能交给模型;论证结构和核心观点,交给人。新闻写作的“素材收集”和“摘要”,交给模型;现场采访和判断,交给人。
表面看,这是一种辅助。长期看,这是对“谁有资格发言”的重新划分。因为任何一个懂得提问和修改的人,都可以借助人工智识分子迅速生成可读文本。传统知识分子赖以维持权威的门槛——语言能力、文本生产速度、信息掌握能力——正在被技术压平。
电商干掉一部分实体零售,流媒体干掉录像带店,线上广告挤压纸媒广告,这些都是典型案例。如果把人工智识分子的出现放在这个框架里,有一个微妙的变化:这次破坏的,不只是旧行业,而是一整套知识生产和判断的方式。
熊彼特(Joseph Schumpeter)把资本主义形容成一个不断“创造性破坏”(creative destruction)的过程:新技术、新企业、新模式不断出现,在创造价值的同时摧毁旧的行业和岗位。可以说,这更像一种“破坏性创造”(destructive creation):它在创造一个前所未有的知识生产机器,但也在破坏人们对“知识是什么”的传统理解。它在创造高效率的文本、代码和分析,但也在破坏“谁该为这些内容负责”的清晰边界。它在创造新的协作形式,但也在破坏很多人的自我价值感和职业尊严。
过去,创造性破坏依赖企业家、发明家和资本。现在,破坏性创造背后还有平台算法和大模型的黑箱。熊彼特曾经预言,资本主义可能不是死于失败,而是死于自己的成功:当创造性破坏太强,社会承受不了,反而会寻求稳定和管制。
在人工智识分子的问题上,也可以看到类似趋势。一方面,社会享受它带来的效率;另一方面,对失业、谣言、深度伪造、算法偏见的恐惧又在上升。结果是,技术在前面狂奔,而监管、伦理和社会心理在后面追赶。这种追赶的关系,无处不在。《跨文化下的社会认知偏差》作者王野林指出,AI存在着“我不用,别人会用” 的心态,存在着“竞争”,国家之间也会如此。 但到一定的时候,人类总会意识到要共同防止人工智能异化为人的主人。
人工智识分子的创新与破坏
从技术乐观的角度看,人工智识分子的出现,至少带来三种新机会。
一是加速。很多琐碎的知识工作——查资料、做摘要、写初稿——可以交给模型。研究者、律师、记者、教师可以把更多精力放在真正需要人类判断的部分。对资源紧张的教育系统、医疗系统,这是一个实在的缓解。
二是扩音。过去,一个普通人很难写出结构清晰、逻辑完整的长文,更难用多种语言表达自己。大模型可以充当“语言放大器”,让更多人有机会参与公共讨论。有些边缘群体的经验,也许因此更容易被整理出来。
三是知识民主化。索维尔批评“主流知识分子”垄断解释权。人工智识分子在某种程度上,削弱了这一点。任何人都可以要求模型解释某个理论、概括某本书、展示不同观点。知识获取门槛被拉低。当然,这种民主化有前提:模型是否开放,还是只在少数机构的私有云里运行。训练数据是否多元,还是严重偏向某种话语。用户有没有足够的“媒介素养”去辨别输出的可靠性。如果这些条件不能满足,“知识民主化”很容易变成“知识幻觉”:大家以为自己知道得更多,实际只是被算法喂了更多相似的答案。
从技术悲观的角度看,人工智识分子的破坏性也非常明显。
一是白领失业和职业降级。高盛等机构估计,生成式 AI 可能影响全球 3 亿左右的全职岗位,大部分集中在高技能白领。 很多律师助理、会计助理、编辑、客服、翻译,面临被“AI+少数人类”取代的风险。这不只是收入问题,也是身份问题。很多人的自我认同,建立在“我是专业人士”“我是靠脑力吃饭”的基础上。人工智识分子对脑力劳动者的冲击,比对某些体力岗位的冲击更强大。
二是认知污染。大模型可以生成大量看起来“像那么回事”的内容。假新闻、伪学术、伪评论、伪数据分析,会在网络里迅速扩散。对普通读者来说,真假界线变得更模糊。索维尔担心知识分子的“观念脱离后果”,在人工智识分子这里变成“观念脱离来源”:很多内容找不到清晰出处,也没有明确作者,责任变成了一个迷宫。
三是责任失落。当政策建议、判决参考、医疗建议中大量使用模型时,一旦出错,究竟是谁的错?是工程师?是使用者?是监管机构?这种责任的稀释,会削弱一种很重要的文明机制:犯错者需要对自己言行负责,付出代价,社会才能学习。而在算法系统里,错误和偏见可以被当作“统计噪音”轻描淡写,受害者却是真实的人。
对中国来说,这样的责任问题还会和行政权力叠加:当“智能系统”被挂上“国家工程”的牌子,质疑和纠错就会更难。由于言论自由的限制,信息来源受到行政扭曲和篡改,造成的认知污染更严重。
中国语境下的人工智识分子
谈知识分子,总会想到中国两千多年的文人传统。科举制度把“会写文章的人”送进权力结构,读书人既是道德批评者,又是行政机器的一部分。
在当代,中国的“知识分子”至少有三层:体制内学者和政策顾问,靠研究报告和内部简报影响决策。大学和媒体里的公共写作者,靠专栏、讲座和新媒体账号影响舆论。平台算法筛选出的“网红讲师”和“知识 IP”,用短视频、直播和图文输出观点。
人工智识分子融入这个结构,有几个特别的点。第一是国家层面的工程想象。中国提出过“新一代人工智能发展规划”,把 AI 明确纳入国家战略。 这意味着,大模型不只是一个市场产品,而是被当成“新质生产力”的关键基础设施。教育、医疗、政务、工业,都被鼓励“+AI”。
第二是强监管下的知识边界。针对生成式 AI,中国在 2023 年出台了专门的管理办法,要求算法不得生成“危害国家政权、颠覆社会主义制度、传播谣言”等内容。 这为人工智识分子设定了比较清晰的政治边界。这意味着:在历史叙事上,模型会自然向官方版本收拢。在现实政治上,它不可能成为“异议知识分子”,更可能是“制度内技术顾问”。在文化生产上,它适合作为传统文化的“翻译器”和“整理者”,而不适合作为颠覆叙事的发起者。
第三是对传统文人角色的双重冲击。一方面,人工智识分子非常适合做“整理工作”:数字人朗读古文,模型批量翻译典籍,AI 生成对联、写诗、写书评。这些能力会推动一个新的“机械文人”阶层,抢掉很多入门写作者的饭碗。另一方面,对真正有独立判断、能在夹缝里说话的知识分子来说,大模型又是一个工具:可以更快查资料,更便宜做初步分析,更容易和普通人沟通复杂问题。
所以在中国,人工智识分子既可能加固体制性的知识边界,也可能在边界内部释放一些创造力。它既是新“士大夫”的秘书,也是他们的替身。人工智识分子不仅改变工作方式,也在重塑人们理解中国的角度。
在文化上,大模型可以把浩如烟海的古籍、地方志、档案整理出来,以前需要几十年冷板凳的梳理工作,现在可能在几个月内完成一个初步框架。对研究者和文化爱好者来说,这是前所未有的工具。
但同样重要的是,大模型如何“讲述中国”。训练数据决定叙事风格。如果数据来源偏向官方论述,模型就会天然偏向某种语气;如果加入大量民间材料,模型的声音就会多皱褶一些。这个选择,既是技术问题,也是政治问题。
在历史上,生成式 AI 已经开始进入博物馆、纪念馆、课堂。讲解员的脚本、互动问答,都可能由模型生成或润色。这意味着,普通人接触历史的方式,很大程度上会被“技术话语”过滤过一遍。哪些事件被强调,哪些被淡化,哪些视角不被提起,这些变化是看得见的,也是需要警惕的。
在政治上,人工智识分子一方面会被用作政策工具。政府部门可以用它快速分析文件、起草简报、总结调研。但另一方面,它又可能成为舆情管理的利器,自动生成正向评论、自动纠偏“错误观点”。在这种场景里,人工智识分子延续了索维尔所说的“观念影响权力”的传统,却让权力更难被看见。
在经济上,AI 被视为提高生产率的关键技术。中国近年来反复强调“新质生产力”,AI 是其中的重要支点。金融、制造业、物流、互联网行业,都在用大模型做优化。
这样一来,人工智识分子既是“提高效率的工具”,也是“新的生产要素”。谁控制这些要素,谁就掌握新的经济权力中心。对地方政府、央企、互联网巨头和小型创业公司来说,这是一场新的权力再分配。
在“破坏性创造”中为自己设定方向
在“人工智识分子与社会”的框架里,人类知识分子并不是要被时代淘汰的角色。真正需要调整的是他们的“任务描述”。
过去的知识分子,以“知道答案”为核心价值。谁掌握更多文献,谁能更快写出厚书,谁就有更强话语权。人工智识分子出现后,“知道答案”这件事的稀缺性在快速下降。
接下来,有几类能力会变得更重要:
提出好问题的能力。模型擅长在给定问题下生成内容,却很难自己提出有洞察力的问题。哪些问题值得问,哪些问题不该问,这需要经验、伦理和对现实的敏感。
设计制度和规则的能力。人工智识分子的输出怎样进入司法、医疗、教育等关键领域,需要人去设计边界和流程。哪些可以自动化,哪些必须有人签字,哪些完全不该交给模型,这些都是制度问题。
守住价值底线的能力。技术可以优化过程,却无法替人决定目的。平等、尊严、自由、公正,这些词不是算法算出来的,而是长时间历史斗争的产物。有人必须持续提醒社会:效率不是唯一标准。
从这个意义上说,人类知识分子如果愿意调整角色,不是被人工智识分子取代,而是有机会借助它,从“文本工人”变成“问题发明者”和“价值守门人”。
索维尔提醒读者,要看知识分子的观念在现实中的后果,而不是只看他们在纸面上的优雅。今天,这个提醒同样适用于人工智识分子。
大模型可以在一瞬间写出一篇看起来很漂亮的政策建议,也可以用流畅的语气为任何立场辩护。关键问题是:谁在用这些文本?它们被用来干什么?它们造成了什么长远后果?这些后果由谁承担?
在人类文明的长时间尺度上,人工智识分子的出现,确实像一次“破坏性创造”。它创造出一种前所未有的“知识机器”,同时在破坏旧制度、旧职业、旧安全感。人类社会正在被这股力量推着往前走,却普遍缺乏对终点的清晰想象。
这既是风险,也是机会。如果把人工智识分子当成一股“自然力量”,一切交给技术决定论,那结果很可能是:少数掌握模型和算力的机构,获得前所未有的知识权力,而大多数人被迫适应一个自己从未参与设计的系统。
如果把它当成一个需要被驯化、被民主化、被反复质疑的制度性创新,人类知识分子还有很多事可做。可以重写教育目标,可以重设职业路径,可以参与制定 AI 治理规则,可以用文学、电影、非虚构写作不断提醒公众:每一套技术系统背后,都有具体的人在受益,也有具体的人在受伤。
人工智识分子不会消失。它已经是新的常量。真正的变量,是社会如何划分它的权力边界,人类愿不愿意为此付出思考和博弈的代价。
在这场“破坏性创造”的浪潮里,那些愿意坚持提问、敢于承担责任、愿意为具体的人发声的知识分子——无论是人类的,还是在人的控制下运行的人工系统——才有可能让文明在加速中保持方向感。
参考文献:
McKinsey Global Institute. The Economic Potential of Generative AI: The Next Productivity Frontier. McKinsey & Company, 2023.
Sowell, Thomas. Intellectuals and Society. Revised and Expanded ed., Basic Books, 2012.
“Generative AI Could Raise Global GDP by 7%.” Goldman Sachs Global Economics Analyst, Goldman Sachs, 2023.
“Schumpeter’s ‘Creative Destruction’ Explained.” The Washington Post, 10 Sept. 2025.
“New Generation Artificial Intelligence Development Plan.” State Council of the People’s Republic of China, 2017.
“Interim Measures for the Administration of Generative Artificial Intelligence Services.” Cyberspace Administration of China, 2023.
作者投稿
【声明】:禅世界论坛尊重言论自由,任何人可讨论佛法、政经、生活和科技等话题。言论发表前请根据常识和法规自审。论坛管理员和版主有权删除任何不当内容。使用本论坛即表示接受【禅世界论坛规则】。【论坛使用帮助】。 【禅世界免责声明】。
【Chanworld.org】2017.06.06-2021.04.30-2025.04.10-MG-RM
