智能体编程是软件开发者的巨大福音,能极大提升生产力;它能助力 IT 人员构建更多内部定制化系统;能让领域专家实现工作流自动化或系统集成;对编程初学者而言更是极佳的入门利器。
但它并不适合那种“随手构建”的复杂软件,因为这类软件需要持续维护并承担所有风险。升级、维护、应对安全漏洞等,都是大多数知识工作者并不熟悉也未做好准备的“隐形成本”。
总而言之:未来软件总量将增长百倍,开发者也将大幅增加。但这并不意味着“每个人”都会去自研软件。
我发现了一种有趣的“盖尔曼失忆症”变体:人们在用 AI 处理自己的工作时,深知“最后一公里”里还有多少繁琐环节;但看别人的工作时,却觉得 AI 能瞬间取代整个岗位。
我们对自己工作的复杂性与细微之处了如指掌:数据获取的难题、为了让 AI 达标所需的背景信息、对输出结果的校对,以及如何将其整合进业务流程——这些环节我们都看得透彻。
然而,一旦看到 AI 在陌生领域展现出某种能力,我们就会误以为它能自动化整个职能。我们严重低估了让 AI 在那些岗位上同样高效运转所需要的投入。
这正是我们应对许多“失业论”时应保持怀疑的原因。这些理论往往只看到了 AI 自动化单一任务的可能性,却忽略了完成一项完整工作背后所包含的所有环节。
“如果 AI 能提高员工效率(这已是公认的事实),那么公司就会追求尽可能多的高效劳动力。这也是我改变观点的关键原因。”
这就是为什么现在理解 AI 领域的“杰文斯悖论”至关重要。
而且反直觉的是,随着 AI 的进化,这一趋势会愈发明显。AI 执行任务的能力越强,公司就能承接的任务就越多,进而会雇佣更多人来处理与之相关的配套工作。
想想那些负担不起复杂软件开发的小企业:当 AI 表现平平,他们感知不到变化;但当 AI 足够强大,他们终于可以雇佣效能提升 5 到 10 倍的工程师,从而真正开始在工程领域进行投入。
能够实现客户情报自动化和主动需求生成的销售团队,会因为潜在客户增多而雇佣更多销售;能够进行高水准视频制作的营销团队,会雇佣视频剪辑师。以此类推。
这种情况将以越来越多出人意料的方式发生。
抱歉,如果你曾以为 AI 会让我们工作变少(至少目前如此)。AI 让探索变得更容易,结果反而让你开始做更多的事情。
我经常遇到一些看似微不足道的小事,最后却耗费了 3 个小时。因为 AI 代理让起步变得轻而易举,但剩下的收尾工作仍需人工完成。
这些工作以前我根本不会交给别人,因为纯手动操作太耗时,导致它们一直被搁置。而且,反直觉的是,随着 AI 变得足够强大,有些任务甚至在经济上变得值得通过雇人来利用 AI 代理持续开展。但在你能够低成本尝试之前,你根本不会去尝试。
这就是为什么 AI 不会像我们想象的那样自动减少工作量,因为工作量并非静态的。大多数公司其实有很多想做却没做的事,只是受限于时间和人力,以前很难开展。
从使用聊天机器人到拥有能真正实现流程自动化的智能体,这中间需要投入巨大的工作量。
大多数公司需要设立专门的岗位来为团队引入自动化,而不是让每位员工各自为政。部分原因是这项工作比我们想象的更具技术含量,另一部分原因是它很难作为一项“顺带的任务”来完成。
具体职责包括:规划智能体驱动的新工作流、部署智能体的新系统、确保智能体拥有准确且及时的上下文信息、将内部系统与智能体对接、建立智能体评估机制、设计人工介入环节、管理系统升级,以及协助现有业务流程的变革管理等等。
这些岗位可能来自 IT 或工程部门,也可能直接设在业务部门。根据公司的不同,其名称也会有所不同。从某种意义上说,这类岗位在非科技公司中的爆发式增长,正代表了软件工程的未来。
大多数公司现在或未来都必须招聘此类人才,这是 AI 催生新职业的又一个典型案例。
为什么 AI 会在众多行业创造更多就业?因为我们会利用 AI 加速某一环节的产出,但最终会在流程的其他环节遇到新的瓶颈,而这些瓶颈仍需人工介入。
《金融时报》举了一个显而易见的例子:越来越多的人向 AI 代理咨询法律问题,这最终会导致律师处理的咨询量激增。其他驱动因素也包括:AI 加速新企业的成立、专利申请的增加、科学研究的突破等——所有这些最终都会落到律师和其他监管职能部门的头上。
这种逻辑也适用于许多其他领域。代码量增加意味着安全风险增加,从而需要更多的安全研究员;医疗领域自动化患者转诊,只会导致医生短缺的瓶颈;通过 AI 进行更多的客户触达,则会带来更多的销售对话。类似的类别不计其数。
在很多领域,AI 确实会带来“效率”提升,即通过自动化某些环节来降低成本。
但价值提升总有尽头,因为世界并非静止不变。你的竞争对手会利用 AI 开发更好的产品、接触更多客户、提供更优质的服务、投放更精准的广告,你最终必须跟上他们的步伐,否则就会被淘汰。
网络安全是另一个即将迎来“杰文斯悖论”时刻的职业领域。
“与直觉相反,我认为更强大的安全 AI 工具会增加而非减少对安全人才的需求。自动化漏洞利用技术可以实现‘验证’环节的自动化,但无法实现‘响应’环节的自动化。发现真实漏洞的速度越快,就意味着需要进行更多的分级处置、修复工作,以及更多需要人类判断的架构决策。”
AI 将生成多出 100 倍的代码,随之而来的是安全漏洞发现量的激增。AI 是应对这些新威胁和风险的唯一手段,但仍需要专家在另一端来管理整个流程。这将为人才带来巨大的机遇。
当你让智能体替你干活时,工作只是上升到了更高的抽象层级。
现在的任务变成了:思考该让智能体做什么、确保指令准确、为任务提供必要的上下文、在它跑偏时进行干预、审核最终成果,并将输出整合到其他工作中。其中任何一个环节出差错,产出的成果就会毫无价值。
即使智能体能处理长周期任务,这些步骤也不会消失。事实上,任务越长,规划和审核阶段所占的时间就越多。你现在成了编辑、管理者和制片人。审美、对专业领域的理解以及最终的技能,都依然至关重要。
AI 智能体并没有改变这一切。我们将把工作中烦人的部分自动化,保留更有趣的部分。工作依然存在,只是形式变了。
AI 提高效率所催生的技能需求,远多于其取代工作的领域。这就是为什么关于 AI 取代工作的预测不会如传闻般发生。
AI 让编写代码变得更容易,这意味着我们将把代码应用到业务的更多环节中。我们将为以前不具经济效益的任务构建自动化和软件,例如营销自动化、客户入驻、旧系统现代化、对现有数据进行更深入的研究等等。这需要更多的工程师。
软件的大量增加意味着安全风险也会激增,这将需要更多的人来思考系统安全、合规性和治理问题。过去这类工作主要靠人工,只有大公司才负担得起。AI 将让
我们在 AI 领域必须面对的一个核心问题是:即使是世界上最先进的模型,也无法掌握所有必要的知识,因为每个人的使用场景和工作流设计各不相同。
更重要的是,在企业级应用中,每个人对公司知识和信息的访问权限都截然不同。即便是在同一家企业内部,要在模型层实现持续学习也几乎是不可能的,因为每个用户掌握的信息和权限都与他人不同。
这不像编程,大多数开发人员通常都能获取工作所需的全部资料。但在同一个银行团队里,不同银行家被允许查看的文件也完全不同。数据脱敏很难,而让模型学会保密更是不可能。
因此,在实际应用场景中,上下文层(context layer)将始终是 AI 技术栈的核心,它是将通用模型转化为实用智能体的关键。这是客观规律,无法违背。