本文作者:访客

脑腐时代,人如何被快速掏空?

访客 2025-05-14 15:03:09 87226
脑腐时代,人如何被快速掏空?摘要: 文 | 李厚辰2025年刚刚过去四个多月,DeepSeek的爆发、吉卜力式图片生成的争议,已经占据了一大部分公共讨论广场。每个上网的人,几乎都无法逃开AI的影响...

文 | 李厚辰

脑腐时代,人如何被快速掏空?

2025年刚刚过去四个多月,DeepSeek的爆发、吉卜力式图片生成的争议,已经占据了一大部分公共讨论广场。每个上网的人,几乎都无法逃开AI的影响,无论是主动的还是被动的。

用日新月异来形容今天的AI并不为过。

从认为“AI可能会在翻译等少数领域替代人类,在其他领域,AI将成为人类的好帮手”的设想,到今天发展到“很多领域的人类工作都会被替代”的绝对结局——这样的变化并没有经历很长时间。

《少数派报告》

近一年来,大模型本身虽然没有像GPT-4o那样的“质变”,但应用层加速推出,出现了一些足以支撑高价订阅、并在特定工作流中提供不可替代价值的新服务。

ChatGPT的订阅服务在全球已经有千万人次付费订阅,其中包含了售价为200美金一个月的pro版本,起码有超过一万人订阅。

能让人付一月200美金的费用,就是因为杀手级应用DeepResearch和其背后的o3模型。现在DeepResearch的水平和速度,一定程度上能替代三到五个企业和咨询公司的初级研究员,这么算起来,200美金是非常划算的。

类似这样的应用开始井喷,可能会以很快的速度改变我们的生活。而现在问题已经近在眼前:该如何适应一个有AI的工作环境?

01.

简要总结:

普通人接触的AI,经过了哪些“进化”?

早期AI的使用有点像炼金术,其使用的关键门槛就是“魔法咒语”——基于提示词(prompting)的一整套技术。提示词培训甚至成为AI衍生的一个知识付费热门。

从免费的帖子,到提示词网课,大量教授AI使用知识的指南涌现。比如“网易云课堂”上的一门由“中国电子学会”制作的AIGC提示词工程师课程,分为初级、中级、高级,售价就分别达到了1980元、2980元、4980元。线下培训课程更是动辄上万。

和提示相关的,是“调试”的困难。以AI绘图为例,过去AI要画出可用的图像,可能需要大量精细的调试,不断尝试各种提示语或命题,基于图像的细节修改非常困难。

但从上几个版本开始,ChatGPT的绘图就有了重写提示(prompt-rewriting)功能。程序可以把用户的要求扩充成一个更详细、更长的文本,而最近爆火的“吉卜力版”更是有了Diffusion-Transformer架构,对于文字的契合度更高,还结合一种通过初稿粗构图,逐渐填充细节的Progressive Prompts功能,让AI做图突然变得很简单。

这一切,都是一套基于推理的优化。

最初推理模型可能生成更长和更有分析性的文本。到现在推理链综合了检索增强生成(Retrieval-Augmented Generation),并且检索不只一次,AI可以一层层地逐步分析和检索下去,并在使用Python进行数据分析生成中间结论,这就是DeepResearch的可怕之处了。

《超体》

最简单来说,目前的大型语言模型(LLM)的AI还是一个“接下茬”的模型,根据用户输入的提示不断生成下一步。

过去的AI基于用户的提示语来生成一段文本,但现在用户输入的这段提示语可能只是AI最后生成段落的万分之一不到了,海量的中间提示语由AI自己通过搜索和推理完成。

AI不再依赖于用户最初编写大篇幅又精确的提示语,让AI的易用性和生成内容的质量直接提升了一个巨大的台阶。

这样的优化是全面的,不拘泥于DeepResearch和做图领域,还包括编程,例如AI编程领域,已经有Devin、GitHub Copilot、AWS Developer Q、Codeium Windsurf、Cursor等多家公司。我们距离完全无代码编程可能只有一步之遥了。

从最近一年AI的进步来看,也许最大的进步并不是基础模型有多么根本性的推进,而是能以较低成本交付稳定、确定的结果,这让AI一步步地更接近可以自然整合进入工作的工具。

02.

从可见到不可见的AI整合

OpenAI不仅自己在推出各种AI产品,也在大刀阔斧地收购。

5月6日,美国知名商业媒体彭博披露OpenAI达成约30亿美元收购协议,这是OpenAI最大的一宗并购案,并购对象是一家叫Windsurf的AI编程公司。在收购案前一天,CEO瓦伦莫汉(Varun Mohan)接受采访时,宣布Windsurf将围绕“vibe coding”重塑开发文化。

什么是“vibe coding”?这是一种完全无代码的”编程“方式。

过去,作为AI使用的一大领域——编程,开发者还是希望将AI的代码整合到自己的项目中,再不济,也要对AI编写的代码进行人工审查。

但很快问题来了,AI的效率太高,输出代码数量太大,维护难度和成本都很大。所以“vibe coding”概念被提出,开发者用自然语言(或语音、图像、示例代码)描述需求,程序即刻产出可运行的雏形,然后根据这个可用的雏形,开发者继续对话式微调,形成“边用边改”的循环。到这一步,已经完全不面对”代码“了。

当然,到这一步,也很难称呼这样的人员为”开发者“了。比如就用Windsurf CEO的话说,这样的工作人员叫“builder”(建设者、建立者)。而到这一步,“vibe coding”基本就要替代前后端服务器端的很多程序员,这是一个既令人兴奋,又令人恐惧的前景。

从“vibe coding”里我们可以看到一个AI带来的工作困境,即AI效率太高,其产出的内容已经很难用人的速度进行审阅,所以干脆不看,直接用自然语言和最终产品交互。这样的场景是否会仅仅出现在编程领域?

《失控玩家》

除了写作,笔者一直在进行播客的制作。现在的AI生成对话式文本不再是问题,再用一个语音模型进行配音也轻车熟路。最后给播客节目起标题、制作封面图都可以用AI完成。

我们来假设一个问题,如果这套流程满负荷启动,一个人每天能生产多长时间的播客内容?

用这个问题询问ChatGPT o3,它的回答是,一天8小时工作可以生成超过30小时的内容。

这还是已经加入了一些“检查”步骤的情况,如果抽去其中的“检查”,一天生产48小时的播客内容也是很有可能的。也就是说,一个人可以完成至少10个播客的日更2小时对话节目。

如果文字转视频更成熟一些,直接生成30秒短视频,发短视频平台呢?或者直接根据短视频平台的某种模板生成类似情节和内容的短视频呢?一个人每天能生产多少短视频,能同时管理多少帐号?当然,这个点子一点不新鲜,甚至已经有人在这样做了。

这里强调的是,到这一步,我们早就不是以经典的方式在使用AI了——即我们提供提示语,AI提供结果,我们再拿这个结果加入我们的工作流,用AI的思考嵌入我们的思考。

但因为二者思考速度的差异过大,我们大可以放弃思考,把一部分工作全部交给AI完成,我们再也不用做二次加工和质检,全部让AI完成就好。

03.

如果AI能做,你还要不要思考?

这促使我们思考一个问题,到底有什么是人“非想不可”的?

如果很多人做短视频就是为了赚钱,如果可以借AI,同时开五十个短视频账号,以AI生成视频覆盖宠物、母婴、美食探店等全部赛道,这个人为什么还要思考?

假设你在网上有些不喜欢的创作者,如果有一个功能,例如针对某篇文章,AI直接生成400字的关于这篇文章的最关键的批判。以后你讨厌的创作者每发一篇文章,你就点这个按钮,甚至设置成自动任务,那么你还要不要认真阅读文章本身,要不要阅读AI撰写的回复?

这个问题可以更直白。如果现在你的工作AI可以一键生成并交付,还有多少比例的人希望思考自己的工作?

这不是未来而是现实。在很多内容平台的评论区,有越来越多直接粘贴大段AI文本的评论。评论者也许有个初步念头,或者有个假设,直接交给AI,AI将这个10%完成度的假设推到90%,然后评论者一键粘贴就好。

《她》

这样的过程可能会成为大多数人越来越熟悉的生活模式。在这个模式下,我们慢慢将思考过程交给AI,而结果我们甚至可以不看,这会带来什么影响?

最简单的,这就像人完全依赖GPS导航后,很多人对城市的方向感和街道的记忆能力已经萎缩。

那么当人不再思考的时候,丧失的是什么呢?

刚有AI的时候,我们说AI帮人类完成那些简单而繁琐的事情,这样可以解放人来进行更有价值的思考。这个愿景很美好。

但实际情况是,机器的职责是思考,人的职责是输入、复制、粘贴。我们成了流水线工人,成了衔接AI和其他APP的搬运工,做了里面最没有价值的那部分操作工作。这还是我们要的生活吗?

这个问题还可以进一步往下想,上述图景的出现一定会促使信息爆炸进一步加剧,当然现在信息爆炸已经够可怕,这会让每个人面对一个抉择:面对这么多信息,你是依靠算法为你推荐内容,还是依靠自己的选择来锁定茫茫信息海洋的少部分内容?

后者听上去更自主,也更浪漫,但每个人都可以自我审视,在多大的程度上,我们可以抛弃算法推荐?毕竟“选择内容”也是一种耗神的思考,而我们可能早就把这个思考放弃了。

04.

AI“赋能”的对象

在《未来简史》中,尤瓦尔赫拉利描述了一种“超级人类”(Homo Deus),通过与AI技术的深度融合,这种人会掌握巨大的能力,而大多数未被升级的人则可能被边缘化甚至淘汰。他也将此作为一种“物种升级”的路径。

但从现在AI发展的方向上看,我很怀疑一个人与AI融合成为超级人类,而不是成为AI生成内容的机械复读机。

试想一个人的大脑已经与AI深度融合,AI能够实时采集到ta面对的外界输入,并以极快的速度生成大量回复和文本。

在什么情况下,ta有能力处理和加工这些文本,而不是变成一个“读稿机器”呢?

而这样的人,未必是一个“超级人类”,MIT Sloan(MIT的AI研究机构)2024年的一个实验发现:在决策任务里,“人+AI”平均表现竟弱于最强的单个人,原因是用户倾向无条件采纳模型建议,忽略效验步骤。

今天的AI,同一个问题,以三种不同视角询问三次,AI可能会给出完全不同的回答,这些回答间互相比对校正,也许能得到一个非常有价值的综述。

如果是个人,每日以不同视角向AI提供并比对三份可能40%左右相同的答案,这绝对是无法完成的工作。

但如果你设想,这是一个研究团队呢?这个研究团队由三个不同学科背景的人构成,ta们共同研究一个问题,使用AI进行研究,并在这三个人之间来进行研究结果的综合,这会不会是一个很有意思的方法?

《少数派报告》

AI的赋能对象不是个人,而是团队。团队协作是抗衡信息爆炸和AI“思考剥夺”的缓冲器。

人与人协作的部分不仅扩展了单一AI回答的偏狭,还通过人与人的交流确保个体需要完成阅读和理解AI的回复,并在人与人的即时讨论中加工这些回复,而不是成为“AI搬运工”。

在这个角度上,AI不可能嵌入现有某个团队的工作流,而是这个团队需要围绕AI重构工作流。

可以设想一个团队里几个人专门负责从不同视角利用AI进行发散,而有一个专门的人对这些发散的内容进行查核与纠错;或是一个专门的人再用AI对两个不同的答案进行“对撞”和二阶分析,这种设计框架是非常多样的。

但无论如何多样,在这样的一个团队中,AI处在工作流程的核心,人一定是在AI的基础上进行信息的再分辨和加工的。

这样的设计主要针对工作场景,那么个体生活呢?

当个体生活被包裹在各种AI中,属人的部分会快速被掏空。但存在另一主体互相碰撞的生活呢?是否也会成为个体生活的某种“缓冲器”?也许这个思路不只针对团队。

尾声.

抓好,准备冲击

(*本段包含AI生成的文字)

上述内容的思路和文字都由笔者独立逐句写成,其中的一些资料搜索使用了AI。最后,不如以上文作为内容基础,让AI来写结尾吧。

以下文字由AI生成:

回到开端,我们必须承认:当AI的产能远超个体的处理极限,“思考”本身就变成稀缺资源。

未来最有韧性的模式,很可能是“多脑-多机”共栖——让数名背景各异的人在同一个问题上并行调用AI,随后用人类的对话、辩护与质疑把机器输出重新编织。

这种团队-AI循环有三重机会。 第一,是把算法偏差互相抵消。

第二,是把快速生成的碎片沉淀为结构化知识(作者注:这句总结不错,其实生成内容未必是碎片,但作为一个个体,阅读AI生成段落是非常碎片的,也许需要一个团队和人际构成流程,才能在脑海中“定型”,或者用这里的话“结构化”)。

第三,是迫使成员持续练习元认知(作者注:这个词汇太模糊敷衍),避免沦为“AI搬运工”。

团队的存在让“思考”成为团队协作流程中被锁定的过程,令稀缺的思考必然在人脑中发生(作者注:这里是笔者加的一句)。

《超体》

但风险同样尖锐: 第一,协作若缺少透明日志与角色分工,AI建议仍可能被集体“自动签收”,形成羊群错判; 第二,分布式工作流将制造新的技术门槛,未能进入团队生态的人,反而更快被边缘化; 第三,海量机器草稿可能拖慢决策节奏——人类争执在何时停止求证、开始行动。

因而,制度层面需要建立“机器-人”双重审计、错题本与定期“无AI日”等护栏,生活层面则要重启面对面的讨论与共同创作,让心智在摩擦中保持弹性。

唯有如此,我们才能把信息洪流化作新文明的水力,而非被其吞没。

*本文原标题《到2025年,我们该如何与AI协作》,声明:文章观点仅代表作者本人,不代表看理想平台立场,欢迎提供不同意见的讨论。

文章版权及转载声明

作者:访客本文地址:https://ddwi.cn/ddwi/11047.html发布于 2025-05-14 15:03:09
文章转载或复制请以超链接形式并注明出处爱美网

阅读
分享