泡泡资讯网

AI 的最大瓶颈,从来不在算力:在你能不能把“我要什么”说到见血

凌晨两点,屏幕一亮,你对着输入框敲下那句最常见的求救:“帮我写个方案。”这四个字,像在酒吧门口冲保安喊“让我进去”,连你

凌晨两点,屏幕一亮,你对着输入框敲下那句最常见的求救:“帮我写个方案。”

这四个字,像在酒吧门口冲保安喊“让我进去”,连你自己都不知道进去要找谁、要干嘛、要不要喝、喝到几点、喝完去哪。AI 也一样,它不是读心术,它只会把你丢给它的词,揉成一块“平均值面团”,烤出一块标准面包:不难吃,没记忆点。

很多人把这事当技巧问题,去背“提示词模板”,像背驾校口诀。背完确实能开两圈,遇到雨夜、逆光、窄路、旁边还有一辆大货车按喇叭——手又开始抖。卡你的不是模板,是你根本没把自己要去的地方说清楚。表达能力在这里不再是语文课那点修辞,它变成了一种“把模糊欲望切成可执行指令”的肌肉。

你看那起闹到全世界都知道的法律事故:纽约律师把 ChatGPT 生成的虚构判例塞进法庭文件里,最后被法官制裁、罚款,媒体把它当成 AI 幻觉的笑话讲到天荒地老。可那段荒诞感最强的地方,压根不在“AI 会编”,而在“人把核验这件事用一句话打包外包给了机器”。你把“请给我可引用、可核验、附出处、能在法学数据库查到的案例”说成“给我判例支持”,AI 就像酒桌上吹牛的朋友,张口就来,还带点自信的表情。它不怕丢人,你要替它丢人。

更狠的是,表达差的人会把 AI 用成一台“自我麻醉机”。写作实验里,研究者给一群人写任务,让他们用 ChatGPT,结果完成时间平均更短、质量评分更高——听着像开挂。

你要是就停在这一步,会很容易上瘾:一上来先让 AI 生成,再随手改改,心里还有点得意,觉得自己在“协作”。可那份“协作”常常像快餐:咬第一口很爽,吃多了味觉迟钝。后来还有研究用脑电之类的方法去观察写作时的投入差异,讨论“使用聊天机器人会不会让人更偷懒、更依赖”,争议很大,但那股警报味已经出来了:你越不愿意把想法说清楚,越倾向复制粘贴,最后连“我到底要表达什么”都懒得追问自己。

表达能力弱的人,最爱把 AI 当“答案机”;表达能力强的人,会把 AI 当“显微镜”和“刀”。

前者问:“给我一个增长方案。”

后者会把问题拆得像解剖:目标人群是哪一类人,先排除谁;预算是零还是可买量;你要一周见效还是三个月;你能承受的失败是什么样;指标用留资、转化还是复购;你现在卡在渠道、内容还是产品;你要它输出成表格、流程、脚本还是邮件。你越像一个会说人话的导演,AI 越像一支听得懂暗号的剧组。

有个特别讽刺的细节:学界早就承认“提示词质量会显著影响模型表现”,甚至有人干脆把“写指令”当成可优化的对象,让模型自己去生成、筛选更好的指令——把指令当成“程序”来调参。那篇做 Automatic Prompt Engineer(APE)的论文里,方法核心就一句话味道:指令不是祈祷词,指令是可搜索、可比较、可选优的东西。

读到这里你会有种怪异的感受:人类一直以为自己在“跟 AI 说话”,结果真正被训练的,是人类如何把话说得更像“可执行语言”。

再把镜头拉近一点,你会发现表达能力差,通常不是词汇量少,而是脑子里没有“约束”。

没有约束的人,说“帮我写个品牌故事”,心里连品牌到底卖给谁、凭什么、怕什么、讨厌什么都没定。AI 当然写得像广告流水线:温暖、励志、愿景、使命,读完像喝了一杯温水。

有约束的人会直接把自己逼到墙角:品牌故事里必须出现一次失败、一次羞辱、一次代价;必须把竞争对手说得具体到“某个广告语”;必须把用户的脾气写得像一个会在深夜退货的人;字数 800,三段,第一段不许用形容词,最后一句必须能当朋友圈文案。你给 AI 的不是“自由”,是“栅栏”。栅栏越清楚,它跑得越猛。

最阴暗的那层在于:表达能力这东西,会变成新的阶层门槛。

以前拼的是会不会用 Excel、会不会做 PPT;接下来拼的是能不能把工作讲清楚,讲到“别人照着做就能复现”。会写的人把 AI 当十个实习生:分工、验收、返工、对齐口径。不会写的人把 AI 当许愿池:扔硬币,盼奇迹。等到团队里有人用 AI 每天产出十倍内容、还更贴近业务语境,那种差距不像“努力点就追上”,更像“语言系统不在一个频道”。MIT 那类研究里提到的生产率提升,最受益的往往是原本能力较弱的人,因为 AI 补上了他们的短板;但当所有人都有 AI,差距又会重新回到“谁能更精确地下指令、谁能更狠地做校验”。

说到这里,那句“人的表达能力是 AI 最大瓶颈”就开始露出它真正的残酷:瓶颈不是嘴,是你敢不敢对自己说实话。

你不敢承认自己需求含糊,你就会一直写“随便”“大概”“差不多”。

你不敢承认自己没想清楚,你就会让 AI 替你想,然后你拿着那份“看起来很像那么回事”的文本去开会,像穿着租来的西装去相亲:远看挺像,坐下就露怯。

你不敢承认自己要的是“结果”,却只肯给“模糊的愿望”,AI 就会持续给你“模糊的安慰”。

最后留一口狠的:AI 把表达能力从软技能拽成了硬通货。

以前你说不清楚,顶多显得沟通差;现在你说不清楚,等于你没法使用一台几乎无限的外脑。那不是“用不好工具”,那是“工具根本不承认你在下指令”。

评论区我想看你们最真实的一句“烂提示词”:你平时最爱对 AI 说的那种含糊话是什么?我也把它当场改成一句能出活、能验收、能复现的狠话。想持续看这种“把雾写成刀”的玩法,点个关注,后面我会把常见场景(写简历、做方案、做调研、做内容、做汇报)里最容易翻车的表达坑,一个个扒开给你看。

参考文献

[1] NOY S, ZHANG W. Experimental Evidence on the Productivity Effects of Generative Artificial Intelligence[EB/OL]. (2023-07-14)[2026-02-27]. https://news.mit.edu/2023/study-finds-chatgpt-boosts-worker-productivity-writing-0714⁠�.

[2] PENG S, KALLIAMVAKOU E, CIHON P, et al. The Impact of AI on Developer Productivity: Evidence from GitHub Copilot[EB/OL]. (2023-02-13)[2026-02-27]. https://arxiv.org/abs/2302.06590⁠�.

[3] ZHOU Y, BANERJEE S, et al. Large Language Models Are Human-Level Prompt Engineers[EB/OL]. (2022-11-03)[2026-02-27]. https://arxiv.org/abs/2211.01910⁠�.

[4] REUTERS. New York lawyers sanctioned for using fake ChatGPT cases in legal brief[EB/OL]. (2023-06-22)[2026-02-27]. https://www.reuters.com/legal/new-york-lawyers-sanctioned-using-fake-chatgpt-cases-legal-brief-2023-06-22/⁠�.

[5] TIME. How AI Tools Like ChatGPT Are Changing Learning and Cognitive Engagement[EB/OL]. (2024-01-01)[2026-02-27]. https://time.com/7295195/ai-chatgpt-google-learning-school/⁠�.

[6] BRYNJOLFSSON E, LI D, RAYMOND L R. Generative AI at Work[R]. Cambridge, MA: National Bureau of Economic Research, 2023.

[7] MOLLICK E. Working with AI: Real-World Prompting Strategies and Productivity Effects[EB/OL]. (2023-01-01)[2026-02-27]. https://www.oneusefulthing.org⁠�.