如果没人写代码了,AI也会开始变差
最近有一种很流行的说法:
AI 会取代程序员。
听起来很合理。
毕竟现在的AI,已经可以写代码、改bug,甚至能搭出一个完整的小系统。
但我一直有一个相反的直觉:
如果有一天,真的没有人类程序员再写代码了,
AI 写出来的代码,反而会越来越差。
不会更好,只会更乱。
就像一座本来就不太稳的建筑,
开始在自己的残骸上继续往上加层。
一、AI写代码,更像是在“模仿”,而不是“创造”
很多人把AI想得太“聪明”了。
但它做的事情,其实很朴素:
看过很多代码 → 记住大致的样子 → 拼出一段“像样的代码”
它不像工程师那样:
- 理解为什么这样设计
- 知道哪里是关键
- 明白什么地方不能动
它更像一个:
见过很多答案,但不一定真正理解问题的人。
所以你会发现:
- 它可以写得很快
- 也可以写得“看起来不错”
- 但一旦复杂一点,就容易开始漂
二、真正的问题,不在今天,而在“以后”
现在的AI之所以好用,是因为它在学习:
人类过去几十年写下来的代码
但如果未来某一天:
人类不怎么写代码了,
大部分代码都由AI生成。
那接下来会发生一件很微妙的事情:
AI开始学习“AI自己写的代码”。
一开始可能没什么问题。
但慢慢地,就会变成:
- 小错误,被当成正常
- 不合理的设计,被反复复制
- 原本清晰的结构,被不断稀释
就像一群人互相抄作业,
一开始还能维持水平,
后来就只剩“看起来差不多”。
三、系统不会一下崩掉,但会慢慢变“脏”
这种变化,不会是突然的。
不会有某一天,代码突然全都不能用了。
而是:
- 代码越来越长
- 修改越来越困难
- 小问题越来越多
- 每次修复,都带出新的问题
你会感觉:
系统还在跑,但越来越不对劲。
这就是很多人熟悉的状态:
屎山不是一天形成的。
四、那程序员真正做的是什么?
很多人以为程序员的工作是“写代码”。
但真正做过系统的人都知道:
写代码,是最不重要的一步。
更重要的是那些“写不出来的东西”:
想清楚边界
- 什么该拆
- 什么该合
- 什么该暴露,什么该隐藏
这决定了系统是不是“可控”。
处理那些不体面的现实
- 用户乱点
- 数据异常
- 系统超负荷
这些问题,没有标准答案。
只能靠经验、判断,甚至直觉。
在不确定中做选择
很多时候不是“对 or 错”,
而是:
- 更稳
- 更简单
- 更能活下去
这些选择,不在代码里。
五、AI改变的,其实不是“有没有程序员”
而是把人分开了。
慢慢会变成两种人:
一类人,会用AI
- 会写prompt
- 会调工具
- 能很快做出结果
他们很高效,但更多是在“用”。
另一类人,正在变少
- 能看懂一个系统为什么会坏
- 能提前知道哪里会出问题
- 能把复杂的东西变简单
他们不一定写很多代码,
但他们决定系统会变成什么样。
六、这不只是编程的问题
但这件事,其实不只发生在编程上。
如果你稍微留意一下,会发现同样的事情,正在其他领域悄悄发生。
写作也是如此
如果有一天,大多数文章都由AI生成,
人类不再认真写东西了。
那AI接下来学习的,将不再是:
- 有思考的文字
- 有经验的表达
- 有真实感受的语言
而是:
一堆“看起来像文章”的句子。
久而久之:
- 文字还在变多
- 表达却在变浅
- 情绪还在
- 但“人”慢慢不见了
专业领域也是如此
无论是法律、医学,还是工程、金融。
如果:
- 一线从业者不再深入思考
- 判断开始被AI替代
- 决策变成“模型建议 + 人类确认”
那AI最终学到的,也会变成:
被简化过、被妥协过的“二手经验”。
七、一个被验证过的风险
这并不是一个纯粹的假设。
在论文 The Curse of Recursion: Training on Generated Data Makes Models Forget 中,研究者让模型不断在“AI生成的数据”上进行训练。
结果是:
- 表达能力逐渐下降
- 内容变得越来越单一
- 错误开始被放大并固化
这个现象被称为:
Model Collapse(模型塌缩)
换句话说:
当一个系统只学习自己的产出时,
它不是在进化,
而是在遗忘世界。
八、结尾
所以问题也许不是:
AI 会不会取代程序员?
而是:
当代码、文字、知识都可以被轻易生成,
我们是否还在产生
那些值得被学习的东西。
附:一句话版本(适合分享)
AI 让写代码变得很容易。
但让“系统变好”,反而更难了。
不只是代码。
如果人类停止创造,
AI最终学到的,
只会是AI自己。





