最近和朋友聊,发现一个有意思的现象。
有人觉得 AI 万能,把什么都往里丢;有人觉得 AI 要取代工程师,开始焦虑。
这两种反应,其实都跑偏了。
先说一个真实场景。
某工程师在做时钟域交叉(CDC)验证,直接问 AI:“帮我检查一下这段代码有没有 CDC 问题。”
AI 洋洋洒洒给出了一份分析,指出了几处信号同步问题,建议加双触发器同步器,格式规范,看起来很专业。
但是完全不对。
为什么?因为那个问题本身就没问清楚。这是多 bit 信号,不是单 bit,加双触发器不够,需要握手协议。
AI 没问,工程师也没说。这不是 AI 犯蠢,这是输入垃圾,输出垃圾。
AI 的本质是一个放大器。
这句话不是在夸它,也不是在贬它,就是在描述它是什么。
你输入的东西质量高,它帮你跑得更快;你输入的东西质量差,它帮你跑得更偏。而且跑偏的时候,它表情严肃、逻辑自洽,非常有说服力。
这才是真正需要警惕的地方——不是 AI 太弱,而是它太擅长把模糊的问题包装成看起来严谨的答案。
芯片研发是一个对准确性要求极高的行业。这个行业没有”差不多”,只有”对了”和”错了”。
在这个背景下,迷信 AI 的风险比不用 AI 的风险更大。
真正的问题从来不是”AI 写的代码对不对”,而是”你给 AI 的问题对不对”。
❌ 模糊的问题: "帮我优化这个模块的时序" ✅ 清晰的问题: "这个模块在 500MHz 下有 3 处 hold violation, 路径都经过同一个 MUX, 帮我分析是综合约束问题还是代码架构问题"同一个 AI,同一个工具,两个问题得到的结果天差地别。
再说说”恐惧 AI”这件事。
担心被取代的焦虑,本质上是把 AI 当成了一个独立的竞争者,觉得它在和自己抢同一件事做。
但 AI 根本不是这个结构。
它不理解这颗芯片要解决的业务问题是什么,不知道这个工艺节点的历史坑在哪,不清楚团队上一个版本留下了什么技术债。它没有上下文,没有判断力,没有对”什么是真正重要的”的感知。
这些东西,才是工程师真正的护城河。
AI 让平庸的工程师更平庸,让优秀的工程师更高效。
这不是在吓人,是在描述一个已经在发生的分化。时间长了,差距会很明显。
工具越强,提出好问题的能力越值钱。不用迷信它,也不用怕它。把它当一个执行力极强但需要你来掌舵的工具,就对了。